레플리
글 수 203

신경망에 활성화 함수가 필요한 이유

조회 수 23727 추천 수 0 2019.05.14 16:52:42


60166079_666492127143254_8955792056735760384_n.jpg

 

59913452_666495820476218_1254050581220163584_n.jpg

 

59926815_666498673809266_3128399370328735744_n.jpg

 

https://www.facebook.com/groups/TensorFlowKR/permalink/900098033664589/

 

 

 

신경망에서 활성화 함수가 필요한 이유를 잘 설명한 글입니다. 과거 단층신경망인 퍼셉트론은 XOR 연산을 할 수가 없었습니다. 당시 기호주의 인공지능의 대가인 마빈 민스키가 이를 공격했고, 그후 신경망의 첫 번째 겨울이 시작되었습니다.

 

XOR 연산을 풀기 위해서는 신경망의 출력인 가설 공간을 비선형으로 분리해야 합니다. 직선 하나만으로 4개의 입력을 제대로 구분할 수 없기 때문입니다. 이를 위해서는 먼저 히든 레이어가 필요합니다. 하나의 층으로는 한 번만 분리가 가능하므로 레이어를 중첩하여 여러번 가설 공간을 나눌 필요가 있습니다.

 

두 번째는 비선형으로 된 활성화 함수로 신경망의 출력을 변환해야 합니다. 단순히 중간층을 연결한다고 비선형이 되지 않습니다. 선형 행렬과 선형 행렬을 곱하면 선형이 될 뿐입니다. 그래서 활성화 함수로 한 번 비선형 변환을 거쳐야 합니다.

 

예전에는 활성화 함수로 sigmoid나 tanh를 주로 사용했습니다. 그러나 양 끝의 정보가 없어지면서 그래디언트 소실 문제가 발생하는 것을 발견했습니다. 지금은 ReLU 같이 출력의 정보가 계속 유지되는 함수를 많이 적용합니다.

List of Articles
제목 글쓴이 날짜 조회 수sort
퓨샷 러닝(few-shot learning)과 메타 러닝(meta-learning) 깊은바다 2020-06-27 10309
Quick, Draw! - 구글이 만든 그림 맞추기 깊은바다 2017-02-28 10728
DALL.E를 직접 테스트해볼 수 있는 사이트 - DALL.E mini file 깊은바다 2022-05-17 11556
만화 캐릭터를 자동으로 생성하는 서비스 - Waifu file 깊은바다 2019-08-23 20489
신경망에 활성화 함수가 필요한 이유 file 깊은바다 2019-05-14 23727
YOLO, Object Detection Network - 알고리즘 설명 file 깊은바다 2019-06-02 25131
딥러닝의 종류 간단 설명 file 깊은바다 2017-03-11 25170
사진 한장으로 딥페이크 영상을 만드는 앱 - Reface 깊은바다 2020-08-18 27042