레플리
글 수 203

신경망에 활성화 함수가 필요한 이유

조회 수 23723 추천 수 0 2019.05.14 16:52:42


60166079_666492127143254_8955792056735760384_n.jpg

 

59913452_666495820476218_1254050581220163584_n.jpg

 

59926815_666498673809266_3128399370328735744_n.jpg

 

https://www.facebook.com/groups/TensorFlowKR/permalink/900098033664589/

 

 

 

신경망에서 활성화 함수가 필요한 이유를 잘 설명한 글입니다. 과거 단층신경망인 퍼셉트론은 XOR 연산을 할 수가 없었습니다. 당시 기호주의 인공지능의 대가인 마빈 민스키가 이를 공격했고, 그후 신경망의 첫 번째 겨울이 시작되었습니다.

 

XOR 연산을 풀기 위해서는 신경망의 출력인 가설 공간을 비선형으로 분리해야 합니다. 직선 하나만으로 4개의 입력을 제대로 구분할 수 없기 때문입니다. 이를 위해서는 먼저 히든 레이어가 필요합니다. 하나의 층으로는 한 번만 분리가 가능하므로 레이어를 중첩하여 여러번 가설 공간을 나눌 필요가 있습니다.

 

두 번째는 비선형으로 된 활성화 함수로 신경망의 출력을 변환해야 합니다. 단순히 중간층을 연결한다고 비선형이 되지 않습니다. 선형 행렬과 선형 행렬을 곱하면 선형이 될 뿐입니다. 그래서 활성화 함수로 한 번 비선형 변환을 거쳐야 합니다.

 

예전에는 활성화 함수로 sigmoid나 tanh를 주로 사용했습니다. 그러나 양 끝의 정보가 없어지면서 그래디언트 소실 문제가 발생하는 것을 발견했습니다. 지금은 ReLU 같이 출력의 정보가 계속 유지되는 함수를 많이 적용합니다.

List of Articles
제목 글쓴이 날짜sort 조회 수
딥러닝 시대에 글로벌 대기업들을 따라잡을 수 있을까 깊은바다 2020-01-30 370
얀 르쿤이 만든 최초의 CNN 테스트 영상 깊은바다 2020-01-19 2245
어떻게 해야 기계에게 글을 잘 읽고 말할 수 있게 할까? - 기계독해(MRC) 깊은바다 2020-01-14 836
딥페이크로 만든 실베스터 스탤론의 터미네이터2 깊은바다 2019-12-29 577
최신 딥러닝 모델들의 학습 비용 깊은바다 2019-12-12 1266
딥러닝이 작동하는 원리는? 깊은바다 2019-11-17 770
GAN을 활용한 My handwriting styler 깊은바다 2019-10-20 913
가중치를 하나로 공유하고 모델의 구조만 찾는 WANN 깊은바다 2019-09-10 916
네이버의 손글씨 자동생성 인공지능 file 깊은바다 2019-09-08 7162
R-CNN 에서 부터 Mask R-CNN 까지 깊은바다 2019-09-03 1407
만화 캐릭터를 자동으로 생성하는 서비스 - Waifu file 깊은바다 2019-08-23 20445
AutoML을 이용한 Architecture Search 소개 및 NASNet 논문 리뷰 깊은바다 2019-08-18 1207
얀 르쿤의 자기지도학습 강의 - The Power and Limits Of Deep Learning file 깊은바다 2019-07-13 1899
딥러닝의 기본 깊은바다 2019-07-12 942
셀프 어텐션만으로 이미지를 인식하는 딥러닝 모델 file 깊은바다 2019-06-26 1868