레플리
글 수 282

딥러닝과 자연어처리의 집중 메커니즘

조회 수 1019 추천 수 0 2018.09.08 15:21:58


 

http://wizardsnote.tumblr.com/post/136672232610/%EB%94%A5%EB%9F%AC%EB%8B%9D%EA%B3%BC-%EC%9E%90%EC%97%B0%EC%96%B4%EC%B2%98%EB%A6%AC%EC%9D%98-%EC%A7%91%EC%A4%91-%EB%A9%94%EC%BB%A4%EB%8B%88%EC%A6%98

 

 

 

신경망 번역이나 챗봇에서도 자주 쓰이는 딥러닝의 Seq2Seq는 RNN으로 구성된 인코더와 디코더로 이루어져 있습니다. 문장이 입력으로 들어오면 새로운 문장이 바로 출력으로 나오는 구조입니다.

 

인코더의 출력 벡터가 입력 문장의 전체 정보를 가지고 있고 이것이 디코더의 입력으로 들어갑니다. 하지만 벡터값 하나에 모든 정보를 담고 있다 보니 문장이 길어질수록 정확도가 떨어지는 문제가 있습니다. 이런 단점을 보완하기 위해 어텐션(attention)이란 기법을 사용하는데 여기에 대해 아주 쉽게 설명한 글입니다.

 

간단히 설명하면 인코더에서 각 단어마다 반복되는(RNN의 특성인) 히든스테이트의 출력을 모아서 새로운 어텐션 신경망을 만들고 이것을 디코더의 출력 순서에 맞게 입력으로 같이 사용합니다. 그래서 디코더의 각 단계마다 입력 문장의 어느 부분에 더 집중을 할지 알 수 있습니다. 좀 더 자세한 사항은 아래 링크를 참조하시기 바랍니다.

 

 

 

< Attention Mechanism 시각화 >
http://docs.likejazz.com/attention/

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수
구글의 초거대모델 PaLM의 추론과 상식 능력 file 깊은바다 2022-05-20 838
글자, 사진, 영상을 동시에 처리하는 딥마인드의 딥러닝 모델 - Flamingo file 깊은바다 2022-05-10 1416
메타, GPT-3와 동급인 175B의 초거대모델 무료 공개 깊은바다 2022-05-04 1188
GPT-3보다 3배 더 큰 구글의 초거대모델, PaLM file 깊은바다 2022-04-07 1405
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA file 깊은바다 2022-04-05 12006
교육용 챗봇의 미래!? 구글 람다 (LaMDA) 깊은바다 2022-03-11 1361
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3568
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3169
구글의 대화기반 초거대모델 LaMDA, 논문 공개 file 깊은바다 2022-02-08 1358
프로그램을 작성하는 딥마인드의 알파코드 file 깊은바다 2022-02-04 1005
GPT-3를 강화학습으로 업그레이드한 InstructGPT file 깊은바다 2022-01-30 2561
DALL-E를 능가하는 OpenAI의 GLIDE 깊은바다 2021-12-27 836
검색기반 거대모델인 딥마인드의 RETRO 깊은바다 2021-12-20 511
HyperCLOVA로 만드는 캐릭터 챗봇 file 깊은바다 2021-11-26 761
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3328