레플리
글 수 284

딥러닝과 자연어처리의 집중 메커니즘

조회 수 1019 추천 수 0 2018.09.08 15:21:58


 

http://wizardsnote.tumblr.com/post/136672232610/%EB%94%A5%EB%9F%AC%EB%8B%9D%EA%B3%BC-%EC%9E%90%EC%97%B0%EC%96%B4%EC%B2%98%EB%A6%AC%EC%9D%98-%EC%A7%91%EC%A4%91-%EB%A9%94%EC%BB%A4%EB%8B%88%EC%A6%98

 

 

 

신경망 번역이나 챗봇에서도 자주 쓰이는 딥러닝의 Seq2Seq는 RNN으로 구성된 인코더와 디코더로 이루어져 있습니다. 문장이 입력으로 들어오면 새로운 문장이 바로 출력으로 나오는 구조입니다.

 

인코더의 출력 벡터가 입력 문장의 전체 정보를 가지고 있고 이것이 디코더의 입력으로 들어갑니다. 하지만 벡터값 하나에 모든 정보를 담고 있다 보니 문장이 길어질수록 정확도가 떨어지는 문제가 있습니다. 이런 단점을 보완하기 위해 어텐션(attention)이란 기법을 사용하는데 여기에 대해 아주 쉽게 설명한 글입니다.

 

간단히 설명하면 인코더에서 각 단어마다 반복되는(RNN의 특성인) 히든스테이트의 출력을 모아서 새로운 어텐션 신경망을 만들고 이것을 디코더의 출력 순서에 맞게 입력으로 같이 사용합니다. 그래서 디코더의 각 단계마다 입력 문장의 어느 부분에 더 집중을 할지 알 수 있습니다. 좀 더 자세한 사항은 아래 링크를 참조하시기 바랍니다.

 

 

 

< Attention Mechanism 시각화 >
http://docs.likejazz.com/attention/

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
네이버의 초거대모델인 하이퍼클로바 가격 공개 깊은바다 2022-08-24 1861
KoGPT2로 한국어 노래 가사 생성하기 깊은바다 2020-05-21 1856
ChatGPT 한글 자동번역 크롬 확장프로그램 깊은바다 2023-01-17 1854
ChatGPT 플러그인 전략 및 생태계 변화 전망 file 깊은바다 2023-04-09 1825
GPT2를 Colab에서 테스트할 수 있는 코드 깊은바다 2019-05-21 1783
구글의 일상대화 딥러닝 모델 - Meena file 깊은바다 2020-01-30 1771
딥러닝 자연어처리 - RNN에서 BERT까지 [2] 깊은바다 2019-01-07 1756
GPT3 유료화 가격 공개 file 깊은바다 2020-09-04 1748
GLUE: 벤치마크를 통해 BERT 이해하기 깊은바다 2019-11-19 1737
100억건의 카카오톡 데이터로 
똑똑한 일상대화 인공지능 만들기 - 핑퐁 멀티턴 file 깊은바다 2019-08-20 1732
이루다 같은 챗봇은 어떤 원리로 작동하는 걸까? 깊은바다 2021-04-03 1694
심즈와 비슷한 가상세계를 ChatGPT로 구현 - 생성 에이전트(Generative Agents) file 깊은바다 2023-04-14 1681
딥러닝을 사용한 감성분석기 개발 깊은바다 2018-02-22 1658
목적지향 대화 학습 - Learning End-to-End Goal-Oriented Dialog file 깊은바다 2019-02-02 1597
문장의 유사도를 파악하는 구글의 universal-sentence-encoder file 깊은바다 2018-08-29 1596