레플리
글 수 283

딥러닝과 자연어처리의 집중 메커니즘

조회 수 1019 추천 수 0 2018.09.08 15:21:58


 

http://wizardsnote.tumblr.com/post/136672232610/%EB%94%A5%EB%9F%AC%EB%8B%9D%EA%B3%BC-%EC%9E%90%EC%97%B0%EC%96%B4%EC%B2%98%EB%A6%AC%EC%9D%98-%EC%A7%91%EC%A4%91-%EB%A9%94%EC%BB%A4%EB%8B%88%EC%A6%98

 

 

 

신경망 번역이나 챗봇에서도 자주 쓰이는 딥러닝의 Seq2Seq는 RNN으로 구성된 인코더와 디코더로 이루어져 있습니다. 문장이 입력으로 들어오면 새로운 문장이 바로 출력으로 나오는 구조입니다.

 

인코더의 출력 벡터가 입력 문장의 전체 정보를 가지고 있고 이것이 디코더의 입력으로 들어갑니다. 하지만 벡터값 하나에 모든 정보를 담고 있다 보니 문장이 길어질수록 정확도가 떨어지는 문제가 있습니다. 이런 단점을 보완하기 위해 어텐션(attention)이란 기법을 사용하는데 여기에 대해 아주 쉽게 설명한 글입니다.

 

간단히 설명하면 인코더에서 각 단어마다 반복되는(RNN의 특성인) 히든스테이트의 출력을 모아서 새로운 어텐션 신경망을 만들고 이것을 디코더의 출력 순서에 맞게 입력으로 같이 사용합니다. 그래서 디코더의 각 단계마다 입력 문장의 어느 부분에 더 집중을 할지 알 수 있습니다. 좀 더 자세한 사항은 아래 링크를 참조하시기 바랍니다.

 

 

 

< Attention Mechanism 시각화 >
http://docs.likejazz.com/attention/

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
5배 싸진 클로바X의 경량화 모델 - HCX-DASH file 깊은바다 2024-04-26 24
MS의 CTO인 Kevin Scott과 OpenAI와의 협업 깊은바다 2023-03-17 82
ChatGPT 2달만에 누적 사용자 1억명 돌파 깊은바다 2023-02-03 89
ChatGPT iOS 버전 출시 file 깊은바다 2023-05-19 98
클로바X의 사용량 제한 - QPM과 TPM 깊은바다 2024-04-01 101
ChatGPT가 Stack Overflow를 대체할까 깊은바다 2023-02-16 105
구글의 초거대AI LaMDA, 과연 의식을 가지고 있을까 깊은바다 2023-02-17 107
Pi를 만든 Inflection AI, MS로 대거 이직한 이유 깊은바다 2024-03-25 112
MS의 목적은 ChatGPT로 구글이 장악한 검색시장 자체를 무너뜨리는 것 깊은바다 2023-02-11 122
ChatGPT와 대화 인공지능의 미래 깊은바다 2023-02-17 124
와튼스쿨 에단 몰릭 교수의 Bing 사용 후기 깊은바다 2023-02-19 136
딥마인드의 데미스 하사비스, AGI는 신중한 접근 필요 깊은바다 2023-03-22 147
구글, ChatGPT의 라이벌인 Bard 공개 file 깊은바다 2023-02-07 148
MS, Bing과 Edge에 ChatGPT 통합 file 깊은바다 2023-02-08 154
MS 직원의 GPT 기반 콜센터 챗봇 사용기 깊은바다 2023-02-18 158