레플리
글 수 281

구글의 Transformer 신경망 모델

조회 수 3022 추천 수 0 2018.10.13 19:40:13


https://jalammar.github.io/illustrated-transformer/

 

 

 

Transformer(영화제목이 아닙니다^^;)는 작년에 구글이 발표한 신경망 모델로 Seq2Seq 모델과 비슷하게 인코더와 디코더로 이루어져 있습니다. 보통 어텐션은 인코더의 히든 스테이트 중 어떤 것에 집중할지 softmax로 처리하여 디코더 계산에 같이 사용합니다. 하지만 Transformer는 셀프 어텐션 방식으로 인코더와 디코더를 연결하지 않고 내부에서만 어텐션을 사용합니다. 또한 LSTM이나 GRU 같은 RNN이 아니라 어텐션 신경망으로만 이루어져 있다는 것이 가장 큰 특징입니다.

 

예를 들어, "The animal didn't cross the street because it was too tired."라는 문장이 있을때 Seq2Seq는 각 단어가 분리되어 반복적으로 인코더에 입력됩니다. 그리고 디코더에서 'it'을 해석할때 어텐션으로 인코더의 'animal' 위치의 히든 스테이트 정보를 같이 참조합니다.

 

 

 

하지만 Transformer에서는 단어가 아니라 문장 전체를 한번에 입력으로 받습니다. 그리고 인코더에서 디코더로 어텐션을 주지 않고 인코더 자체에서 어텐션을 수행합니다. 'animal' 단어가 'it' 단어 위치에 Scaled Dot-Product 방법으로(이것 역시 softmax입니다) 가중치를 부여합니다. 디코더는 Seq2Seq와 비슷하게 단어별로 하나씩 출력을 합니다.

 

논문에서는 설명이 너무 어려웠는데 이 블로그에서는 그림으로 동작 방식이 자세히 묘사되어 있어 쉽게 이해할 수 있었습니다. 최근들어 많이 주목받고 있는 모델인 만큼 한번쯤 읽어보시길 추천드립니다.

엮인글 :

NeuroWhAI

2018.10.13 20:20:32
*.64.194.131

자료 감사합니다!~

깊은바다

2018.10.13 20:49:58
*.203.215.247

공부해야될게 너무 많아요 ㅠㅠ

List of Articles
제목 글쓴이 날짜 조회 수
ChatGPT 2달만에 누적 사용자 1억명 돌파 깊은바다 2023-02-03 88
ChatGPT 톺아보기 - 인공지능의 역사부터 신경망, 초거대AI, ChatGPT까지 file 깊은바다 2023-02-01 310
ChatGPT 한글 자동번역 크롬 확장프로그램 깊은바다 2023-01-17 1846
Koko 심리상담 서비스에서 GPT-3 대답 추천 기능을 도입 file 깊은바다 2023-01-11 296
ChatGPT보다 한글을 더 잘 대답하는 모델 - Claude file 깊은바다 2023-01-10 816
ChatGPT와 유사한 서비스 - Chatsonic file 깊은바다 2023-01-09 793
페이지링크와 ChatGPT 대화를 동시에 지원하는 검색엔진 - You.com 깊은바다 2022-12-27 235
ChatGPT에게 챗봇을 만들어보라고 해봤습니다 file 깊은바다 2022-12-26 412
ChatGPT는 새로운 검색엔진이 될까 file 깊은바다 2022-12-06 506
OpenAI의 대화전용 딥러닝 모델 - ChatGPT file 깊은바다 2022-12-02 964
네이버의 초거대모델인 하이퍼클로바 가격 공개 깊은바다 2022-08-24 1817
유저 피드백을 받아 지속적으로 학습을 하는 챗봇 - BlenderBot 3 file 깊은바다 2022-08-06 1135
최신 자연어처리 모델 소개 file 깊은바다 2022-07-11 1172
러시아의 구글 얀덱스, 100B 초거대모델 무료 공개 깊은바다 2022-06-26 804
구글의 초거대모델 PaLM의 추론과 상식 능력 file 깊은바다 2022-05-20 837