레플리
글 수 283

Jay Alammar의 트랜스포머 한글 번역글

조회 수 1064 추천 수 0 2019.05.09 19:34:54


 

https://nlpinkorean.github.io/illustrated-transformer/

 

 

 

Jay Alammar의 트랜스포머 글이 한글로 번역이 되었습니다. 개인적으로는 'Attention is all you need' 논문보다는 이 글을 보고 이해가 되었습니다. BERT와 GPT2의 기본이 되는 트랜스포머에 관심있는 분들은 꼭 읽어보시길 추천드립니다. 간단하게 설명을 드리면 다음과 같습니다.

 

 

 

보통 LSTM 기반의 Seq2Seq는 어텐션을 사용하여 중요한 단어에 집중을 합니다. 인코더의 출력을 버리지 않고 모아 어텐션 레이어에 입력으로 넣습니다. 그리고 소프트맥스로 핵심이 되는 단어에 가중치를 주고, 그 정보를 디코더에 보내 같이 계산하여 출력 문장을 생성합니다.

 

반면에 트랜스포머는 LSTM 같은 순환신경망을 빼버리고 셀프 어텐션만 사용합니다. 인코더에서 어텐션 레이어를 거쳐 디코더로 정보를 전달하지 않습니다. 인코더 또는 디코더 내부에서만 어텐션을 수행합니다. 예를 들어, '나는 너를 사랑해'라는 문장이 입력으로 들어온다고 생각해보겠습니다.

 

인코더1 : 나는 너를 사랑해
인코더2 : 나는 너를 사랑해
인코더3 : 나는 너를 사랑해

 

위와 같이 각 인코더를 거치면서 이전 인코더와 각 입력 단어들을 서로 곱합니다. 소프트맥스로 중요한 단어들에 집중하면서 단어와 단어 사이의 연결 의미가 그 안에 새롭게 포함됩니다. 3단어일 경우 3x3=9번의 계산이 이루어집니다.

 

 

 

이런 과정을 거치면 처음 입력의 '사랑해'와 그 다음 인코더의 '사랑해'는 의미가 달라집니다. 인코더를 통과한 '사랑해'는 '사랑해(나는+너를+사랑해)'와 같이 '사랑해'와 나머지 단어들과의 관계가 통합되어 있습니다. 여기서 관련이 높은 단어에 가중치가 더 부여됩니다. 이렇게 인코더에서 핵심적인 의미만 남기고 디코더로 전달합니다. 그러면 긴 문장도 더 잘 기억을 하고 올바른 출력 문장을 생성할 수 있습니다.

 

좀 더 자세한 내용은 링크의 글을 참고하시기 바랍니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
네이버의 초거대모델인 HyperCLOVA 논문 file 깊은바다 2021-09-13 556
2018 Amazon Prize에서 우승한 Gunrock 소셜봇 file 깊은바다 2018-12-26 557
딥러닝을 이용한 자연어처리 깊은바다 2018-05-17 561
죽은 약혼자를 챗봇으로 살려낸 남자 - Project December 깊은바다 2021-07-27 561
인플루언서의 목소리 클론과 GPT-4로 만든 아바타 서비스 - Caryn.ai 깊은바다 2023-05-11 564
일상대화 딥러닝 모델들을 쉽게 실행할 수 있는 Openchat 깊은바다 2021-06-01 569
인공지능과 함께 글쓰기! 창의 AI x Bookathon 대회 - GPT2 깊은바다 2019-11-30 581
이성에게 말을 거는 작업멘트를 GPT-3로 생성 file 깊은바다 2021-03-24 587
구글의 딥러닝 대화 모델 - LaMDA 깊은바다 2021-06-13 587
문장 입력 이진분류 모델 레시피 - 영화평점 학습 [3] 깊은바다 2018-04-04 613
페르소나를 가진 대화 학습 - Personalizing Dialogue Agents file 깊은바다 2018-09-19 618
GPT2를 테스트해볼 수 있는 사이트 - Talk to Transformer file 깊은바다 2020-06-05 621
책 한권을 입력으로 받는 구글의 딥러닝 모델 - Reformer 깊은바다 2020-01-17 622
GPT-4에 CoT 프롬프를 적용하여 2023 수능 국어 1등급 달성 file 깊은바다 2023-08-08 629
대화 인공지능 대회 - ConvAI file 깊은바다 2019-03-25 630