레플리
글 수 281

그림으로 아주 쉽게 설명한, The Illustrated GPT-2

조회 수 2752 추천 수 0 2020.08.15 16:51:07


시각화의 장인 Jay Alammar가 설명하는 GPT2입니다. 정말 쉽게, 그리고 매우 자세히 모델의 동작방식을 보여주고 있습니다. GPT2는 BERT와 마찬가지로 트랜스포머가 기반입니다. 다만 BERT는 트랜스포머의 인코더만 사용하는데 반해, GPT2는 디코만으로 구성됩니다. 예측한 토큰이 다시 입력으로 들어가며 반복해서 토큰을 생성하기 때문입니다. 이를 자동회귀(auto regression)라 부릅니다.

 

 

 

 

뒷부분에는 트랜스포머의 핵심인 셀프 어텐션(self-attention)을 다루고 있습니다. 이전 글(https://nlpinkorean.github.io/illustrated-transformer/)에서 빠져 있던 Masked self-attention이 추가되었습니다. BERT는 모든 입력 시퀀스 전체에 대해 셀프 어텐션을 수행합니다. 하지만 GPT2에서 같은 방법을 적용하면 문제가 발생합니다. 미리 앞에 나올 토큰을 볼 수 있어 답을 알고 맞추게 됩니다. 그래서 현재까지 예측한 토큰까지만 마스킹을 하여 셀프 어텐션을 합니다.

 

 

 

 

 

요즘 GPT3에 관심있는 분들이 많으실 텐데요. 거의 같은 구조이니 이 글을 참조하시기 바랍니다.

 

 

 

< The Illustrated GPT-2 >
- http://jalammar.github.io/illustrated-gpt2/

 

엮인글 :
List of Articles
제목 글쓴이 날짜sort 조회 수
소설을 생성하는 NarrativeKoGPT2 file 깊은바다 2020-06-19 2189
주석을 프로그램으로 변환하는 GPT 모델 깊은바다 2020-06-21 478
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3493
오픈소스 한국어 딥러닝 챗봇 - Kochat 깊은바다 2020-07-03 2498
GPT2에서 문장 생성 시 단어를 확률에 따라 선택하는 방법 깊은바다 2020-07-16 2183
GPT3로 하는 리액트 프로그래밍 file 깊은바다 2020-07-19 769
네이버 뉴스 댓글로 사전훈련한 구어체 모델 - KcBERT 깊은바다 2020-07-20 813
GPT3 튜링 테스트 깊은바다 2020-07-23 668
GPT3가 상식을 가지고 있을까 깊은바다 2020-07-24 739
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6307
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3565
그림으로 아주 쉽게 설명한, The Illustrated GPT-2 깊은바다 2020-08-15 2752
GPT-3의 다섯 가지 한계 깊은바다 2020-08-23 1048
GPT3 유료화 가격 공개 file 깊은바다 2020-09-04 1746
GPT-3 패러다임을 바꿀 미친 성능의 인공지능 등장 및 활용 사례 10가지 깊은바다 2020-09-14 797