레플리
글 수 283

그림으로 아주 쉽게 설명한, The Illustrated GPT-2

조회 수 2778 추천 수 0 2020.08.15 16:51:07


시각화의 장인 Jay Alammar가 설명하는 GPT2입니다. 정말 쉽게, 그리고 매우 자세히 모델의 동작방식을 보여주고 있습니다. GPT2는 BERT와 마찬가지로 트랜스포머가 기반입니다. 다만 BERT는 트랜스포머의 인코더만 사용하는데 반해, GPT2는 디코만으로 구성됩니다. 예측한 토큰이 다시 입력으로 들어가며 반복해서 토큰을 생성하기 때문입니다. 이를 자동회귀(auto regression)라 부릅니다.

 

 

 

 

뒷부분에는 트랜스포머의 핵심인 셀프 어텐션(self-attention)을 다루고 있습니다. 이전 글(https://nlpinkorean.github.io/illustrated-transformer/)에서 빠져 있던 Masked self-attention이 추가되었습니다. BERT는 모든 입력 시퀀스 전체에 대해 셀프 어텐션을 수행합니다. 하지만 GPT2에서 같은 방법을 적용하면 문제가 발생합니다. 미리 앞에 나올 토큰을 볼 수 있어 답을 알고 맞추게 됩니다. 그래서 현재까지 예측한 토큰까지만 마스킹을 하여 셀프 어텐션을 합니다.

 

 

 

 

 

요즘 GPT3에 관심있는 분들이 많으실 텐데요. 거의 같은 구조이니 이 글을 참조하시기 바랍니다.

 

 

 

< The Illustrated GPT-2 >
- http://jalammar.github.io/illustrated-gpt2/

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
5배 싸진 클로바X의 경량화 모델 - HCX-DASH file 깊은바다 2024-04-26 34
MS의 CTO인 Kevin Scott과 OpenAI와의 협업 깊은바다 2023-03-17 82
ChatGPT 2달만에 누적 사용자 1억명 돌파 깊은바다 2023-02-03 89
ChatGPT iOS 버전 출시 file 깊은바다 2023-05-19 98
ChatGPT가 Stack Overflow를 대체할까 깊은바다 2023-02-16 105
클로바X의 사용량 제한 - QPM과 TPM 깊은바다 2024-04-01 106
구글의 초거대AI LaMDA, 과연 의식을 가지고 있을까 깊은바다 2023-02-17 107
Pi를 만든 Inflection AI, MS로 대거 이직한 이유 깊은바다 2024-03-25 117
MS의 목적은 ChatGPT로 구글이 장악한 검색시장 자체를 무너뜨리는 것 깊은바다 2023-02-11 122
ChatGPT와 대화 인공지능의 미래 깊은바다 2023-02-17 124
와튼스쿨 에단 몰릭 교수의 Bing 사용 후기 깊은바다 2023-02-19 136
딥마인드의 데미스 하사비스, AGI는 신중한 접근 필요 깊은바다 2023-03-22 147
구글, ChatGPT의 라이벌인 Bard 공개 file 깊은바다 2023-02-07 148
MS, Bing과 Edge에 ChatGPT 통합 file 깊은바다 2023-02-08 154
MS 직원의 GPT 기반 콜센터 챗봇 사용기 깊은바다 2023-02-18 158