레플리
글 수 283

ChatGPT의 가장 큰 특징인 in-context learning

조회 수 1359 추천 수 0 2023.02.21 09:19:47


332298507_1832392993806593_3259489567780363559_n.jpg

 

https://www.facebook.com/seongwan.kim.3/posts/9185808398110883

 

 

 

ChatGPT의 in-context learning에 대해 잘 설명한 글입니다. 사실 이게 LLM의 가장 강력한 특징인데요. 기존 BERT 같은 사전훈련 모델은 새로운 데이터로 파인튜닝을 해야했습니다.

 

하지만 초거대AI인 GPT-3의 등장으로 학습방법이 완전히 바뀌었습니다. 입력에 prompt를 넣어서 이렇게 하라고 말로 설명만 하면 됩니다. 이때 몇 가지 예시를 넣어주면 더욱 좋습니다. 이런 방법을 few-show learning이라고 합니다. in-context learning과 few-shot learning은 비슷한 개념이라고 보시면 됩니다.

 

그런데 ChatGPT가 나오면서 in-context learning이 더욱 강화되었습니다. 이전 GPT-3는 prompt 안에서 few-shot이나 one-shot으로만 예시를 추가했는데요. ChatGPT는 대화를 계속 주고받으면서 가르칠 수 있게 되었습니다. 이게 UX 측면에서 엄청난 차이라고 생각합니다. 그래서 ChatGPT가 이처럼 큰 인기를 끌게 된 것일 수도 있고요.

 

List of Articles
제목 글쓴이 날짜 조회 수sort
Jay Alammar의 트랜스포머 한글 번역글 깊은바다 2019-05-09 1064
한국어 LLM 민주화의 시작 KoAlpaca file 깊은바다 2023-07-17 1060
Seq2Seq와 어텐션 기법을 애니메이션으로 쉽게 설명한 글 깊은바다 2018-10-12 1055
GPT-3의 다섯 가지 한계 깊은바다 2020-08-23 1050
단어를 벡터로 변환하는 Word2Vec 깊은바다 2017-05-04 1039
추천시스템이 word2vec을 만났을때 깊은바다 2018-08-22 1032
Meme 자동 생성기 깊은바다 2020-05-11 1023
딥러닝 기반 자연어처리 기법의 최근 연구 동향 [2] 깊은바다 2017-12-17 1020
딥러닝과 자연어처리의 집중 메커니즘 깊은바다 2018-09-08 1019
페르소나에 따라 대화를 하는 딥러닝 챗봇 by Hugging Face 깊은바다 2020-03-06 1008
프로그램을 작성하는 딥마인드의 알파코드 file 깊은바다 2022-02-04 1005
7B의 Alpaca가 175B의 GPT-3.5와 동급의 성능을 보임 file 깊은바다 2023-03-14 978
가짜뉴스를 생성 또는 판별하는 딥러닝 모델 - Grover 깊은바다 2019-06-01 969
OpenAI의 대화전용 딥러닝 모델 - ChatGPT file 깊은바다 2022-12-02 965
End-To-End Memory Networks - 자연어 질문에 대답하는 모델 [2] 깊은바다 2017-08-21 962