레플리
글 수 282

ChatGPT의 가장 큰 특징인 in-context learning

조회 수 1356 추천 수 0 2023.02.21 09:19:47


332298507_1832392993806593_3259489567780363559_n.jpg

 

https://www.facebook.com/seongwan.kim.3/posts/9185808398110883

 

 

 

ChatGPT의 in-context learning에 대해 잘 설명한 글입니다. 사실 이게 LLM의 가장 강력한 특징인데요. 기존 BERT 같은 사전훈련 모델은 새로운 데이터로 파인튜닝을 해야했습니다.

 

하지만 초거대AI인 GPT-3의 등장으로 학습방법이 완전히 바뀌었습니다. 입력에 prompt를 넣어서 이렇게 하라고 말로 설명만 하면 됩니다. 이때 몇 가지 예시를 넣어주면 더욱 좋습니다. 이런 방법을 few-show learning이라고 합니다. in-context learning과 few-shot learning은 비슷한 개념이라고 보시면 됩니다.

 

그런데 ChatGPT가 나오면서 in-context learning이 더욱 강화되었습니다. 이전 GPT-3는 prompt 안에서 few-shot이나 one-shot으로만 예시를 추가했는데요. ChatGPT는 대화를 계속 주고받으면서 가르칠 수 있게 되었습니다. 이게 UX 측면에서 엄청난 차이라고 생각합니다. 그래서 ChatGPT가 이처럼 큰 인기를 끌게 된 것일 수도 있고요.

 

List of Articles
제목 글쓴이 날짜sort 조회 수
사진을 인식할 수 있는 ChatGPT 멀티모달 버전 공개 file 깊은바다 2023-09-26 279
Poe에 추가된 업스테이지의 LLM, Solar-70b file 깊은바다 2023-09-18 438
RAG 아키텍처를 위한 임베딩 모델의 선택에 대해 깊은바다 2023-09-14 519
LLM의 미래는 자율행동과 멀티 에이전트 깊은바다 2023-08-30 300
LLM이 서로 협력하여 프로그램을 개발 - ChatDev file 깊은바다 2023-08-16 751
GPT-4에 CoT 프롬프를 적용하여 2023 수능 국어 1등급 달성 file 깊은바다 2023-08-08 621
LLM의 창발적인 현상인 CoT(Chain of Thouht) 소개 file 깊은바다 2023-07-27 707
RAG 아키텍처의 이해 깊은바다 2023-07-23 1328
GPT-4 세부구조에 대한 정보 유출 깊은바다 2023-07-20 457
Llama 2의 RLHF 구현 방법 깊은바다 2023-07-19 724
한국어 LLM 민주화의 시작 KoAlpaca file 깊은바다 2023-07-17 1059
레포트를 써주는 LLM - GPT Researcher file 깊은바다 2023-07-13 411
LLM 챗봇의 특징 2가지 - RAG와 Function 깊은바다 2023-07-06 1196
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9674
Generative AI — 시장 구조, 기회, moat에 대한 몇 가지 생각 깊은바다 2023-06-27 302