레플리
글 수 281

GPT-3를 강화학습으로 업그레이드한 InstructGPT

조회 수 2553 추천 수 0 2022.01.30 01:31:38


K-001.png

 

OpenAI에서 GPT-3의 업그레이드 버전인 InstructGPT를 선보였습니다. 이름 그대로 사람이 직접 GPT에게 이렇게 대답해야 한다고 가르칩니다. 그 결과 기존 GPT-3보다 더 믿을만하고 안전한 문장들을 생성합니다. 또한 13억 파라미터의 InstructGPT 모델이 1750억 파라미터의 GPT-3 모델보다 대답의 품질이 더 높다고 합니다.

 

이를 위해서 40명의 라벨러를 고용했습니다. 먼저 사람이 질문에 대해서 올바른 대답을 작성하고, 이 데이터셋으로 파인튜닝을 합니다. 다음으로 질문에 대해서 모델이 작성한 대답들을 사람이 점수를 매기고, 이를 사용하여 reward 모델을 학습합니다. 마지막으로 이 reward 모델을 기반으로 강화학습을 사용하여 다시 GPT를 파인튜닝합니다.

 

이미 GPT-3 API에서 기존 모델들은 모두 InstructGPT로 변경되었습니다. 저도 테스트를 해봤는데 예전보다 성능이 더 좋아진 느낌입니다. 초거대모델에 강화학습이 도입되었다는게 신기하네요. 딥러닝의 진화는 끝이 없습니다.

 

 

 

< 논문 >

https://cdn.openai.com/.../Training_language_models_to...

 

< 뉴스기사 >

https://www.technologyreview.com/.../new-gpt3-openai.../

 

List of Articles
제목 글쓴이 날짜 조회 수sort
BERT 톺아보기 깊은바다 2018-12-17 26387
딥러닝을 사용한 챗봇 개발방법 정리 file 깊은바다 2018-02-03 25392
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA file 깊은바다 2022-04-05 11895
글쓰기 보조 서비스 JasperAI, ChatGPT 때문에 어려움 직면 깊은바다 2023-03-01 9692
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9262
딥러닝 RNN으로 구현한 챗봇 깊은바다 2017-08-01 8129
문장을 학습하는 딥러닝 RNN의 Seq2Seq 모델 설명 file 깊은바다 2017-09-15 7326
챗봇에 딥러닝 학습을 적용하기 어려운 이유 file 깊은바다 2018-03-23 6635
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6307
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6162
SKT가 공개한 한글 GPT2 - KoGPT2 깊은바다 2020-02-02 5290
챗봇에서 유사한 문장 자동인식 방법 file 깊은바다 2018-04-27 5134
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4649
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 4294
인라이플의 한글 BERT 대형모델 깊은바다 2020-05-18 4245