레플리
글 수 290


K-001.png

 

K-002.png

 

K-003.png

 

K-004.png

 

K-005.png

 

K-007.png

 

K-008.png

 

 

 

WizardLM의 Evol-Instruct 방법으로 한글 데이터셋을 만들고 학습한 모델을 소개합니다. Polyglot 12.8B을 베이스로 파인튜닝했습니다. 저도 테스트해봤는데 대답이 상당히 자세한 편입니다. 다만 가끔씩 이상하게 생성될 때도 있습니다. 좀 더 보완하면 괜찮은 한글 모델이 나올 듯 합니다.

 

최근 LLM을 만들 때 추가 데이터셋으로 파인튜닝이 중요해졌습니다. InstructGPT가 그 시작인데요. GPT-3를 사람이 직접 작성한 질문/대답의 데이터셋으로 추가 학습을 하였습니다. Alpaca는 LLaMA를 파인튜닝한 모델입니다. 이때 데이터셋을 GPT-3를 써서 self-instruct 방식으로 자동 생성했습니다. Vicuna는 ShareGPT의 데이터를 사용했습니다. ShareGPT는 사람이 질문하면 GPT가 답변한 내용을 공유하는 사이트입니다.

 

WizardLM 역시 Alpaca와 비슷하게 ChatGPT를 써서 자동으로 데이터셋을 생성했습니다. 다만 Evol-Instruct를 썼는데 self-instuct보다 좀 더 어렵고 복잡한 데이터를 만들 수 있습니다. 하나의 데이터를 6가지의 종류로 변형하여 진화시키는 방법입니다. 테스트 결과 Alpaca나 Vicuna 보다 높은 점수를 얻었습니다.

 

한글 Alpaca나 한글 Vicuna는 단순히 영어로 된 데이터셋을 한글로 번역을 했습니다. 여기서는 Evol-Instruct로 데이터를 생성할 때 직접 한글로 만들었다는 차이가 있습니다. 특정 도메인의 데이터셋을 직접 만들어서 챗봇을 개발할 때 이런 방식을 적용할 수 있을 것 같습니다.

 

 

 

< 원본 게시글 >

https://www.facebook.com/groups/TensorFlowKR/posts/2062406567433724

 

< 챗봇 데모 >

https://changgpt.semaphore.kr/ko

 

< WizardLM 논문 >

https://arxiv.org/abs/2304.12244

 

List of Articles
제목 글쓴이 날짜 조회 수sort
2018 Amazon Prize에서 우승한 Gunrock 소셜봇 file 깊은바다 2018-12-26 577
좋은 응답을 골라내는 모델 만들기 - 핑퐁의 답변매칭 알고리즘 깊은바다 2020-12-10 579
네이버의 초거대모델인 HyperCLOVA 논문 file 깊은바다 2021-09-13 584
GPT2의 1.5B 모델 공개 깊은바다 2019-11-08 588
딥러닝을 이용한 자연어처리 깊은바다 2018-05-17 589
GPT-3.5와 클로바X 가격 비교 file 깊은바다 2024-02-25 592
일상대화 딥러닝 모델들을 쉽게 실행할 수 있는 Openchat 깊은바다 2021-06-01 596
인공지능과 함께 글쓰기! 창의 AI x Bookathon 대회 - GPT2 깊은바다 2019-11-30 603
구글의 딥러닝 대화 모델 - LaMDA 깊은바다 2021-06-13 606
죽은 약혼자를 챗봇으로 살려낸 남자 - Project December 깊은바다 2021-07-27 611
이성에게 말을 거는 작업멘트를 GPT-3로 생성 file 깊은바다 2021-03-24 613
RAG 아키텍처를 위한 임베딩 모델의 선택에 대해 깊은바다 2023-09-14 633
업스테이지 SOLAR 10.7B에서 사용한 DUS 모델 확장 방법 file 깊은바다 2023-12-27 637
페르소나를 가진 대화 학습 - Personalizing Dialogue Agents file 깊은바다 2018-09-19 638
인플루언서의 목소리 클론과 GPT-4로 만든 아바타 서비스 - Caryn.ai 깊은바다 2023-05-11 638