레플리
글 수 283


K-001.png

 

K-002.png

 

K-003.png

 

K-004.png

 

K-005.png

 

K-007.png

 

K-008.png

 

 

 

WizardLM의 Evol-Instruct 방법으로 한글 데이터셋을 만들고 학습한 모델을 소개합니다. Polyglot 12.8B을 베이스로 파인튜닝했습니다. 저도 테스트해봤는데 대답이 상당히 자세한 편입니다. 다만 가끔씩 이상하게 생성될 때도 있습니다. 좀 더 보완하면 괜찮은 한글 모델이 나올 듯 합니다.

 

최근 LLM을 만들 때 추가 데이터셋으로 파인튜닝이 중요해졌습니다. InstructGPT가 그 시작인데요. GPT-3를 사람이 직접 작성한 질문/대답의 데이터셋으로 추가 학습을 하였습니다. Alpaca는 LLaMA를 파인튜닝한 모델입니다. 이때 데이터셋을 GPT-3를 써서 self-instruct 방식으로 자동 생성했습니다. Vicuna는 ShareGPT의 데이터를 사용했습니다. ShareGPT는 사람이 질문하면 GPT가 답변한 내용을 공유하는 사이트입니다.

 

WizardLM 역시 Alpaca와 비슷하게 ChatGPT를 써서 자동으로 데이터셋을 생성했습니다. 다만 Evol-Instruct를 썼는데 self-instuct보다 좀 더 어렵고 복잡한 데이터를 만들 수 있습니다. 하나의 데이터를 6가지의 종류로 변형하여 진화시키는 방법입니다. 테스트 결과 Alpaca나 Vicuna 보다 높은 점수를 얻었습니다.

 

한글 Alpaca나 한글 Vicuna는 단순히 영어로 된 데이터셋을 한글로 번역을 했습니다. 여기서는 Evol-Instruct로 데이터를 생성할 때 직접 한글로 만들었다는 차이가 있습니다. 특정 도메인의 데이터셋을 직접 만들어서 챗봇을 개발할 때 이런 방식을 적용할 수 있을 것 같습니다.

 

 

 

< 원본 게시글 >

https://www.facebook.com/groups/TensorFlowKR/posts/2062406567433724

 

< 챗봇 데모 >

https://changgpt.semaphore.kr/ko

 

< WizardLM 논문 >

https://arxiv.org/abs/2304.12244

 

List of Articles
제목 글쓴이 날짜 조회 수sort
가짜뉴스를 생성 또는 판별하는 딥러닝 모델 - Grover 깊은바다 2019-06-01 969
7B의 Alpaca가 175B의 GPT-3.5와 동급의 성능을 보임 file 깊은바다 2023-03-14 978
프로그램을 작성하는 딥마인드의 알파코드 file 깊은바다 2022-02-04 1005
페르소나에 따라 대화를 하는 딥러닝 챗봇 by Hugging Face 깊은바다 2020-03-06 1008
딥러닝과 자연어처리의 집중 메커니즘 깊은바다 2018-09-08 1019
딥러닝 기반 자연어처리 기법의 최근 연구 동향 [2] 깊은바다 2017-12-17 1020
Meme 자동 생성기 깊은바다 2020-05-11 1023
추천시스템이 word2vec을 만났을때 깊은바다 2018-08-22 1032
단어를 벡터로 변환하는 Word2Vec 깊은바다 2017-05-04 1039
GPT-3의 다섯 가지 한계 깊은바다 2020-08-23 1050
Seq2Seq와 어텐션 기법을 애니메이션으로 쉽게 설명한 글 깊은바다 2018-10-12 1055
한국어 LLM 민주화의 시작 KoAlpaca file 깊은바다 2023-07-17 1060
Jay Alammar의 트랜스포머 한글 번역글 깊은바다 2019-05-09 1063
딥러닝으로 욕설 탐지하기 file [2] 깊은바다 2018-05-04 1073
Dialog-BERT: 100억건의 메신저대화로 일상대화 인공지능 서비스하기 file [1] 깊은바다 2020-04-19 1093