레플리
글 수 284


K-001.png

 

K-002.png

 

K-003.png

 

K-004.png

 

K-005.png

 

K-006.png

 

K-007.png

 

 

 

이번 LangCon 2023에서 스캐터랩의 이주홍님이 발표한 내용입니다. 이루다2.0은 생성AI를 적용했습니다. 그래서 이전보다 훨씬 자연스러운 대화를 하는데요. 특히 단조롭지 않고 통통 튀는 대답이 인상적입니다.

 

이번 발표에서 이루다의 페르소나를 어떻게 딥러닝 모델로 구현했는지 대략적인 힌트가 나와있습니다. 제 생각에는 아마 내부 인력(또는 크라우드소싱)으로 이루다 성격에 맞는 대화 문장 데이터를 작성한 것 같습니다. 그것도 상당한 분량으로요.

 

InstructGPT 같이 강화학습 기법을 적용했는지는 잘 모르겠습니다. 강화학습 없이 이루다 전용 문장으로 파인튜닝만 해도 꽤 효과적이라고 봅니다. 그만큼 스캐터랩의 엄청난 노력과 노하우가 들어갔겠지만요.

 

 

 

< 강의자료 >

https://songys.github.io/2023Langcon/data/scatterlab_v2.pdf

 

< 강의영상 >

https://www.youtube.com/watch?v=QAzpAImIrMI

 

List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4113
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3652
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3566
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3526
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3337
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3293
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3269
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3171
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3146
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022