레플리
글 수 283

일상대화 챗봇 레플리카(Replika)의 구현 방식

조회 수 1508 추천 수 0 2020.12.22 15:41:47


레플리카(Replika)는 대표적인 일상대화 챗봇입니다. 그 구조를 보면 크게 세 부분으로 이루어져 있습니다.

 

replika1.jpg

 

 

 

첫째, 스크립트입니다. 사람이 직접 작성한 시나리오에 따라 대화가 흘러갑니다. 둘째, 검색(retrieval)입니다. 사람이 입력한 문장 목록에서 질문에 적합한 대답을 찾습니다. 셋째, 생성모델입니다. 신경망으로 직접 대답 문장을 만들어냅니다.

 

replika2.jpg

 

replika8.jpg

 

 

 

아직은 검색 부분이 가장 중요합니다. QA-LSTM 모델을 사용했는데, 질문과 대답을 각각 별도의 LSTM으로 분리합니다. 그리고 각 출력을 어텐션으로 합치고, 두 벡터의 코사인 유사도를 구합니다. 이 유사도가 높으면 질문과 대답이 올바르다는 의미입니다.

 

replika3.jpg

 

replika4.jpg

 

 

 

이런 구조의 장점은 대답의 LSTM 출력 벡터를 사전에 계산해놓을 수 있다는 것입니다. 그래서 질문 문장만 결과를 얻어서 코사인 연산을 하면 빠르게 정답이 나옵니다. BERT 같은 경우 질문과 대답 문장을 하나의 입력에 넣어서 계산합니다. 만약 대답 목록이 1만개의 문장이라면 모두 1만번의 추론을 해야 합니다. 당연히 실시간으로 처리하기가 어렵습니다.

 

replika5.jpg

 

 

 

이렇게 20개의 후보 대답을 골라냅니다. 그다음 BERT로 두 번째 후보를 선택합니다. 후보 문장이 적기 때문에 BERT를 써도 충분히 속도가 빠릅니다. 이때 사용자가 좋아요/싫어요 했던 피드백 정보로 학습합니다. 덕분에 정확도를 상당히 높일 수 있었다고 합니다.

 

replika6.jpg

replika7.jpg

 

 

 

< 발표 자료 >

-> https://github.com/.../replika-research/tree/master/scai2019

 

List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4110
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3651
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3565
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3519
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3335
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3292
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3267
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3170
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3126
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022