레플리
글 수 281

일상대화 챗봇 레플리카(Replika)의 구현 방식

조회 수 1500 추천 수 0 2020.12.22 15:41:47


레플리카(Replika)는 대표적인 일상대화 챗봇입니다. 그 구조를 보면 크게 세 부분으로 이루어져 있습니다.

 

replika1.jpg

 

 

 

첫째, 스크립트입니다. 사람이 직접 작성한 시나리오에 따라 대화가 흘러갑니다. 둘째, 검색(retrieval)입니다. 사람이 입력한 문장 목록에서 질문에 적합한 대답을 찾습니다. 셋째, 생성모델입니다. 신경망으로 직접 대답 문장을 만들어냅니다.

 

replika2.jpg

 

replika8.jpg

 

 

 

아직은 검색 부분이 가장 중요합니다. QA-LSTM 모델을 사용했는데, 질문과 대답을 각각 별도의 LSTM으로 분리합니다. 그리고 각 출력을 어텐션으로 합치고, 두 벡터의 코사인 유사도를 구합니다. 이 유사도가 높으면 질문과 대답이 올바르다는 의미입니다.

 

replika3.jpg

 

replika4.jpg

 

 

 

이런 구조의 장점은 대답의 LSTM 출력 벡터를 사전에 계산해놓을 수 있다는 것입니다. 그래서 질문 문장만 결과를 얻어서 코사인 연산을 하면 빠르게 정답이 나옵니다. BERT 같은 경우 질문과 대답 문장을 하나의 입력에 넣어서 계산합니다. 만약 대답 목록이 1만개의 문장이라면 모두 1만번의 추론을 해야 합니다. 당연히 실시간으로 처리하기가 어렵습니다.

 

replika5.jpg

 

 

 

이렇게 20개의 후보 대답을 골라냅니다. 그다음 BERT로 두 번째 후보를 선택합니다. 후보 문장이 적기 때문에 BERT를 써도 충분히 속도가 빠릅니다. 이때 사용자가 좋아요/싫어요 했던 피드백 정보로 학습합니다. 덕분에 정확도를 상당히 높일 수 있었다고 합니다.

 

replika6.jpg

replika7.jpg

 

 

 

< 발표 자료 >

-> https://github.com/.../replika-research/tree/master/scai2019

 

List of Articles
제목 글쓴이 날짜 조회 수sort
BERT 톺아보기 깊은바다 2018-12-17 26387
딥러닝을 사용한 챗봇 개발방법 정리 file 깊은바다 2018-02-03 25393
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA file 깊은바다 2022-04-05 11904
글쓰기 보조 서비스 JasperAI, ChatGPT 때문에 어려움 직면 깊은바다 2023-03-01 9692
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9278
딥러닝 RNN으로 구현한 챗봇 깊은바다 2017-08-01 8130
문장을 학습하는 딥러닝 RNN의 Seq2Seq 모델 설명 file 깊은바다 2017-09-15 7326
챗봇에 딥러닝 학습을 적용하기 어려운 이유 file 깊은바다 2018-03-23 6635
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6307
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6162
SKT가 공개한 한글 GPT2 - KoGPT2 깊은바다 2020-02-02 5290
챗봇에서 유사한 문장 자동인식 방법 file 깊은바다 2018-04-27 5135
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4649
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 4294
인라이플의 한글 BERT 대형모델 깊은바다 2020-05-18 4245