레플리
글 수 284


íì¤í¸

 

https://github.com/simsimi/DeepBadSentence

 

 

 

심심이는 2002년 처음 출시한 챗봇으로 전세계 챗봇 역사에 큰 획을 그었던 제품입니다. 그전까지 Alice나 Cleverbot은 AIML 같은 형식으로 질문과 대답을 작성하였습니다. 이런 방식은 보다 정교하게 대화를 컨트롤할 수 있다는 장점이 있습니다. 대신 개발자가 일일이 추가를 해야 하기 때문에 데이터셋을 늘리는데 한계가 있었습니다.

 

이 틀을 깨버린 것이 심심이입니다. 사용자가 직접 가르치는 기능을 넣어서 방대한 대화 목록을 구축하였습니다. 말이 이어지지 않거나 부적절한 문장을 걸러내기 어렵다는 문제가 발생했지만, 재미 그 자체에서는 확실한 강점을 보여주었습니다.

 

 

 

보통 일상대화 챗봇은 CPS(Conversation-turns Per Session), 즉 접속 이후 발생한 대화의 개수로 측정합니다. 많이 말을 주고받을수록 더 재미있다는 것을 뜻합니다. MS의 샤오이스가 23, 스캐터랩의 핑퐁이 17입니다. 그런데 제가 직접 들은바에 의하면 심심이는 무려 43입니다. 서비스 기간이 오래되었고 골수팬이 많다는 것을 고려해도 엄청난 수치입니다.

 

핑퐁의 리액션 모델은 입력 문장을 2000개의 카테고리로 분류합니다. 그래서 어떤 말에도 그럴듯한 대답이 가능합니다. 문제는 바로 2000개의 종류 밖에 대답이 없다는 것입니다. 이를 보완하기 위해 Reply Retrieval 모델을 추가하였습니다. 대답 문장만 따로 만들어놓고 질문과 가장 잘 어울리는 문장을 선택합니다. 그러나 결국 이것도 개발자가 작성해야 하므로 무작정 늘리기엔 한계가 있습니다. 심심이 같이 노래 한곡을 서로 이어서 부르는 등 재미있고 다양한 대화를 나누기 어렵습니다.

 

 

 

그동안 심심이의 아킬레스건이었던 나쁜말 필터링 기술이 딥러닝 덕분에 큰 발전을 했다고 합니다. 링크된 글을 보면 실제 글로벌 서비스 경험에서 얻은 인사이트를 느끼실 수 있습니다. 개인적으로는 대화를 좀 더 부드럽게 이어주는 다이얼로그 매니지먼트가 추가되었으면 좋겠습니다. 다만 80개가 넘는 언어에 대응을 해야 하기 때문에 그리 쉽지 않은 도전입니다. 그래도 앞으로 심심이가 일상대화 인공지능 분야에서 훨씬 더 발전할 것이라 생각합니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
페이스북이 발표한 사전훈련 언어모델 RoBERTa file 깊은바다 2019-07-30 1429
GPT-4의 특징 정리 file 깊은바다 2023-03-15 1413
GPT-3보다 3배 더 큰 구글의 초거대모델, PaLM file 깊은바다 2022-04-07 1408
소설 쓰는 딥러닝 file 깊은바다 2018-08-31 1388
GPT-3, InstructGPT, GPT-3.5, ChatGPT의 차이점 깊은바다 2023-04-05 1383
핑퐁의 리액션 모델 - Dialog-BERT 만들기 깊은바다 2020-01-28 1381
사전훈련 자연어처리 모델의 발전과정 - The Illustrated BERT, ELMo, and co. 깊은바다 2019-01-01 1379
RNN seq2seq 간단한 대화모델 깊은바다 2018-10-23 1366
교육용 챗봇의 미래!? 구글 람다 (LaMDA) 깊은바다 2022-03-11 1362
구글의 대화기반 초거대모델 LaMDA, 논문 공개 file 깊은바다 2022-02-08 1361
ChatGPT의 가장 큰 특징인 in-context learning file 깊은바다 2023-02-21 1361
RAG 아키텍처의 이해 깊은바다 2023-07-23 1338
딥러닝 자연어처리 튜토리얼 - DLK2NLP [1] 깊은바다 2018-11-24 1221
LLM 챗봇의 특징 2가지 - RAG와 Function 깊은바다 2023-07-06 1215
Word2Vec 테스트 사이트 file 깊은바다 2019-01-13 1200