레플리
글 수 293


K-001.png

 

K-002.png

 

K-003.png

 

K-004.png

 

K-005.png

 

K-006.png

 

K-007.png

 

K-008.png

 

K-009.png

 

https://deview.kr/data/deview/session/attach/[246]Remember+Me+%EB%A7%9E%EC%B6%A4+%EC%BC%80%EC%96%B4%EB%A5%BC+%EC%9C%84%ED%95%9C+%EA%B8%B0%EC%96%B5%ED%95%98%EA%B8%B0+%EC%B1%97%EB%B4%87.pdf

 

https://tv.naver.com/v/33923955

 

 

 

DEVIEW 2023에서 흥미로운 발표가 있었습니다. 챗봇의 가장 큰 문제점인 장기기억에 대한 주제였습니다. 현재 LLM을 사용하는 챗봇은 여러 턴의 문맥을 이해할 수 있습니다. 이는 앞이 문장들을 포함하여 입력에 넣기 때문입니다. 그러나 단기기억은 가능하지만 시간이 오래 지난 일은 까먹게 됩니다.

 

클로바 케어콜은 어르신들에게 안부인사를 건네며 이상징후를 모니터링하는 AI 서비스입니다. 네이버의 초거대AI인 하이퍼클로바를 사용합니다. 최근에 대화 기억하기 기능을 추가했는데 여기에 대해 간략하게 정리한 내용이 공개됐습니다.

 

 

 

첫째, 대화 내용을 요약합니다. 설명에는 나오지 않았는데 아마 이것 역시 하이퍼클로바로 생성했을 것 같습니다.

 

둘째, 요약한 문장을 장기기억 DB에 저장합니다. 이때 모순, 중복, 포함 등의 관계를 판단하여 추가하거나 삭제합니다.

 

셋째, 장기기억의 문장을 프롬프트로 함께 넣어서 질문 문장을 생성합니다. 이 경우 장기기억에서 특정 문장을 선택해서 그것만 넣는지, 아니면 모든 장기기억을 한 번에 넣는지는 나와있지 않습니다. 제 예상에는 현재 대화 맥락에 맞는 장기기억을 선택하는 과정(이것 역시 하이퍼클로바?)이 있을 듯 합니다.

 

 

 

메타에서 만든 Blenderbot2.0에서도 장기기억이 적용되었습니다. 여기서는 요약한 내용을 임베딩으로 저장해서 모델 연산에 바로 적용했습니다. 반면에 클로바 케어콜에서는 문장 자체를 저장하여 프롬프트에 같이 넣는다는 차이가 있습니다.

 

앞으로 나올 챗봇들은 이런 장기기억 능력이 필수적으로 포함될 것입니다. 그러기 위해서는 아무래도 LLM이 유리합니다. 모델 크기가 작으면 Blenderbot처럼 임베딩 방식으로 기억을 저장해야 하는데, 이런 방법은 유연성이 떨어지고 학습도 어렵습니다. 모든 것을 초거대AI에 맡기는 것이 좀 더 편리하지 않을까 생각합니다.

 

List of Articles
제목 글쓴이 날짜 조회 수sort
스캐터랩의 오픈도메인 챗봇 루다 육아일기 - 모델의 구조 및 동작방식 file 깊은바다 2020-12-30 2023
GPT-3보다 3배 더 큰 구글의 초거대모델, PaLM file 깊은바다 2022-04-07 2012
딥러닝으로 미소녀 챗봇 만들기 깊은바다 2018-06-01 2007
GPT-3로 NPC와 대화를 할 수 있는 게임 시뮬레이터 깊은바다 2021-02-22 1991
문장을 사진으로 변환하는 StackGAN [1] 깊은바다 2018-09-17 1990
문장의 유사성을 예측하고 평가하는 AI - 카카오 심슨 깊은바다 2019-03-20 1969
한국어 형태소 분석기 성능 비교 - khaiii 깊은바다 2018-12-10 1968
ChatGPT의 가장 큰 특징인 in-context learning file 깊은바다 2023-02-21 1968
교육용 챗봇의 미래!? 구글 람다 (LaMDA) 깊은바다 2022-03-11 1965
핑퐁의 리액션 모델 - Dialog-BERT 만들기 깊은바다 2020-01-28 1958
유저 피드백을 받아 지속적으로 학습을 하는 챗봇 - BlenderBot 3 file 깊은바다 2022-08-06 1948
RAG 아키텍처의 이해 깊은바다 2023-07-23 1947
RAG를 사용한 페르소나 챗봇 - ChatHaruhi file 깊은바다 2023-10-17 1946
구글의 대화기반 초거대모델 LaMDA, 논문 공개 file 깊은바다 2022-02-08 1925
사전훈련 자연어처리 모델의 발전과정 - The Illustrated BERT, ELMo, and co. 깊은바다 2019-01-01 1910