레플리
글 수 283


dst_example.png

 

 

 

목적지향 챗봇에서 많이 사용되는 기술로 슬롯 채우기(Slot Filling)가 있습니다. 만약 피자를 주문하는 챗봇이라면 피자종류와 피자개수를 알아야 합니다. 이런 슬롯들이 채워질 때까지 챗봇이 계속 물어봅니다. 예를 들면, 다음과 같습니다.

챗봇 : 안녕하세요, 무엇을 도와드릴까요?
사용자 : 불고기피자 주문할래
챗봇 : 수량을 입력하세요
사용자 : 2판 보내줘
챗봇 : 불고기피자 2판을 주문하셨습니다

또는 슬롯을 한 번에 채울 수도 있습니다.

챗봇 : 안녕하세요, 무엇을 도와드릴까요?
사용자 : 불고기피자 2판 주문할래
챗봇 : 불고기피자 2판을 주문하셨습니다

 

 

 

보통 챗봇빌더는 개체명인식(NER) 같은 방법으로 개체(Entity)를 추출합니다. 그리고 해당 슬롯에 맞는 개체가 나오면 슬롯을 채웁니다. 문제는 단순히 키워드만 비교하고 정확한 의미를 구분하지 않는다는 점입니다. 예를 들어, '불고기피자는 싫어. 딴 거 먹을래'라고 말해도 '불고기피자'가 슬롯에 들어갑니다. 문장의 의미를 이해하지 못하기 때문입니다.

 

이런 단점을 보완하는 방법으로 DST(Dialogue State Tracking)가 있습니다. Slot-Value의 쌍으로 현재 대화 상태를 추적합니다. 사실 슬롯 채우기와 거의 유사합니다. 다만 요즘 DST는 딥러닝으로 Slot-Value의 단어를 직접 생성합니다. 슬롯 채우기와 달리 문장의 의미를 이해하기 때문에 더 정확하게 슬롯의 값을 얻을 수 있습니다. 식당예약을 하는 네이버 AI Call이 DST를 사용했다고 합니다. 최근 발표한 KLUE 벤치마크에서도 DST 데이터셋이 포함되어 있습니다.

 

 

 

< DST 설명글 >
https://gusalsdmlwlq.github.io/%EC%A7%80%EC%8B%9D.../post31/

 

< KLUE-DST >
https://klue-benchmark.com/tasks/73/overview/description

 

< 네이버 SOM-DST 모델 >
https://github.com/clovaai/som-dst

 

List of Articles
제목 글쓴이 날짜 조회 수sort
페이스북이 발표한 사전훈련 언어모델 RoBERTa file 깊은바다 2019-07-30 1429
GPT-4의 특징 정리 file 깊은바다 2023-03-15 1413
GPT-3보다 3배 더 큰 구글의 초거대모델, PaLM file 깊은바다 2022-04-07 1408
소설 쓰는 딥러닝 file 깊은바다 2018-08-31 1388
핑퐁의 리액션 모델 - Dialog-BERT 만들기 깊은바다 2020-01-28 1381
GPT-3, InstructGPT, GPT-3.5, ChatGPT의 차이점 깊은바다 2023-04-05 1381
사전훈련 자연어처리 모델의 발전과정 - The Illustrated BERT, ELMo, and co. 깊은바다 2019-01-01 1379
RNN seq2seq 간단한 대화모델 깊은바다 2018-10-23 1366
교육용 챗봇의 미래!? 구글 람다 (LaMDA) 깊은바다 2022-03-11 1362
구글의 대화기반 초거대모델 LaMDA, 논문 공개 file 깊은바다 2022-02-08 1361
ChatGPT의 가장 큰 특징인 in-context learning file 깊은바다 2023-02-21 1361
RAG 아키텍처의 이해 깊은바다 2023-07-23 1338
딥러닝 자연어처리 튜토리얼 - DLK2NLP [1] 깊은바다 2018-11-24 1221
LLM 챗봇의 특징 2가지 - RAG와 Function 깊은바다 2023-07-06 1215
Word2Vec 테스트 사이트 file 깊은바다 2019-01-13 1200