레플리
글 수 283


dst_example.png

 

 

 

목적지향 챗봇에서 많이 사용되는 기술로 슬롯 채우기(Slot Filling)가 있습니다. 만약 피자를 주문하는 챗봇이라면 피자종류와 피자개수를 알아야 합니다. 이런 슬롯들이 채워질 때까지 챗봇이 계속 물어봅니다. 예를 들면, 다음과 같습니다.

챗봇 : 안녕하세요, 무엇을 도와드릴까요?
사용자 : 불고기피자 주문할래
챗봇 : 수량을 입력하세요
사용자 : 2판 보내줘
챗봇 : 불고기피자 2판을 주문하셨습니다

또는 슬롯을 한 번에 채울 수도 있습니다.

챗봇 : 안녕하세요, 무엇을 도와드릴까요?
사용자 : 불고기피자 2판 주문할래
챗봇 : 불고기피자 2판을 주문하셨습니다

 

 

 

보통 챗봇빌더는 개체명인식(NER) 같은 방법으로 개체(Entity)를 추출합니다. 그리고 해당 슬롯에 맞는 개체가 나오면 슬롯을 채웁니다. 문제는 단순히 키워드만 비교하고 정확한 의미를 구분하지 않는다는 점입니다. 예를 들어, '불고기피자는 싫어. 딴 거 먹을래'라고 말해도 '불고기피자'가 슬롯에 들어갑니다. 문장의 의미를 이해하지 못하기 때문입니다.

 

이런 단점을 보완하는 방법으로 DST(Dialogue State Tracking)가 있습니다. Slot-Value의 쌍으로 현재 대화 상태를 추적합니다. 사실 슬롯 채우기와 거의 유사합니다. 다만 요즘 DST는 딥러닝으로 Slot-Value의 단어를 직접 생성합니다. 슬롯 채우기와 달리 문장의 의미를 이해하기 때문에 더 정확하게 슬롯의 값을 얻을 수 있습니다. 식당예약을 하는 네이버 AI Call이 DST를 사용했다고 합니다. 최근 발표한 KLUE 벤치마크에서도 DST 데이터셋이 포함되어 있습니다.

 

 

 

< DST 설명글 >
https://gusalsdmlwlq.github.io/%EC%A7%80%EC%8B%9D.../post31/

 

< KLUE-DST >
https://klue-benchmark.com/tasks/73/overview/description

 

< 네이버 SOM-DST 모델 >
https://github.com/clovaai/som-dst

 

List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4110
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3651
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3565
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3519
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3335
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3292
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3267
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3170
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3126
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022