레플리
글 수 283


 

 

 

어제 구글 I/O에서 발표한 구글 듀플렉스(Google Duplex)입니다. 레스토랑이나 미용실에 예약을 대신 할 수 있는 인공지능으로 구글 어시스턴트에서 명령을 내리면 자동으로 전화를 걸어 예약을 해줍니다.

 

 

나 : 저녁 8시에서 9시 사이 강남 아웃백 두명 예약해줘
구글 어시스턴트 : 알겠습니다.
구글 듀플렉스 : 안녕하세요. 저녁 8시에 두명 예약하고 싶은데요.
아웃백 점원 : 8시는 안되고 8시 30분에는 가능합니다.
구글 듀플렉스 : 8시 30분도 괜찮습니다.
아웃백 점원 : 성함이 어떻게 되시죠?
구글 듀플렉스 : 홍길동입니다.
아웃백 점원 : 홍길동님 저녁 8시 30분에 예약 완료되셨습니다.
구글 듀플렉스 : 감사합니다.
구글 어스시턴트 : 저녁 8시 30분에 강남 아웃백 두명 예약을 하였습니다.
나 : 고마워

 

 

 

얼마전 서비스를 종료한 개인비서 챗봇인 페이스북M과 비슷하지만 예약이라는 좀 더 한정된 도메인에 집중한 것이 큰 차이입니다. 페이스북M은 자동화가 어려워서 결국 포기를 했는데 구글은 이걸 학습으로 구현하였습니다. RNN을 사용했다고 하는데 대화 히스토리(문맥)과 대화 파라미터(목적)을 함께 입력으로 넣어서 문장을 생성합니다.

 

< 입력 >
문장 : 8시는 안되고 8시 30분에는 가능합니다.
히스토리 : 8시 예약 요청
파라미터 : 8~9시 사이 두명

 

< 출력 >
문장 : 8시 30분도 괜찮습니다.

 

아마 위와 비슷한 방식으로 동작하지 않을까 합니다. 학습에 필요한 데이터를 어떻게 생성하였는지 궁금하네요. 사람이 일일이 각 문장마다 히스토리와 파라미터를 표시하지 않았을까요.

 

 

 

이런 목적지향의 대화흐름을 학습으로 구현하는게 어려울거라고 생각했는데 역시 구글이네요. 지금은 챗봇을 만들때 사람이 대화를 직접 설계하는데 조만간 딥러닝을 사용하여 자동으로 학습하는 방법으로 변할지도 모르겠습니다.

 

그런데 시간이나 장소, 숫자같은 엔터티를 어떻게 일반화하여 학습을 하는 걸까요. 별도로 태그로 변경하여 처리한 다음 출력 결과에 나온 엔터티 태그를 다시 실제 값으로 변환을 하는 건가요.

 

 

 

< 참고 자료 >
구글 블로그
-> https://ai.googleblog.com/…/duplex-ai-system-for-natural-co…
기사
-> http://thegear.co.kr/16063

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4113
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3651
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3565
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3520
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3337
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3292
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3268
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3170
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3138
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022