레플리
글 수 283


 

http://blog.ncsoft.com/?p=37832

 

 

 

엔씨소프트의 야구AI 서비스인 페이지에서 사용한 자연어생성 기술을 설명한 글입니다. 과거에는 문장을 만들기 위해서는 답변 템플릿을 잘게 쪼개서 다양하게 만들어놓고 적절하게 조합하는 경우가 많았습니다.

 

그런데 페이지에서는 딥러닝 RNN의 Seq2Seq 기술을 사용했다고 합니다. 이때 신경망의 입력으로 질문 문장만이 아니라 답변 정보도 같이 넣었습니다.

 

임대한의 기록을 알려줘|야수|타율 .311, 15홈런, 55타점
-> 임대한은 타율 .311, 15홈런, 55타점을 기록중입니다.

 

 

 

그런데 구체적인 개체명이나 수치값을 따로 태그로 매칭하고 출력에서 변환하는 것이 아니라 직접 입력에 그대로 넣어서 최종 출력에 함께 나오는 것이 신기하네요. 아니면 그렇게 하는데 글의 설명에서 그 부분이 빠진 걸까요.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4113
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3651
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3565
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3520
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3337
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3292
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3268
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3170
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3136
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022