레플리
글 수 283

소설 쓰는 딥러닝

조회 수 1388 추천 수 0 2018.08.31 21:15:45


K-001.jpg

 

https://speakerdeck.com/dreamgonfly/soseol-sseuneun-dib-reoning-pycon-korea-2018

 

 

 

KT 인공지능 소설 공모전에서 최우수상을 받은 팀의 발표 자료입니다. 기본적으로 인코더-디코더의 방식인데 문장을 입력하면 새로운 문장이 나오는 end-to-end 구조입니다. RNN을 사용하지 않고 attention만으로 이루어진 transformer 모델을 기반으로 하고 거기에 메모리 네트워크를 추가하였습니다.

 

1. 유저가 처음 다섯 문장을 입력
2. 모델이 10개 후보 문장 생성
3. 유저가 후보 문장 중 한 문장 선택
4. 2번으로 반복

 

위와 같은 순서로 계속 문장을 만들어 나갔다고 합니다. 슬라이드 뒷부분에 실제 제출한 소설을 볼 수 있는데 전체적인 흐름면에서 완성도가 상당히 높습니다. 여러가지 소설이 섞인 다양한 데이터가 아니라 뭔가 통일된 형태의 정제된 데이터를 사용한 것이 아닐까 합니다.

List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4113
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3651
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3565
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3520
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3336
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3292
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3267
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3170
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3131
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022