레플리
글 수 282

글쓰는 법을 배우는 신경망

조회 수 1538 추천 수 0 2016.03.25 02:18:23


http://www.engadget.com/2015/12/02/neural-network-journalism-philip-k-dick/

 

 

스탠포드 대학교 박사과정 학생이 만든 Char-RNN이란 프로그램으로 

컴퓨터에게 자동으로 글을 쓰게 만드는 테스트를 수행한 기사입니다.

 

순환 신경망(Recurrent Neural Network)라는 알고리즘을 사용했는데

이는 기존의 한방향이 아니라 노드를 순환하면서 학습하는 방법을 사용합니다.

그래서 연속적인 흐름을 갖는 데이터 처리에 유용합니다.

 

자세한 내용은 다음 링크를 참조하세요. 

http://www.whydsp.org/280

 

 

유명한 SF 소설가인 필립.K.딕의 소설들을 학습한 후 글을 생성해보았습니다.

 

 

"A with filet with the dear and something in the carteron shit as the oft him."

"I know the pattel carter the side ashed. It's the turned, the sitters and it all the control, the took and the cheressoned to his everything to she the the endressally, more they know the buttered to all and the tith and the mich to the took the fires. After and strott to the undides.

 

 

첫번째 결과에서는 어느정도 그럴듯해 보이지만 많은 단어들이 올바르지 않은 것을 볼 수 있습니다.

 

 

'"What do you again?" Kramer said. "That's We was in the first of the Sun, the way. The way it was a plant of the hat was a thing.

"What do you many will be spot over the wares. We came to it. The speaker take to the bomb of the rooms and the contant and was a plants stop and call supplies of the blast."

 

두번째 결과는 단어들이 제대로 표현된 것을 볼 수 있습니다. 하지만 문법이나 의미가 상당히 맞지 않습니다.

 

 

Maybe the part of the ship clock. A few space relaxense that the door of the clock with his hands. It was beginning into the box. "It's going you and important before the darknes." They were something in the ship.

"We're going to see."

"I don't want to see it."

The lab. The Sand of forest the corridor and the door of the room was find the room and showed in the start. One of the box and stopped over the door.

He looked over the other frowned and the big around his hand and part, gringing a lot of the strate of the room. He had been waiting out of the boy.

"It's only the lifts open. The machines with the war come. "You will have to change of the other that person at the surface, it's have to do it actoring the machines. They're around the start you the corridor a peas.

 

 

세번째 결과에서는 부분부분 의미가 맞는 문장들이 존재하고 있는 걸 볼 수 있습니다. 

물론 전체적으로는 내용이 이어지지가 않고 말이 되지 않습니다.

단순히 학습한 글의 패턴대로 문장을 조합하는 것에 불과하니까요.

 

그래도 이런 기술이 발전되면 가까운 미래에 소설을 쓰는 인공지능도 개발될지 모르겠네요.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수
구글의 일상대화 딥러닝 모델 - Meena file 깊은바다 2020-01-30 1767
핑퐁의 리액션 모델 - Dialog-BERT 만들기 깊은바다 2020-01-28 1381
책 한권을 입력으로 받는 구글의 딥러닝 모델 - Reformer 깊은바다 2020-01-17 622
GPT2 텍스트 어드벤처 게임, AI Dungeon 앱 출시 깊은바다 2019-12-23 404
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4667
GPT2로 만든 텍스트 어드벤처 게임 깊은바다 2019-12-09 2009
인공지능과 함께 글쓰기! 창의 AI x Bookathon 대회 - GPT2 깊은바다 2019-11-30 581
GLUE: 벤치마크를 통해 BERT 이해하기 깊은바다 2019-11-19 1737
GPT2의 1.5B 모델 공개 깊은바다 2019-11-08 554
GPT2로 글을 작성하는 사이트 - StoryAI file 깊은바다 2019-10-11 1582
딥러닝 기반 자연어 언어모델 BERT - Colab 실습 코드 포함 file 깊은바다 2019-09-02 1179
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3262
딥러닝을 활용한 뉴스 메타 태깅 깊은바다 2019-08-26 379
100억건의 카카오톡 데이터로 
똑똑한 일상대화 인공지능 만들기 - 핑퐁 멀티턴 file 깊은바다 2019-08-20 1732
새로운 자연어처리 벤치마크 - SuperGLUE 깊은바다 2019-08-15 703