레플리
글 수 283

글쓰는 법을 배우는 신경망

조회 수 1538 추천 수 0 2016.03.25 02:18:23


http://www.engadget.com/2015/12/02/neural-network-journalism-philip-k-dick/

 

 

스탠포드 대학교 박사과정 학생이 만든 Char-RNN이란 프로그램으로 

컴퓨터에게 자동으로 글을 쓰게 만드는 테스트를 수행한 기사입니다.

 

순환 신경망(Recurrent Neural Network)라는 알고리즘을 사용했는데

이는 기존의 한방향이 아니라 노드를 순환하면서 학습하는 방법을 사용합니다.

그래서 연속적인 흐름을 갖는 데이터 처리에 유용합니다.

 

자세한 내용은 다음 링크를 참조하세요. 

http://www.whydsp.org/280

 

 

유명한 SF 소설가인 필립.K.딕의 소설들을 학습한 후 글을 생성해보았습니다.

 

 

"A with filet with the dear and something in the carteron shit as the oft him."

"I know the pattel carter the side ashed. It's the turned, the sitters and it all the control, the took and the cheressoned to his everything to she the the endressally, more they know the buttered to all and the tith and the mich to the took the fires. After and strott to the undides.

 

 

첫번째 결과에서는 어느정도 그럴듯해 보이지만 많은 단어들이 올바르지 않은 것을 볼 수 있습니다.

 

 

'"What do you again?" Kramer said. "That's We was in the first of the Sun, the way. The way it was a plant of the hat was a thing.

"What do you many will be spot over the wares. We came to it. The speaker take to the bomb of the rooms and the contant and was a plants stop and call supplies of the blast."

 

두번째 결과는 단어들이 제대로 표현된 것을 볼 수 있습니다. 하지만 문법이나 의미가 상당히 맞지 않습니다.

 

 

Maybe the part of the ship clock. A few space relaxense that the door of the clock with his hands. It was beginning into the box. "It's going you and important before the darknes." They were something in the ship.

"We're going to see."

"I don't want to see it."

The lab. The Sand of forest the corridor and the door of the room was find the room and showed in the start. One of the box and stopped over the door.

He looked over the other frowned and the big around his hand and part, gringing a lot of the strate of the room. He had been waiting out of the boy.

"It's only the lifts open. The machines with the war come. "You will have to change of the other that person at the surface, it's have to do it actoring the machines. They're around the start you the corridor a peas.

 

 

세번째 결과에서는 부분부분 의미가 맞는 문장들이 존재하고 있는 걸 볼 수 있습니다. 

물론 전체적으로는 내용이 이어지지가 않고 말이 되지 않습니다.

단순히 학습한 글의 패턴대로 문장을 조합하는 것에 불과하니까요.

 

그래도 이런 기술이 발전되면 가까운 미래에 소설을 쓰는 인공지능도 개발될지 모르겠네요.

엮인글 :
List of Articles
제목 글쓴이 날짜sort 조회 수
딥러닝을 이용한 자연어 처리 입문 - 위키독스 깊은바다 2018-09-21 1108
질의응답을 위한 딥러닝 모델인 메모리 네트워크 정리 file 깊은바다 2018-09-26 959
다이나믹 메모리 네트워크 정리 file 깊은바다 2018-09-29 1135
딥러닝을 이용한 자연어처리의 연구동향 깊은바다 2018-10-04 631
썰로 푸는 NLP 깊은바다 2018-10-11 494
Seq2Seq와 어텐션 기법을 애니메이션으로 쉽게 설명한 글 깊은바다 2018-10-12 1055
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022
RNN seq2seq 간단한 대화모델 깊은바다 2018-10-23 1364
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 4299
개체명인식 with Naver 깊은바다 2018-11-20 2320
커뮤니케이션과 AI - Multi-channel CNN을 이용한 한국어 감성분석 깊은바다 2018-11-22 1156
딥러닝 자연어처리 튜토리얼 - DLK2NLP [1] 깊은바다 2018-11-24 1220
구글 듀플렉스(Duplex) 상용화 시작 [2] 깊은바다 2018-11-26 644
위키정보를 찾아 잡담을 하는 딥러닝 모델 - Wizard Of Wikipedia file 깊은바다 2018-11-29 899
카카오의 딥러닝 기반 형태소 분석기 깊은바다 2018-11-30 497