글 수 177

글쓰는 법을 배우는 신경망

조회 수 1477 추천 수 0 2016.03.25 02:18:23


http://www.engadget.com/2015/12/02/neural-network-journalism-philip-k-dick/

 

 

스탠포드 대학교 박사과정 학생이 만든 Char-RNN이란 프로그램으로 

컴퓨터에게 자동으로 글을 쓰게 만드는 테스트를 수행한 기사입니다.

 

순환 신경망(Recurrent Neural Network)라는 알고리즘을 사용했는데

이는 기존의 한방향이 아니라 노드를 순환하면서 학습하는 방법을 사용합니다.

그래서 연속적인 흐름을 갖는 데이터 처리에 유용합니다.

 

자세한 내용은 다음 링크를 참조하세요. 

http://www.whydsp.org/280

 

 

유명한 SF 소설가인 필립.K.딕의 소설들을 학습한 후 글을 생성해보았습니다.

 

 

"A with filet with the dear and something in the carteron shit as the oft him."

"I know the pattel carter the side ashed. It's the turned, the sitters and it all the control, the took and the cheressoned to his everything to she the the endressally, more they know the buttered to all and the tith and the mich to the took the fires. After and strott to the undides.

 

 

첫번째 결과에서는 어느정도 그럴듯해 보이지만 많은 단어들이 올바르지 않은 것을 볼 수 있습니다.

 

 

'"What do you again?" Kramer said. "That's We was in the first of the Sun, the way. The way it was a plant of the hat was a thing.

"What do you many will be spot over the wares. We came to it. The speaker take to the bomb of the rooms and the contant and was a plants stop and call supplies of the blast."

 

두번째 결과는 단어들이 제대로 표현된 것을 볼 수 있습니다. 하지만 문법이나 의미가 상당히 맞지 않습니다.

 

 

Maybe the part of the ship clock. A few space relaxense that the door of the clock with his hands. It was beginning into the box. "It's going you and important before the darknes." They were something in the ship.

"We're going to see."

"I don't want to see it."

The lab. The Sand of forest the corridor and the door of the room was find the room and showed in the start. One of the box and stopped over the door.

He looked over the other frowned and the big around his hand and part, gringing a lot of the strate of the room. He had been waiting out of the boy.

"It's only the lifts open. The machines with the war come. "You will have to change of the other that person at the surface, it's have to do it actoring the machines. They're around the start you the corridor a peas.

 

 

세번째 결과에서는 부분부분 의미가 맞는 문장들이 존재하고 있는 걸 볼 수 있습니다. 

물론 전체적으로는 내용이 이어지지가 않고 말이 되지 않습니다.

단순히 학습한 글의 패턴대로 문장을 조합하는 것에 불과하니까요.

 

그래도 이런 기술이 발전되면 가까운 미래에 소설을 쓰는 인공지능도 개발될지 모르겠네요.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
구글의 딥러닝 대화 모델 - LaMDA 깊은바다 2021-06-13 368
MS의 딥러닝 대화 모델 - DialoGPT file 깊은바다 2020-04-24 368
메타, GPT-3와 동급인 175B의 초거대모델 무료 공개 깊은바다 2022-05-04 365
인터넷 검색을 하고 장기기억을 저장하는 페이스북의 챗봇 - Blenderbot2.0 file 깊은바다 2021-07-19 365
스탠포드 자연어처리 강의 - The Limits and Future of NLP 깊은바다 2018-08-30 363
딥러닝 상식추론 모델- COMET file 깊은바다 2020-05-04 359
GPT2 텍스트 어드벤처 게임, AI Dungeon 앱 출시 깊은바다 2019-12-23 356
문장을 벡터로 변환하는 방법들 깊은바다 2021-09-16 352
페이지(PAIGE)를 만드는 사람들 - 자연어처리 기법 깊은바다 2018-05-26 352
일상대화 딥러닝 모델들을 쉽게 실행할 수 있는 Openchat 깊은바다 2021-06-01 342
딥러닝을 활용한 뉴스 메타 태깅 깊은바다 2019-08-26 339
검색기반 거대모델인 딥마인드의 RETRO 깊은바다 2021-12-20 336
딥러닝으로 동네생활 게시글 필터링하기 깊은바다 2020-10-06 331
딥러닝으로 상식 구축 - Event2Mind 깊은바다 2018-09-14 330
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 313