레플리
글 수 282

글쓰는 법을 배우는 신경망

조회 수 1538 추천 수 0 2016.03.25 02:18:23


http://www.engadget.com/2015/12/02/neural-network-journalism-philip-k-dick/

 

 

스탠포드 대학교 박사과정 학생이 만든 Char-RNN이란 프로그램으로 

컴퓨터에게 자동으로 글을 쓰게 만드는 테스트를 수행한 기사입니다.

 

순환 신경망(Recurrent Neural Network)라는 알고리즘을 사용했는데

이는 기존의 한방향이 아니라 노드를 순환하면서 학습하는 방법을 사용합니다.

그래서 연속적인 흐름을 갖는 데이터 처리에 유용합니다.

 

자세한 내용은 다음 링크를 참조하세요. 

http://www.whydsp.org/280

 

 

유명한 SF 소설가인 필립.K.딕의 소설들을 학습한 후 글을 생성해보았습니다.

 

 

"A with filet with the dear and something in the carteron shit as the oft him."

"I know the pattel carter the side ashed. It's the turned, the sitters and it all the control, the took and the cheressoned to his everything to she the the endressally, more they know the buttered to all and the tith and the mich to the took the fires. After and strott to the undides.

 

 

첫번째 결과에서는 어느정도 그럴듯해 보이지만 많은 단어들이 올바르지 않은 것을 볼 수 있습니다.

 

 

'"What do you again?" Kramer said. "That's We was in the first of the Sun, the way. The way it was a plant of the hat was a thing.

"What do you many will be spot over the wares. We came to it. The speaker take to the bomb of the rooms and the contant and was a plants stop and call supplies of the blast."

 

두번째 결과는 단어들이 제대로 표현된 것을 볼 수 있습니다. 하지만 문법이나 의미가 상당히 맞지 않습니다.

 

 

Maybe the part of the ship clock. A few space relaxense that the door of the clock with his hands. It was beginning into the box. "It's going you and important before the darknes." They were something in the ship.

"We're going to see."

"I don't want to see it."

The lab. The Sand of forest the corridor and the door of the room was find the room and showed in the start. One of the box and stopped over the door.

He looked over the other frowned and the big around his hand and part, gringing a lot of the strate of the room. He had been waiting out of the boy.

"It's only the lifts open. The machines with the war come. "You will have to change of the other that person at the surface, it's have to do it actoring the machines. They're around the start you the corridor a peas.

 

 

세번째 결과에서는 부분부분 의미가 맞는 문장들이 존재하고 있는 걸 볼 수 있습니다. 

물론 전체적으로는 내용이 이어지지가 않고 말이 되지 않습니다.

단순히 학습한 글의 패턴대로 문장을 조합하는 것에 불과하니까요.

 

그래도 이런 기술이 발전되면 가까운 미래에 소설을 쓰는 인공지능도 개발될지 모르겠네요.

엮인글 :
List of Articles
제목 글쓴이 날짜sort 조회 수
GPT-3를 사용하여 코딩을 하는 MS의 파워FX 깊은바다 2021-06-01 249
일상대화 딥러닝 모델들을 쉽게 실행할 수 있는 Openchat 깊은바다 2021-06-01 569
구글의 딥러닝 대화 모델 - LaMDA 깊은바다 2021-06-13 587
GPT-3를 활용하여 주석을 코드로 바꿔주는 GitHub Copilot 깊은바다 2021-06-30 356
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3094
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3701
인터넷 검색을 하고 장기기억을 저장하는 페이스북의 챗봇 - Blenderbot 2 file 깊은바다 2021-07-19 653
죽은 약혼자를 챗봇으로 살려낸 남자 - Project December 깊은바다 2021-07-27 559
챗봇의 슬롯 채우기(Slot Filling)와 DST(Dialogue State Tracking) file 깊은바다 2021-08-19 1453
네이버의 초거대모델인 HyperCLOVA 논문 file 깊은바다 2021-09-13 556
문장을 벡터로 변환하는 방법들 깊은바다 2021-09-16 926
부적절한 문장을 판단해주는 딥러닝 모델 - Ask Delphi file 깊은바다 2021-11-08 399
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3326
HyperCLOVA로 만드는 캐릭터 챗봇 file 깊은바다 2021-11-26 761
검색기반 거대모델인 딥마인드의 RETRO 깊은바다 2021-12-20 511