레플리
글 수 282

글쓰는 법을 배우는 신경망

조회 수 1538 추천 수 0 2016.03.25 02:18:23


http://www.engadget.com/2015/12/02/neural-network-journalism-philip-k-dick/

 

 

스탠포드 대학교 박사과정 학생이 만든 Char-RNN이란 프로그램으로 

컴퓨터에게 자동으로 글을 쓰게 만드는 테스트를 수행한 기사입니다.

 

순환 신경망(Recurrent Neural Network)라는 알고리즘을 사용했는데

이는 기존의 한방향이 아니라 노드를 순환하면서 학습하는 방법을 사용합니다.

그래서 연속적인 흐름을 갖는 데이터 처리에 유용합니다.

 

자세한 내용은 다음 링크를 참조하세요. 

http://www.whydsp.org/280

 

 

유명한 SF 소설가인 필립.K.딕의 소설들을 학습한 후 글을 생성해보았습니다.

 

 

"A with filet with the dear and something in the carteron shit as the oft him."

"I know the pattel carter the side ashed. It's the turned, the sitters and it all the control, the took and the cheressoned to his everything to she the the endressally, more they know the buttered to all and the tith and the mich to the took the fires. After and strott to the undides.

 

 

첫번째 결과에서는 어느정도 그럴듯해 보이지만 많은 단어들이 올바르지 않은 것을 볼 수 있습니다.

 

 

'"What do you again?" Kramer said. "That's We was in the first of the Sun, the way. The way it was a plant of the hat was a thing.

"What do you many will be spot over the wares. We came to it. The speaker take to the bomb of the rooms and the contant and was a plants stop and call supplies of the blast."

 

두번째 결과는 단어들이 제대로 표현된 것을 볼 수 있습니다. 하지만 문법이나 의미가 상당히 맞지 않습니다.

 

 

Maybe the part of the ship clock. A few space relaxense that the door of the clock with his hands. It was beginning into the box. "It's going you and important before the darknes." They were something in the ship.

"We're going to see."

"I don't want to see it."

The lab. The Sand of forest the corridor and the door of the room was find the room and showed in the start. One of the box and stopped over the door.

He looked over the other frowned and the big around his hand and part, gringing a lot of the strate of the room. He had been waiting out of the boy.

"It's only the lifts open. The machines with the war come. "You will have to change of the other that person at the surface, it's have to do it actoring the machines. They're around the start you the corridor a peas.

 

 

세번째 결과에서는 부분부분 의미가 맞는 문장들이 존재하고 있는 걸 볼 수 있습니다. 

물론 전체적으로는 내용이 이어지지가 않고 말이 되지 않습니다.

단순히 학습한 글의 패턴대로 문장을 조합하는 것에 불과하니까요.

 

그래도 이런 기술이 발전되면 가까운 미래에 소설을 쓰는 인공지능도 개발될지 모르겠네요.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT 톺아보기 깊은바다 2018-12-17 26388
딥러닝을 사용한 챗봇 개발방법 정리 file 깊은바다 2018-02-03 25430
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA file 깊은바다 2022-04-05 11988
글쓰기 보조 서비스 JasperAI, ChatGPT 때문에 어려움 직면 깊은바다 2023-03-01 9693
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9558
딥러닝 RNN으로 구현한 챗봇 깊은바다 2017-08-01 8135
문장을 학습하는 딥러닝 RNN의 Seq2Seq 모델 설명 file 깊은바다 2017-09-15 7327
챗봇에 딥러닝 학습을 적용하기 어려운 이유 file 깊은바다 2018-03-23 6640
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6332
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6167
SKT가 공개한 한글 GPT2 - KoGPT2 깊은바다 2020-02-02 5294
챗봇에서 유사한 문장 자동인식 방법 file 깊은바다 2018-04-27 5148
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4656
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 4298
인라이플의 한글 BERT 대형모델 깊은바다 2020-05-18 4246