레플리
글 수 282

OpenAI Transformer GPT2로 만든 언어 모델

조회 수 2980 추천 수 0 2019.02.17 20:31:13


 

https://news.naver.com/main/read.nhn?mode=LSD&mid=sec&sid1=004&oid=079&aid=0003195314

 

 

 

OpenAI Transformer라고 불린 GPT(Generative Pre-Training)가 최근 GPT2로 업그레이드 되었습니다. 기본적으로 ngram과 같은 언어모델입니다. 앞의 단어들이 주어지면 그 다음에 나올 단어를 예측합니다. 아래 p봇은 박근혜 전 대통령의 발언들을 모아서 새로운 문장을 생성하는 사이트입니다.

 

http://markov.mathnt.net/

 

GPT2 역시 이런 방법으로 사전훈련을 합니다. 40GB 분량의 텍스트를 인터넷에서 모아서 학습을 했습니다. 공개된 결과를 보니 ngram과 비교할 수 없을 만큼 품질이 뛰어납니다. ngram과 달리 입력에 들어가는 이전 문장을 매우 길게 잡을 수 있어서 문맥이 잘 이어지는 편입니다.

 

 

 

최근 GAN으로 생성한 페이크 영상이 큰 이슈가 된 것처럼, 이제 언어모델로 만든 페이크 뉴스(또는 댓글)이 심각한 사회문제가 될 것 같습니다. 그런 우려 때문에 OpenAI가 일부러 작은 모델만 공개했다고 합니다. 하지만 금방 이를 따라한, 오히려 더 좋은 성능의 모델이 계속 나올 것이라 생각합니다.

 

부정적인 측면도 있지만 실제로 상용화가 가능한 제품도 많이 만들어질 수 있습니다. 개인적으로는 글쓰기 보조도구가 나왔으면 좋겠습니다. 단락의 첫 문장만 입력하면, 전체 글을 고려하여 새로운 단락을 보여주는 인공지능입니다. 마음에 들 때까지 계속 반복하다가 적당한 글이 나오면 조금씩 수정하여 계속 글을 씁니다.

 

작년 BERT에 이어 올해 초에는 GPT2, MT_DNN 등 계속 새로운 기술이 개발되고 있습니다. 2019년은 자연어처리가 딥러닝의 중심이 될지도 모르겠네요.

 

 

 

< OpenAI 블로그 >
https://blog.openai.com/better-language-models/#task6

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수
딥러닝을 사용하여 심심이의 나쁜말 필터링 기능 구현 깊은바다 2019-08-14 902
위키에서 질문의 답을 찾는 딥러닝 모델, 페이스북의 DrQA file 깊은바다 2019-08-03 902
페이스북이 발표한 사전훈련 언어모델 RoBERTa file 깊은바다 2019-07-30 1429
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3090
딥러닝 자연어처리 강의 - Natural Language Processing with PyTorch 깊은바다 2019-07-06 687
딥러닝을 사용하여 의도 및 엔티티를 파악하는 챗봇 소스코드 file 깊은바다 2019-06-25 2328
가짜뉴스를 생성 또는 판별하는 딥러닝 모델 - Grover 깊은바다 2019-06-01 969
GPT2를 Colab에서 테스트할 수 있는 코드 깊은바다 2019-05-21 1778
인간의 언어를 이해하는 기계, NLU 깊은바다 2019-05-17 850
Jay Alammar의 트랜스포머 한글 번역글 깊은바다 2019-05-09 1063
BERT로 토익 문제를 푸는 프로젝트 file 깊은바다 2019-04-30 2279
워드 임베딩에 대한 아주 쉬운 설명 - The Illustrated Word2vec 깊은바다 2019-04-09 703
대화 인공지능 대회 - ConvAI file 깊은바다 2019-03-25 630
문장의 유사성을 예측하고 평가하는 AI - 카카오 심슨 깊은바다 2019-03-20 1461
OpenAI Transformer GPT2로 만든 언어 모델 깊은바다 2019-02-17 2980