레플리
글 수 283

KoGPT2로 한국어 노래 가사 생성하기

조회 수 1854 추천 수 0 2020.05.21 03:00:46


 

https://github.com/gyunggyung/KoGPT2-FineTuning

 

 

 

SKT가 작년에는 KoBERT를, 올해 초에는 KoGPT2도 공개했습니다. KoGPT2는 20GB의 한국어 데이터로 사전훈련을 하였습니다. 여기에 486M의 가사로 파인튜인하여 노래 가사를 생성하는 모델입니다.

 

SKT 덕분에 한국어로 된 최신 모델들을 사용해볼 수 있게 되었는데요. 앞으로도 많은 기업들이 이렇게 기술을 공유해주기를 기대해봅니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜sort 조회 수
카카오 형태소 분석기(khaiii) 설치와 은전한닢(mecab) 형태소 분석기 비교 깊은바다 2018-12-02 2828
한국어 형태소 분석기 성능 비교 - khaiii 깊은바다 2018-12-10 1447
BERT 톺아보기 깊은바다 2018-12-17 26395
2018 Amazon Prize에서 우승한 Gunrock 소셜봇 file 깊은바다 2018-12-26 557
사전훈련 자연어처리 모델의 발전과정 - The Illustrated BERT, ELMo, and co. 깊은바다 2019-01-01 1379
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4110
딥러닝 자연어처리 - RNN에서 BERT까지 [2] 깊은바다 2019-01-07 1756
Word2Vec 테스트 사이트 file 깊은바다 2019-01-13 1197
Word2Vec의 학습 방식 깊은바다 2019-01-17 898
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6172
목적지향 대화 학습 - Learning End-to-End Goal-Oriented Dialog file 깊은바다 2019-02-02 1597
텐서플로에서 사전 훈련된 임베딩을 사용하는 예제 깊은바다 2019-02-02 480
OpenAI Transformer GPT2로 만든 언어 모델 깊은바다 2019-02-17 2980
문장의 유사성을 예측하고 평가하는 AI - 카카오 심슨 깊은바다 2019-03-20 1461
대화 인공지능 대회 - ConvAI file 깊은바다 2019-03-25 630