레플리
글 수 292

KoGPT2로 한국어 노래 가사 생성하기

조회 수 1934 추천 수 0 2020.05.21 03:00:46


 

https://github.com/gyunggyung/KoGPT2-FineTuning

 

 

 

SKT가 작년에는 KoBERT를, 올해 초에는 KoGPT2도 공개했습니다. KoGPT2는 20GB의 한국어 데이터로 사전훈련을 하였습니다. 여기에 486M의 가사로 파인튜인하여 노래 가사를 생성하는 모델입니다.

 

SKT 덕분에 한국어로 된 최신 모델들을 사용해볼 수 있게 되었는데요. 앞으로도 많은 기업들이 이렇게 기술을 공유해주기를 기대해봅니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수
네이버 뉴스 댓글로 사전훈련한 구어체 모델 - KcBERT 깊은바다 2020-07-20 861
GPT3로 하는 리액트 프로그래밍 file 깊은바다 2020-07-19 801
GPT2에서 문장 생성 시 단어를 확률에 따라 선택하는 방법 깊은바다 2020-07-16 2305
오픈소스 한국어 딥러닝 챗봇 - Kochat 깊은바다 2020-07-03 2565
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3699
주석을 프로그램으로 변환하는 GPT 모델 깊은바다 2020-06-21 525
소설을 생성하는 NarrativeKoGPT2 file 깊은바다 2020-06-19 2274
GPT3 유료화 기능 소개 영상 깊은바다 2020-06-15 955
GPT2를 테스트해볼 수 있는 사이트 - Talk to Transformer file 깊은바다 2020-06-05 709
퓨샷(few-shot) 러닝에 최적화된 GPT3 모델 file 깊은바다 2020-05-30 1225
KoGPT2로 한국어 노래 가사 생성하기 깊은바다 2020-05-21 1934
인라이플의 한글 BERT 대형모델 깊은바다 2020-05-18 4298
꼼꼼하고 이해하기 쉬운 ELECTRA 논문 리뷰 깊은바다 2020-05-15 563
Meme 자동 생성기 깊은바다 2020-05-11 1073
딥러닝 상식추론 모델- COMET file 깊은바다 2020-05-04 540