레플리
글 수 283

KoGPT2로 한국어 노래 가사 생성하기

조회 수 1856 추천 수 0 2020.05.21 03:00:46


 

https://github.com/gyunggyung/KoGPT2-FineTuning

 

 

 

SKT가 작년에는 KoBERT를, 올해 초에는 KoGPT2도 공개했습니다. KoGPT2는 20GB의 한국어 데이터로 사전훈련을 하였습니다. 여기에 486M의 가사로 파인튜인하여 노래 가사를 생성하는 모델입니다.

 

SKT 덕분에 한국어로 된 최신 모델들을 사용해볼 수 있게 되었는데요. 앞으로도 많은 기업들이 이렇게 기술을 공유해주기를 기대해봅니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
End-To-End Memory Networks - 자연어 질문에 대답하는 모델 [2] 깊은바다 2017-08-21 962
질의응답을 위한 딥러닝 모델인 메모리 네트워크 정리 file 깊은바다 2018-09-26 960
페이스북의 일상대화 딥러닝 모델 - BlenderBot file 깊은바다 2020-05-01 949
머신러닝의 자연어처리 기술 깊은바다 2018-05-11 937
LG 사이언스파크에서 만든 한글 MRC(기계독해) 데모 file [2] 깊은바다 2020-03-07 933
문장을 벡터로 변환하는 방법들 깊은바다 2021-09-16 931
GPT3 유료화 기능 소개 영상 깊은바다 2020-06-15 914
딥러닝을 사용하여 심심이의 나쁜말 필터링 기능 구현 깊은바다 2019-08-14 902
위키에서 질문의 답을 찾는 딥러닝 모델, 페이스북의 DrQA file 깊은바다 2019-08-03 902
위키정보를 찾아 잡담을 하는 딥러닝 모델 - Wizard Of Wikipedia file 깊은바다 2018-11-29 900
Word2Vec의 학습 방식 깊은바다 2019-01-17 898
스캐터랩의 핑퐁팀, 새로운 생성 모델 챗봇 데모 공개 깊은바다 2020-11-02 898
잡담봇 삽질기 - 문봇에서 딥러닝 Seq2Seq로 문장 생성 깊은바다 2018-03-25 857
ChatGPT보다 한글을 더 잘 대답하는 모델 - Claude file 깊은바다 2023-01-10 855
인간의 언어를 이해하는 기계, NLU 깊은바다 2019-05-17 850