레플리
글 수 283

KoGPT2로 한국어 노래 가사 생성하기

조회 수 1854 추천 수 0 2020.05.21 03:00:46


 

https://github.com/gyunggyung/KoGPT2-FineTuning

 

 

 

SKT가 작년에는 KoBERT를, 올해 초에는 KoGPT2도 공개했습니다. KoGPT2는 20GB의 한국어 데이터로 사전훈련을 하였습니다. 여기에 486M의 가사로 파인튜인하여 노래 가사를 생성하는 모델입니다.

 

SKT 덕분에 한국어로 된 최신 모델들을 사용해볼 수 있게 되었는데요. 앞으로도 많은 기업들이 이렇게 기술을 공유해주기를 기대해봅니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
OpenAI, 성능은 높아지고 가격은 싸진 새로운 모델 공개 file 깊은바다 2024-01-26 325
콜센터 챗봇에 ChatGPT를 적용하는 방법 깊은바다 2023-02-20 327
AutoGPT 사용기 - 다른 에이전트 생성 능력 file 깊은바다 2023-04-23 331
GPT-4 수능 국어영역에서 3등급(상위 17%) 달성 깊은바다 2023-03-21 332
인공지능과 친구가 될 수 있을까요 - 이루다의 페르소나 구축 방법 file 깊은바다 2023-02-21 340
ChatGPT API에서도 플러그인과 동일한 기능을 - ChatGPT Function file 깊은바다 2023-06-14 340
ChatGPT를 앱스토어 같은 플랫폼으로 확장 - ChatGPT 플러그인 file 깊은바다 2023-03-24 354
GPT-3를 활용하여 주석을 코드로 바꿔주는 GitHub Copilot 깊은바다 2021-06-30 356
지금 생성AI는 과도기일 뿐 file 깊은바다 2023-06-19 359
딥러닝으로 상식 구축 - Event2Mind 깊은바다 2018-09-14 373
Private sLLM - 어떻게 만들고 어떻게 배포할까? file 깊은바다 2023-12-18 378
딥러닝을 활용한 뉴스 메타 태깅 깊은바다 2019-08-26 379
스탠포드 자연어처리 강의 - The Limits and Future of NLP 깊은바다 2018-08-30 395
페이지(PAIGE)를 만드는 사람들 - 자연어처리 기법 깊은바다 2018-05-26 397
딥러닝으로 동네생활 게시글 필터링하기 깊은바다 2020-10-06 398