레플리
글 수 282

SKT가 공개한 한글 GPT2 - KoGPT2

조회 수 5296 추천 수 0 2020.02.02 16:39:10


 

https://github.com/SKT-AI/KoGPT2

 

 

 

SKT에서 한글 GPT2인 KoGPT2를 공개했습니다. GPT2는 117M, 345M, 762M, 1542M의 4종류로 되어있습니다. KoGPT2는 가장 작은 사이즈인 117M(12 layers)로 구성되어 있습니다. 또한 GPT2보다 절반 정도의 크기인 20GB의 텍스트로 학습을 하였습니다. 아래 사이트에서 테스트도 가능하니 참고하시기 바랍니다.

 

GPT2 한글 버전이 공유된 건 아마 처음인 것 같습니다. 이전에 나온 KoBERT도 그렇고, SKT가 국내 딥러닝 활성화를 위해 많은 기여를 하고 있습니다. 앞으로 더 높은 파라미터의 모델도 나오기를 기대해봅니다.

 

 

 

< KoGPT-2 Explorer >
-> http://52.231.69.211:8000/

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수
MS의 CTO인 Kevin Scott과 OpenAI와의 협업 깊은바다 2023-03-17 82
GPT-4의 특징 정리 file 깊은바다 2023-03-15 1408
7B의 Alpaca가 175B의 GPT-3.5와 동급의 성능을 보임 file 깊은바다 2023-03-14 978
Together가 공개한 오픈소스 LLM - OpenChatKit 깊은바다 2023-03-12 425
ChatGPT 영어회화 깊은바다 2023-03-09 218
노암 촘스키의 ChatGPT 기고문 깊은바다 2023-03-09 319
GenAI 컨퍼런스 대담 요약 - 어떻게 AI가 비즈니스를 재편할 것인가 깊은바다 2023-03-08 319
ChatGPT로 폴 그레이엄 에세이 검색해서 대답 file 깊은바다 2023-03-03 251
ChatGPT API 정식 공개 file 깊은바다 2023-03-02 454
글쓰기 보조 서비스 JasperAI, ChatGPT 때문에 어려움 직면 깊은바다 2023-03-01 9693
네이버 케어콜의 장기기억 기능 - 맞춤 케어를 위한 기억하기 챗봇 file 깊은바다 2023-03-01 308
OpenAI의 샘 알트만, AGI를 향한 계획 깊은바다 2023-02-25 210
인공지능과 친구가 될 수 있을까요 - 이루다의 페르소나 구축 방법 file 깊은바다 2023-02-21 339
ChatGPT의 가장 큰 특징인 in-context learning file 깊은바다 2023-02-21 1357
OpenAI가 ChatGPT를 개발할 수 있었던 이유 깊은바다 2023-02-20 176