레플리
글 수 283

SKT가 공개한 한글 GPT2 - KoGPT2

조회 수 5297 추천 수 0 2020.02.02 16:39:10


 

https://github.com/SKT-AI/KoGPT2

 

 

 

SKT에서 한글 GPT2인 KoGPT2를 공개했습니다. GPT2는 117M, 345M, 762M, 1542M의 4종류로 되어있습니다. KoGPT2는 가장 작은 사이즈인 117M(12 layers)로 구성되어 있습니다. 또한 GPT2보다 절반 정도의 크기인 20GB의 텍스트로 학습을 하였습니다. 아래 사이트에서 테스트도 가능하니 참고하시기 바랍니다.

 

GPT2 한글 버전이 공유된 건 아마 처음인 것 같습니다. 이전에 나온 KoBERT도 그렇고, SKT가 국내 딥러닝 활성화를 위해 많은 기여를 하고 있습니다. 앞으로 더 높은 파라미터의 모델도 나오기를 기대해봅니다.

 

 

 

< KoGPT-2 Explorer >
-> http://52.231.69.211:8000/

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
DALL-E를 능가하는 OpenAI의 GLIDE 깊은바다 2021-12-27 838
구글의 초거대모델 PaLM의 추론과 상식 능력 file 깊은바다 2022-05-20 838
네이버 뉴스 댓글로 사전훈련한 구어체 모델 - KcBERT 깊은바다 2020-07-20 814
러시아의 구글 얀덱스, 100B 초거대모델 무료 공개 깊은바다 2022-06-26 806
ChatGPT 프롬프트 엔지니어링 - 다양한 말투로 대답하기 file 깊은바다 2023-02-17 804
GPT-3 패러다임을 바꿀 미친 성능의 인공지능 등장 및 활용 사례 10가지 깊은바다 2020-09-14 799
ChatGPT와 유사한 서비스 - Chatsonic file 깊은바다 2023-01-09 794
GPT3로 하는 리액트 프로그래밍 file 깊은바다 2020-07-19 769
HyperCLOVA로 만드는 캐릭터 챗봇 file 깊은바다 2021-11-26 762
LLM이 서로 협력하여 프로그램을 개발 - ChatDev file 깊은바다 2023-08-16 751
GPT3가 상식을 가지고 있을까 깊은바다 2020-07-24 741
Llama 2의 RLHF 구현 방법 깊은바다 2023-07-19 729
RAG를 사용한 페르소나 챗봇 - ChatHaruhi file 깊은바다 2023-10-17 718
LLM의 창발적인 현상인 CoT(Chain of Thouht) 소개 file 깊은바다 2023-07-27 714
GPT-3를 헬스케어 서비스에 적용했을 때의 문제점들 깊은바다 2020-11-04 707