레플리
글 수 295

SKT가 공개한 한글 GPT2 - KoGPT2

조회 수 5391 추천 수 0 2020.02.02 16:39:10


 

https://github.com/SKT-AI/KoGPT2

 

 

 

SKT에서 한글 GPT2인 KoGPT2를 공개했습니다. GPT2는 117M, 345M, 762M, 1542M의 4종류로 되어있습니다. KoGPT2는 가장 작은 사이즈인 117M(12 layers)로 구성되어 있습니다. 또한 GPT2보다 절반 정도의 크기인 20GB의 텍스트로 학습을 하였습니다. 아래 사이트에서 테스트도 가능하니 참고하시기 바랍니다.

 

GPT2 한글 버전이 공유된 건 아마 처음인 것 같습니다. 이전에 나온 KoBERT도 그렇고, SKT가 국내 딥러닝 활성화를 위해 많은 기여를 하고 있습니다. 앞으로 더 높은 파라미터의 모델도 나오기를 기대해봅니다.

 

 

 

< KoGPT-2 Explorer >
-> http://52.231.69.211:8000/

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수
GPT-2를 사용한 텍스트 압축 기법 file 깊은바다 2021-02-19 532
딥러닝 자연어처리 라이브러리 - Pororo file 깊은바다 2021-02-03 2120
스캐터랩의 오픈도메인 챗봇 루다 육아일기 - 모델의 구조 및 동작방식 file 깊은바다 2020-12-30 1430
일상대화 챗봇 레플리카(Replika)의 구현 방식 file 깊은바다 2020-12-22 1659
좋은 응답을 골라내는 모델 만들기 - 핑퐁의 답변매칭 알고리즘 깊은바다 2020-12-10 611
GPT-3를 헬스케어 서비스에 적용했을 때의 문제점들 깊은바다 2020-11-04 746
스캐터랩의 핑퐁팀, 새로운 생성 모델 챗봇 데모 공개 깊은바다 2020-11-02 933
카카오미니의 명령어 분류 방법 깊은바다 2020-10-23 286
딥러닝으로 동네생활 게시글 필터링하기 깊은바다 2020-10-06 441
KoNLPy를 이용하여 Huggingface Transformers 학습하기 깊은바다 2020-09-20 1629
GPT-3 패러다임을 바꿀 미친 성능의 인공지능 등장 및 활용 사례 10가지 깊은바다 2020-09-14 838
GPT3 유료화 가격 공개 file 깊은바다 2020-09-04 1781
GPT-3의 다섯 가지 한계 깊은바다 2020-08-23 1104
그림으로 아주 쉽게 설명한, The Illustrated GPT-2 깊은바다 2020-08-15 2929
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3601