글 수 95

GPT2의 1.5B 모델 공개

조회 수 90 추천 수 0 2019.11.08 19:36:20


https://openai.com/blog/gpt-2-1-5b-release/

 

 

 

드디어 GPT2의 1.5B 모델이 공개되었습니다. 117M, 345M, 762M에 이어 가장 파라미터가 큰 모델입니다. 그동안의 여러 단체와 함께 잘못 사용될 가능성에 대해 자체적으로 조사했다고 합니다. 그 결과 큰 문제가 없을 것으로 생각해서 배포하기로 결정했습니다. 사람이 쓴 글인지 판단하는 Detector 모델도 함께 공개했습니다. 현재 95%의 정확도를 보이고 있습니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수
GLUE: 벤치마크를 통해 BERT 이해하기 깊은바다 2019-11-19 29
GPT2의 1.5B 모델 공개 깊은바다 2019-11-08 90
GPT2로 글을 작성하는 사이트 - StoryAI file 깊은바다 2019-10-11 157
딥러닝 기반 자연어 언어모델 BERT - Colab 실습 코드 포함 file 깊은바다 2019-09-02 430
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 319
딥러닝을 활용한 뉴스 메타 태깅 깊은바다 2019-08-26 148
100억건의 카카오톡 데이터로 
똑똑한 일상대화 인공지능 만들기 - 핑퐁 멀티턴 file 깊은바다 2019-08-20 452
새로운 자연어처리 벤치마크 - SuperGLUE 깊은바다 2019-08-15 225
딥러닝을 사용하여 심심이의 나쁜말 필터링 기능 구현 깊은바다 2019-08-14 214
위키에서 질문의 답을 찾는 딥러닝 모델, 페이스북의 DrQA file 깊은바다 2019-08-03 166
페이스북이 발표한 사전훈련 언어모델 RoBERTa file 깊은바다 2019-07-30 389
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 617
딥러닝 자연어처리 강의 - Natural Language Processing with PyTorch 깊은바다 2019-07-06 310
딥러닝을 사용하여 의도 및 엔티티를 파악하는 챗봇 소스코드 file 깊은바다 2019-06-25 739
가짜뉴스를 생성 또는 판별하는 딥러닝 모델 - Grover 깊은바다 2019-06-01 343