글 수 97

GPT2의 1.5B 모델 공개

조회 수 142 추천 수 0 2019.11.08 19:36:20


https://openai.com/blog/gpt-2-1-5b-release/

 

 

 

드디어 GPT2의 1.5B 모델이 공개되었습니다. 117M, 345M, 762M에 이어 가장 파라미터가 큰 모델입니다. 그동안의 여러 단체와 함께 잘못 사용될 가능성에 대해 자체적으로 조사했다고 합니다. 그 결과 큰 문제가 없을 것으로 생각해서 배포하기로 결정했습니다. 사람이 쓴 글인지 판단하는 Detector 모델도 함께 공개했습니다. 현재 95%의 정확도를 보이고 있습니다.

엮인글 :
List of Articles
제목 글쓴이 날짜sort 조회 수
GPT2로 만든 텍스트 어드벤쳐 게임 깊은바다 2019-12-09 20
인공지능과 함께 글쓰기! 창의 AI x Bookathon 대회 - GPT2 깊은바다 2019-11-30 136
GLUE: 벤치마크를 통해 BERT 이해하기 깊은바다 2019-11-19 264
GPT2의 1.5B 모델 공개 깊은바다 2019-11-08 142
GPT2로 글을 작성하는 사이트 - StoryAI file 깊은바다 2019-10-11 194
딥러닝 기반 자연어 언어모델 BERT - Colab 실습 코드 포함 file 깊은바다 2019-09-02 485
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 383
딥러닝을 활용한 뉴스 메타 태깅 깊은바다 2019-08-26 165
100억건의 카카오톡 데이터로 
똑똑한 일상대화 인공지능 만들기 - 핑퐁 멀티턴 file 깊은바다 2019-08-20 567
새로운 자연어처리 벤치마크 - SuperGLUE 깊은바다 2019-08-15 242
딥러닝을 사용하여 심심이의 나쁜말 필터링 기능 구현 깊은바다 2019-08-14 264
위키에서 질문의 답을 찾는 딥러닝 모델, 페이스북의 DrQA file 깊은바다 2019-08-03 177
페이스북이 발표한 사전훈련 언어모델 RoBERTa file 깊은바다 2019-07-30 451
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 694
딥러닝 자연어처리 강의 - Natural Language Processing with PyTorch 깊은바다 2019-07-06 339