글 수 94

GPT2의 1.5B 모델 공개

조회 수 52 추천 수 0 2019.11.08 19:36:20


https://openai.com/blog/gpt-2-1-5b-release/

 

 

 

드디어 GPT2의 1.5B 모델이 공개되었습니다. 117M, 345M, 762M에 이어 가장 파라미터가 큰 모델입니다. 그동안의 여러 단체와 함께 잘못 사용될 가능성에 대해 자체적으로 조사했다고 합니다. 그 결과 큰 문제가 없을 것으로 생각해서 배포하기로 결정했습니다. 사람이 쓴 글인지 판단하는 Detector 모델도 함께 공개했습니다. 현재 95%의 정확도를 보이고 있습니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수
GPT2의 1.5B 모델 공개 깊은바다 2019-11-08 52
GPT2로 글을 작성하는 사이트 - StoryAI file 깊은바다 2019-10-11 131
딥러닝 기반 자연어 언어모델 BERT - Colab 실습 코드 포함 file 깊은바다 2019-09-02 404
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 304
딥러닝을 활용한 뉴스 메타 태깅 깊은바다 2019-08-26 143
100억건의 카카오톡 데이터로 
똑똑한 일상대화 인공지능 만들기 - 핑퐁 멀티턴 file 깊은바다 2019-08-20 425
새로운 자연어처리 벤치마크 - SuperGLUE 깊은바다 2019-08-15 214
딥러닝을 사용하여 심심이의 나쁜말 필터링 기능 구현 깊은바다 2019-08-14 206
위키에서 질문의 답을 찾는 딥러닝 모델, 페이스북의 DrQA file 깊은바다 2019-08-03 156
페이스북이 발표한 사전훈련 언어모델 RoBERTa file 깊은바다 2019-07-30 369
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 585
딥러닝 자연어처리 강의 - Natural Language Processing with PyTorch 깊은바다 2019-07-06 299
딥러닝을 사용하여 의도 및 엔티티를 파악하는 챗봇 소스코드 file 깊은바다 2019-06-25 703
가짜뉴스를 생성 또는 판별하는 딥러닝 모델 - Grover 깊은바다 2019-06-01 335
GPT2를 Colab에서 테스트할 수 있는 코드 깊은바다 2019-05-21 354