글 수 97

GPT2의 1.5B 모델 공개

조회 수 144 추천 수 0 2019.11.08 19:36:20


https://openai.com/blog/gpt-2-1-5b-release/

 

 

 

드디어 GPT2의 1.5B 모델이 공개되었습니다. 117M, 345M, 762M에 이어 가장 파라미터가 큰 모델입니다. 그동안의 여러 단체와 함께 잘못 사용될 가능성에 대해 자체적으로 조사했다고 합니다. 그 결과 큰 문제가 없을 것으로 생각해서 배포하기로 결정했습니다. 사람이 쓴 글인지 판단하는 Detector 모델도 함께 공개했습니다. 현재 95%의 정확도를 보이고 있습니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
딥러닝을 사용한 챗봇 개발방법 정리 file 깊은바다 2018-02-03 15811
문장을 학습하는 딥러닝 RNN의 Seq2Seq 모델 설명 file 깊은바다 2017-09-15 6287
딥러닝 RNN으로 구현한 챗봇 깊은바다 2017-08-01 6287
챗봇에 딥러닝 학습을 적용하기 어려운 이유 file 깊은바다 2018-03-23 3876
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 2720
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 2707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 2652
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 2637
추론이 가능한 딥러닝인 Relational Networks [2] 깊은바다 2017-06-11 2573
챗봇에서 유사한 문장 자동인식 방법 file 깊은바다 2018-04-27 2548
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 2474
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 2339
구글 딥러닝 자연어 처리 오픈소스 SyntaxNet file 깊은바다 2017-12-28 2324
카카오 형태소 분석기(khaiii) 설치와 은전한닢(mecab) 형태소 분석기 비교 깊은바다 2018-12-02 2139
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 2008