레플리
글 수 283

GPT2의 1.5B 모델 공개

조회 수 554 추천 수 0 2019.11.08 19:36:20


https://openai.com/blog/gpt-2-1-5b-release/

 

 

 

드디어 GPT2의 1.5B 모델이 공개되었습니다. 117M, 345M, 762M에 이어 가장 파라미터가 큰 모델입니다. 그동안의 여러 단체와 함께 잘못 사용될 가능성에 대해 자체적으로 조사했다고 합니다. 그 결과 큰 문제가 없을 것으로 생각해서 배포하기로 결정했습니다. 사람이 쓴 글인지 판단하는 Detector 모델도 함께 공개했습니다. 현재 95%의 정확도를 보이고 있습니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
잡담봇 삽질기 - 문봇에서 딥러닝 Seq2Seq로 문장 생성 깊은바다 2018-03-25 857
Word2Vec의 학습 방식 깊은바다 2019-01-17 898
스캐터랩의 핑퐁팀, 새로운 생성 모델 챗봇 데모 공개 깊은바다 2020-11-02 898
위키정보를 찾아 잡담을 하는 딥러닝 모델 - Wizard Of Wikipedia file 깊은바다 2018-11-29 899
딥러닝을 사용하여 심심이의 나쁜말 필터링 기능 구현 깊은바다 2019-08-14 902
위키에서 질문의 답을 찾는 딥러닝 모델, 페이스북의 DrQA file 깊은바다 2019-08-03 902
GPT3 유료화 기능 소개 영상 깊은바다 2020-06-15 914
LG 사이언스파크에서 만든 한글 MRC(기계독해) 데모 file [2] 깊은바다 2020-03-07 931
문장을 벡터로 변환하는 방법들 깊은바다 2021-09-16 931
머신러닝의 자연어처리 기술 깊은바다 2018-05-11 937
페이스북의 일상대화 딥러닝 모델 - BlenderBot file 깊은바다 2020-05-01 948
질의응답을 위한 딥러닝 모델인 메모리 네트워크 정리 file 깊은바다 2018-09-26 959
내가 AI를 직접 가르치고 키우는 반려지능의 시대 file 깊은바다 2023-05-31 961
End-To-End Memory Networks - 자연어 질문에 대답하는 모델 [2] 깊은바다 2017-08-21 962
OpenAI의 대화전용 딥러닝 모델 - ChatGPT file 깊은바다 2022-12-02 965