레플리
글 수 284


https://github.com/yandex/YaLM-100B

 

 

 

러시아의 구글인 얀덱스에서 GPT-3급의 100B 초거대모델을 공개했습니다. 아파치 라이선스로 상업적 이용도 가능합니다. 러시아어와 영어 둘 다 지원합니다. 웨이트만 다운받는데 200GB의 용량이 필요합니다. A100 800대로 65일 동안 학습했다고 합니다. A100 80G 4대 또는 V100 32G 8대의 GPU로 실행할 수 있습니다.

 

페이스북도 곧 OPT(Open Pretrained Transformer)라는 175B의 모델을 공개할 예정입니다. 적어도 영어에서는 초거대모델의 대중화가 이루어질 듯 합니다. 한글 버전도 빨리 공개가 되면 좋겠네요.

 

엮인글 :
List of Articles
제목 글쓴이 날짜sort 조회 수
소설을 생성하는 NarrativeKoGPT2 file 깊은바다 2020-06-19 2198
주석을 프로그램으로 변환하는 GPT 모델 깊은바다 2020-06-21 480
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3526
오픈소스 한국어 딥러닝 챗봇 - Kochat 깊은바다 2020-07-03 2503
GPT2에서 문장 생성 시 단어를 확률에 따라 선택하는 방법 깊은바다 2020-07-16 2206
GPT3로 하는 리액트 프로그래밍 file 깊은바다 2020-07-19 769
네이버 뉴스 댓글로 사전훈련한 구어체 모델 - KcBERT 깊은바다 2020-07-20 814
GPT3 튜링 테스트 깊은바다 2020-07-23 668
GPT3가 상식을 가지고 있을까 깊은바다 2020-07-24 741
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6371
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3566
그림으로 아주 쉽게 설명한, The Illustrated GPT-2 깊은바다 2020-08-15 2783
GPT-3의 다섯 가지 한계 깊은바다 2020-08-23 1053
GPT3 유료화 가격 공개 file 깊은바다 2020-09-04 1748
GPT-3 패러다임을 바꿀 미친 성능의 인공지능 등장 및 활용 사례 10가지 깊은바다 2020-09-14 799