레플리
글 수 281

6B 파라미터의 GPT-J_6B 오픈소스 모델

조회 수 3023 추천 수 0 2021.07.01 12:18:15


 

https://arankomatsuzaki.wordpress.com/2021/06/04/gpt-j/

 

 

 

EleutherAI는 오픈소스 GPT-3인 GPT-Neo를 공개했습니다. GPT-2의 파라미터가 1.5B, GPT-3는 175B입니다. GPT-Neo는 현재까지 2.7B까지 나왔습니다.

 

이번에는 6B 사이즈인 GPT-J-6B를 내놓았습니다. 800GB 텍스트에서 400B개의 토큰으로 학습했습니다. TPU v3-256으로 5주가 걸렸다고 합니다. 시간당 192$이니 192x5x7x24=161,280$입니다. 대충 2억정도 들었네요.

 

GPT-Neo와의 가장 큰 차이점은 제로샷이 된다는 것입니다. 별도의 파인튜닝 없이도 질문만 넣으면 다양한 태스크가 가능합니다. 샘플 아웃풋을 보면 수학계산, 기계독해(MRC), 코딩 등의 예를 보여주고 있습니다.

 

 

 

< 테스트 페이지 >

https://6b.eleuther.ai/

 

< GitHub >

https://github.com/kingoflolz/mesh-transformer-jax

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수
Poe에 추가된 업스테이지의 LLM, Solar-70b file 깊은바다 2023-09-18 414
RAG 아키텍처를 위한 임베딩 모델의 선택에 대해 깊은바다 2023-09-14 496
LLM의 미래는 자율행동과 멀티 에이전트 깊은바다 2023-08-30 292
LLM이 서로 협력하여 프로그램을 개발 - ChatDev file 깊은바다 2023-08-16 724
GPT-4에 CoT 프롬프를 적용하여 2023 수능 국어 1등급 달성 file 깊은바다 2023-08-08 593
LLM의 창발적인 현상인 CoT(Chain of Thouht) 소개 file 깊은바다 2023-07-27 674
RAG 아키텍처의 이해 깊은바다 2023-07-23 1292
GPT-4 세부구조에 대한 정보 유출 깊은바다 2023-07-20 452
Llama 2의 RLHF 구현 방법 깊은바다 2023-07-19 694
한국어 LLM 민주화의 시작 KoAlpaca file 깊은바다 2023-07-17 1017
레포트를 써주는 LLM - GPT Researcher file 깊은바다 2023-07-13 353
LLM 챗봇의 특징 2가지 - RAG와 Function 깊은바다 2023-07-06 1150
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9280
Generative AI — 시장 구조, 기회, moat에 대한 몇 가지 생각 깊은바다 2023-06-27 298
ChatGPT plugin와 Autonomous Agent, 그리고 새로운 패러다임의 시작 깊은바다 2023-06-27 203