레플리
글 수 291


업스테이지 SOLAR 10.7B 모델의 논문이 나왔습니다. DUS(Depth Up-Scaling)이라는 새로운 기법을 사용했습니다. 먼저 Llama2 아키텍처인 Mistral 7B 모델을 베이스 모델로 가져옵니다. 이 모델을 2개로 복사하고 각각 위쪽 8개 레이어와 아래쪽 8개 레이어를 제거합니다. 그다음 두 모델을 붙여서 총 48 레이어의 하나의 모델로 만듭니다.

 

K-001.png

 

 

 

이 상태에서는 기존 Mistral 7B보다 모델 크기는 10.7B으로 커졌지만 성능이 떨어집니다. 그래서 다시 pretraining을 한번 하고 Instruction tuning과 Alignment tuning 과정을 거칩니다. Instruction tuning은 QA 데이터로 파인튜닝을 합니다. Alignment tuning은 DPO(Direct Preference Optimization)를 사용합니다. 이는 RLHF과 유사하지만 reward가 필요없는 방법입니다.

 

정리하면 7B의 사전훈련된 모델을 두개로 복사하여 붙여서 모델의 크기를 키우고 다시 추가 학습을 했습니다. GPT-4에서 쓰인 MoE(Mixture of Experts) 보다 구조가 훨씬 간단하면서 효율적으로 성능을 높일 수 있습니다. 벤치마크를 보면 MoE 기반의 Mixtral 8x7B보다 점수가 더 높게 나왔습니다. 업스테이지의 기술력이 놀랍네요. SOLAR가 한국을 대표하는 LLM으로 발전했으면 합니다.

 

K-002.png

 

 

 

< 논문 >

https://arxiv.org/abs/2312.15166

 

List of Articles
제목 글쓴이 날짜sort 조회 수
Pre-training 시대에서 Post-training 시대로 전환 우종하 2024-12-21 85
RAG를 사용한 장기기억의 한계 깊은바다 2024-10-12 217
OpenAI의 o1, IQ 테스트에서 인간의 평균을 훨씬 뛰어넘음 file 깊은바다 2024-09-16 143
심심이와 이루다1.0같은 검색 기반 챗봇의 장점 file 깊은바다 2024-06-02 263
GPT-4o가 GPT-4보다 한글 문장 품질이 훨씬 높아짐 file 깊은바다 2024-05-20 194
GPT-4o, GPT-3.5-turbo, 클로바X 가격 비교 file 깊은바다 2024-05-15 456
감성대화에서 클로바X가 챗GPT보다 뛰어난 이유 깊은바다 2024-05-10 209
MS 코파일럿, 한국어 토큰수 2배에서 1.1배로 감소 file 깊은바다 2024-05-04 235
5배 싸진 클로바X의 경량화 모델 - HCX-DASH file 깊은바다 2024-04-26 269
클로바X의 사용량 제한 - QPM과 TPM 깊은바다 2024-04-01 254
Pi를 만든 Inflection AI, MS로 대거 이직한 이유 깊은바다 2024-03-25 194
LLaMA나 Mistral이 계속 무료로 유지될 수 있을까 깊은바다 2024-03-05 431
GPT-3.5와 클로바X 가격 비교 file 깊은바다 2024-02-25 695
OpenAI, 성능은 높아지고 가격은 싸진 새로운 모델 공개 file 깊은바다 2024-01-26 438
AI 휴대용 기기 R1을 만든 Rabbit의 대표 Jesse Lyu 깊은바다 2024-01-12 414