레플리
글 수 293

검색기반 거대모델인 딥마인드의 RETRO

조회 수 601 추천 수 0 2021.12.20 18:26:23


 

https://deepmind.com/research/publications/2021/improving-language-models-by-retrieving-from-trillions-of-tokens

 

 

 

얼마전 딥마인드가 만든 Gopher를 소개한 적이 있습니다. GPT-3의 1750억개보다 큰 2800억개의 파라미터를 가진 거대모델입니다. 이와 동시에 RETRO(Retrieval-Enhanced Transformer)도 같이 공개했었는데요. 개인적으로는 Gopher보다 훨씬 더 흥미로웠습니다.

 

지금까지 거대모델은 모든 정보를 파라미터 안에 기억하고 있었습니다. 더 많이 학습하기 위해서는 필연적으로 모델의 크기도 커질 수 밖에 없습니다. 반면에 RETRO는 75억 파라미터로 작은 편이지만 Gopher를 능가하는 성능을 보입니다. 16개의 벤치마크 중 9개에서 더 높은 점수를 얻었습니다

 

RETRO는 이름처럼 검색을 기반으로 한 거대모델입니다. 모든 것을 기억하지 않고 먼저 외부에서 정보를 검색합니다. 그리고 이를 활용하여 결과를 생성합니다. ODQA(Open-Domain Question Answering)와 비슷합니다. 보통 ODQA는 Retriever에서 문서를 찾고, 이를 그대로 Reader의 입력으로 넣습니다. 반면에 RETRO는 검색으로 찾은 정보를 임베딩으로 변환하고 cross-attention으로 모델에 결합했습니다.

 

알파고도 그랬지만 딥마인드가 인공지능의 새로운 방향을 계속 보여주고 있습니다. 앞으로 거대모델의 경쟁에서 RETRO가 큰 변화를 가져오지 않을까 생각됩니다.

 

 

엮인글 :
List of Articles
제목 글쓴이 날짜sort 조회 수
제미나이 2.5 플래시 가격 4배로 인상 file 우종하 2025-06-28 25
클로바X 신모델 출시 - HCX-005 / HCX-DASH-002 file 우종하 2025-04-21 412
제미나이 2.5 프로 API 정식 출시 file 우종하 2025-04-10 319
간단하게 만들어보는 MCP와 동작 방식 file 우종하 2025-03-31 428
구글 제미나이 2.0의 감성대화 능력 우종하 2025-02-07 358
Pre-training 시대에서 Post-training 시대로 전환 우종하 2024-12-21 435
RAG를 사용한 장기기억의 한계 깊은바다 2024-10-12 555
OpenAI의 o1, IQ 테스트에서 인간의 평균을 훨씬 뛰어넘음 file 깊은바다 2024-09-16 381
심심이와 이루다1.0같은 검색 기반 챗봇의 장점 file 깊은바다 2024-06-02 536
GPT-4o가 GPT-4보다 한글 문장 품질이 훨씬 높아짐 file 깊은바다 2024-05-20 443
GPT-4o, GPT-3.5-turbo, 클로바X 가격 비교 file 깊은바다 2024-05-15 715
감성대화에서 클로바X가 챗GPT보다 뛰어난 이유 깊은바다 2024-05-10 456
MS 코파일럿, 한국어 토큰수 2배에서 1.1배로 감소 file 깊은바다 2024-05-04 457
5배 싸진 클로바X의 경량화 모델 - HCX-DASH file 깊은바다 2024-04-26 512
클로바X의 사용량 제한 - QPM과 TPM 깊은바다 2024-04-01 489