레플리
글 수 293

검색기반 거대모델인 딥마인드의 RETRO

조회 수 1111 추천 수 0 2021.12.20 18:26:23


 

https://deepmind.com/research/publications/2021/improving-language-models-by-retrieving-from-trillions-of-tokens

 

 

 

얼마전 딥마인드가 만든 Gopher를 소개한 적이 있습니다. GPT-3의 1750억개보다 큰 2800억개의 파라미터를 가진 거대모델입니다. 이와 동시에 RETRO(Retrieval-Enhanced Transformer)도 같이 공개했었는데요. 개인적으로는 Gopher보다 훨씬 더 흥미로웠습니다.

 

지금까지 거대모델은 모든 정보를 파라미터 안에 기억하고 있었습니다. 더 많이 학습하기 위해서는 필연적으로 모델의 크기도 커질 수 밖에 없습니다. 반면에 RETRO는 75억 파라미터로 작은 편이지만 Gopher를 능가하는 성능을 보입니다. 16개의 벤치마크 중 9개에서 더 높은 점수를 얻었습니다

 

RETRO는 이름처럼 검색을 기반으로 한 거대모델입니다. 모든 것을 기억하지 않고 먼저 외부에서 정보를 검색합니다. 그리고 이를 활용하여 결과를 생성합니다. ODQA(Open-Domain Question Answering)와 비슷합니다. 보통 ODQA는 Retriever에서 문서를 찾고, 이를 그대로 Reader의 입력으로 넣습니다. 반면에 RETRO는 검색으로 찾은 정보를 임베딩으로 변환하고 cross-attention으로 모델에 결합했습니다.

 

알파고도 그랬지만 딥마인드가 인공지능의 새로운 방향을 계속 보여주고 있습니다. 앞으로 거대모델의 경쟁에서 RETRO가 큰 변화를 가져오지 않을까 생각됩니다.

 

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
AI 휴대용 기기 R1을 만든 Rabbit의 대표 Jesse Lyu 깊은바다 2024-01-12 1111
Pi를 만든 Inflection AI, MS로 대거 이직한 이유 깊은바다 2024-03-25 1137
좋은 응답을 골라내는 모델 만들기 - 핑퐁의 답변매칭 알고리즘 깊은바다 2020-12-10 1140
포자랩스의 작사/작곡 인공지능 file 깊은바다 2018-08-31 1144
책 한권을 입력으로 받는 구글의 딥러닝 모델 - Reformer 깊은바다 2020-01-17 1151
딥러닝을 이용한 자연어처리의 연구동향 깊은바다 2018-10-04 1154
GPT2를 테스트해볼 수 있는 사이트 - Talk to Transformer file 깊은바다 2020-06-05 1166
GPT-4 수능 국어영역에서 3등급(상위 17%) 달성 깊은바다 2023-03-21 1167
사람의 말로 표현하는 페이지(PAIGE) - 자연어생성 깊은바다 2018-08-04 1169
네이버의 초거대모델인 HyperCLOVA 논문 file 깊은바다 2021-09-13 1174
문장 입력 이진분류 모델 레시피 - 영화평점 학습 [3] 깊은바다 2018-04-04 1178
구글 듀플렉스(Duplex) 상용화 시작 [2] 깊은바다 2018-11-26 1179
대화 인공지능 대회 - ConvAI file 깊은바다 2019-03-25 1182
OpenAI, 성능은 높아지고 가격은 싸진 새로운 모델 공개 file 깊은바다 2024-01-26 1184
GPT3가 상식을 가지고 있을까 깊은바다 2020-07-24 1187