레플리
글 수 284


AI 검색 비용의 경제학으로 구글과 마이크로소프트 경쟁을 분석한 semianalysis 글중 무료로 공개된 부분을 정리해봤다.

 

읽어보면 마이크로소프트는 지금은 현금을 투입해 구글의 심장부인 구글의 핵심 수익 모델을 흐드는 것이 우선 목표 아닌가 하는 생각도 하게 된다.

 

"챗GPT 모델이 구글의 기존 검색 비즈니스에 어설프게 적용된다면 그 영향은 엄청날 것이다. 영업이익이 360억 달러 감소할 것이다. 이는 LLM 추론 비용이 360억 달러라는 얘기다. 현재 챗GPT를 구글에서 이뤄지는 모든 검색에 배포하려면 총 410만2568개 A100 GPU가 장착된 51만2820.51개 A100 HGX 서버가 필요하다. 이러한 서버와 네트워킹 총 비용은 자본 비용만 1,000억 달러가 넘으며, 이 중 상당 부분을 엔비디아가 가져갈 것이다.

 

물론 이런 일은 절대 일어나지 않겠지만, 소프트웨어나 하드웨어 개선이 이루어지지 않는다고 가정하면 재미있는 사고 실험이 될 것이다. 놀라운 점은 마이크로소프트가 검색에 LLM을 삽입하면 검색 수익성이 떨어지고 막대한 자본 지출이 필요하다는 것을 알고 있다는 것이다. 사티아 나델라는 이제부터 검색의 [총 마진]이 영원히 떨어질 것이라고 했다.

 

마이크로소프트는 행복하게 검색 시장의 수익성을 폭파시키고 있다. 구글은 방어에 나서고 있다. 검색 프랜차이즈가 흔들리면 이익에 큰 문제가 생길 수 있다.

 

LLM 기능 측면에서는 Bing GPT가 훨씬 더 강력해 보인다. 구글은 이미 이 새로운 기술을 무대에서 시연할 때에도 정확도에 문제가 있었다. Bing GPT와 구글 바드 응답 시간을 모두 측정하면 응답 시간에서는 바드가 빙을 압도한다. 이러한 모델 응답 시간 및 품질 차이는 모델 크기와 직접적인 관련이 있다.

 

구글은 작은 모델로 마진을 방어하고 있다. 풀사이즈 람다(LaMDA) 모델이나 훨씬 더 성능이 뛰어나고 큰 PaLM 모델을 배포할 수도 있었지만, 대신 훨씬 슬림한 모델을 선택했다. 이는 필요에 의한 선택이다. 구글은 이러한 대규모 모델을 검색에 배포할 수 없다. 총 마진이 너무 많이 줄어들기 때문이다. 이번 글 뒷부분에서 이 경량 버전의 LaMDA에 대해 자세히 설명하겠지만, 지연 시간에서 바드가 가진 이점이 경쟁력의 한 요소라는 점을 인식하는 것이 중요하다."

 

https://brunch.co.kr/@delight412/539

 

---------------------------------------------------------

 

 

 

현 상황을 날카롭게 분석한 글입니다. 빙이 통합한 ChatGPT에 비해 구글의 Bard는 상대적으로 모델 크기가 작습니다. 당연히 성능도 더 떨어질 테고요. 빙은 점유률이 낮기 때문에 거대 모델을 써도 부담이 적습니다. 반면에 구글이 ChatGPT 정도의 모델을 적용하면 막대한 비용이 듭니다.

 

MS의 목적이 구글이 장악하고 있는 검색 시장 자체를 붕괴시키고자 한다는게 놀랍네요. MS는 윈도우나 오피스 같은 캐시카우가 이미 존재합니다. 차라리 검색의 수익을 포기하더라도 경쟁사를 무너뜨리는게 장기적으로 이익일 수 있습니다. 과연 구글이 어떻게 대응을 할지 궁금하네요. 개인적으로 MS의 전략이 통할 것 같습니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜sort 조회 수
워드 임베딩에 대한 아주 쉬운 설명 - The Illustrated Word2vec 깊은바다 2019-04-09 706
BERT로 토익 문제를 푸는 프로젝트 file 깊은바다 2019-04-30 2284
Jay Alammar의 트랜스포머 한글 번역글 깊은바다 2019-05-09 1067
인간의 언어를 이해하는 기계, NLU 깊은바다 2019-05-17 850
GPT2를 Colab에서 테스트할 수 있는 코드 깊은바다 2019-05-21 1786
가짜뉴스를 생성 또는 판별하는 딥러닝 모델 - Grover 깊은바다 2019-06-01 969
딥러닝을 사용하여 의도 및 엔티티를 파악하는 챗봇 소스코드 file 깊은바다 2019-06-25 2329
딥러닝 자연어처리 강의 - Natural Language Processing with PyTorch 깊은바다 2019-07-06 687
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
페이스북이 발표한 사전훈련 언어모델 RoBERTa file 깊은바다 2019-07-30 1429
위키에서 질문의 답을 찾는 딥러닝 모델, 페이스북의 DrQA file 깊은바다 2019-08-03 902
딥러닝을 사용하여 심심이의 나쁜말 필터링 기능 구현 깊은바다 2019-08-14 902
새로운 자연어처리 벤치마크 - SuperGLUE 깊은바다 2019-08-15 703
100억건의 카카오톡 데이터로 
똑똑한 일상대화 인공지능 만들기 - 핑퐁 멀티턴 file 깊은바다 2019-08-20 1732
딥러닝을 활용한 뉴스 메타 태깅 깊은바다 2019-08-26 379