레플리
글 수 284


AI 검색 비용의 경제학으로 구글과 마이크로소프트 경쟁을 분석한 semianalysis 글중 무료로 공개된 부분을 정리해봤다.

 

읽어보면 마이크로소프트는 지금은 현금을 투입해 구글의 심장부인 구글의 핵심 수익 모델을 흐드는 것이 우선 목표 아닌가 하는 생각도 하게 된다.

 

"챗GPT 모델이 구글의 기존 검색 비즈니스에 어설프게 적용된다면 그 영향은 엄청날 것이다. 영업이익이 360억 달러 감소할 것이다. 이는 LLM 추론 비용이 360억 달러라는 얘기다. 현재 챗GPT를 구글에서 이뤄지는 모든 검색에 배포하려면 총 410만2568개 A100 GPU가 장착된 51만2820.51개 A100 HGX 서버가 필요하다. 이러한 서버와 네트워킹 총 비용은 자본 비용만 1,000억 달러가 넘으며, 이 중 상당 부분을 엔비디아가 가져갈 것이다.

 

물론 이런 일은 절대 일어나지 않겠지만, 소프트웨어나 하드웨어 개선이 이루어지지 않는다고 가정하면 재미있는 사고 실험이 될 것이다. 놀라운 점은 마이크로소프트가 검색에 LLM을 삽입하면 검색 수익성이 떨어지고 막대한 자본 지출이 필요하다는 것을 알고 있다는 것이다. 사티아 나델라는 이제부터 검색의 [총 마진]이 영원히 떨어질 것이라고 했다.

 

마이크로소프트는 행복하게 검색 시장의 수익성을 폭파시키고 있다. 구글은 방어에 나서고 있다. 검색 프랜차이즈가 흔들리면 이익에 큰 문제가 생길 수 있다.

 

LLM 기능 측면에서는 Bing GPT가 훨씬 더 강력해 보인다. 구글은 이미 이 새로운 기술을 무대에서 시연할 때에도 정확도에 문제가 있었다. Bing GPT와 구글 바드 응답 시간을 모두 측정하면 응답 시간에서는 바드가 빙을 압도한다. 이러한 모델 응답 시간 및 품질 차이는 모델 크기와 직접적인 관련이 있다.

 

구글은 작은 모델로 마진을 방어하고 있다. 풀사이즈 람다(LaMDA) 모델이나 훨씬 더 성능이 뛰어나고 큰 PaLM 모델을 배포할 수도 있었지만, 대신 훨씬 슬림한 모델을 선택했다. 이는 필요에 의한 선택이다. 구글은 이러한 대규모 모델을 검색에 배포할 수 없다. 총 마진이 너무 많이 줄어들기 때문이다. 이번 글 뒷부분에서 이 경량 버전의 LaMDA에 대해 자세히 설명하겠지만, 지연 시간에서 바드가 가진 이점이 경쟁력의 한 요소라는 점을 인식하는 것이 중요하다."

 

https://brunch.co.kr/@delight412/539

 

---------------------------------------------------------

 

 

 

현 상황을 날카롭게 분석한 글입니다. 빙이 통합한 ChatGPT에 비해 구글의 Bard는 상대적으로 모델 크기가 작습니다. 당연히 성능도 더 떨어질 테고요. 빙은 점유률이 낮기 때문에 거대 모델을 써도 부담이 적습니다. 반면에 구글이 ChatGPT 정도의 모델을 적용하면 막대한 비용이 듭니다.

 

MS의 목적이 구글이 장악하고 있는 검색 시장 자체를 붕괴시키고자 한다는게 놀랍네요. MS는 윈도우나 오피스 같은 캐시카우가 이미 존재합니다. 차라리 검색의 수익을 포기하더라도 경쟁사를 무너뜨리는게 장기적으로 이익일 수 있습니다. 과연 구글이 어떻게 대응을 할지 궁금하네요. 개인적으로 MS의 전략이 통할 것 같습니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT 톺아보기 깊은바다 2018-12-17 26395
딥러닝을 사용한 챗봇 개발방법 정리 file 깊은바다 2018-02-03 25469
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA file 깊은바다 2022-04-05 12127
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9781
글쓰기 보조 서비스 JasperAI, ChatGPT 때문에 어려움 직면 깊은바다 2023-03-01 9693
딥러닝 RNN으로 구현한 챗봇 깊은바다 2017-08-01 8136
문장을 학습하는 딥러닝 RNN의 Seq2Seq 모델 설명 file 깊은바다 2017-09-15 7327
챗봇에 딥러닝 학습을 적용하기 어려운 이유 file 깊은바다 2018-03-23 6641
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6372
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6172
SKT가 공개한 한글 GPT2 - KoGPT2 깊은바다 2020-02-02 5297
챗봇에서 유사한 문장 자동인식 방법 file 깊은바다 2018-04-27 5154
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4672
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 4299
인라이플의 한글 BERT 대형모델 깊은바다 2020-05-18 4246