레플리
글 수 284

OpenAI가 ChatGPT를 개발할 수 있었던 이유

조회 수 176 추천 수 0 2023.02.20 16:10:14


A good interview of Steven Pinker about ChatGPT, its potential uses and limitations.

He says, as I do, that LLMs make up stuff, make stupid mistakes, and don't have common sense, because they do not possess world models

 

--------------------------------

 

얼마 전 페이스북의 AI 수장인 얀 르쿤이 위와 같은 글을 남겼습니다. 항상 느끼는 거지만 얀 르쿤은 너무 원론적인 면에 집착하는 것 같습니다. 학자 출신이라서 그렇겠지만 기업의 리더로서는 약점이라 생각합니다. 물론 현재 LLM은 실수가 많고 상식이 부족합니다. 그래도 다양한 분야에서 충분히 유용하게 사용할 수 있습니다.

 

OpenAI의 샘 알트먼은 과거 스타트업을 직접 창업하기도 했고 유명한 VC인 와이콤비네이터의 대표로 일했습니다. 그래서 실제 제품을 만들고 혁신하는 일에 중점을 둡니다. 이미 3년 전부터 GPT-3를 상용화했고 Dalle나 기타 서비스들도 API로 제공하고 있습니다. 그런 노하우들이 쌓여서 ChatGPT가 세상에 나올 수 있었습니다.

 

구글이나 페이스북은 아직 LLM을 내부적으로만 테스트하고 제품으로 출시하지 않았습니다. 물론 대기업으로서 조심스럽긴 하겠지만, 이 격차가 앞으로 계속 벌어질거라 봅니다. 그런 면에서 국내에서는 네이버가 매우 잘하고 있습니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT 톺아보기 깊은바다 2018-12-17 26395
딥러닝을 사용한 챗봇 개발방법 정리 file 깊은바다 2018-02-03 25475
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA file 깊은바다 2022-04-05 12140
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9798
글쓰기 보조 서비스 JasperAI, ChatGPT 때문에 어려움 직면 깊은바다 2023-03-01 9693
딥러닝 RNN으로 구현한 챗봇 깊은바다 2017-08-01 8136
문장을 학습하는 딥러닝 RNN의 Seq2Seq 모델 설명 file 깊은바다 2017-09-15 7327
챗봇에 딥러닝 학습을 적용하기 어려운 이유 file 깊은바다 2018-03-23 6641
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6373
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6172
SKT가 공개한 한글 GPT2 - KoGPT2 깊은바다 2020-02-02 5298
챗봇에서 유사한 문장 자동인식 방법 file 깊은바다 2018-04-27 5154
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4673
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 4299
인라이플의 한글 BERT 대형모델 깊은바다 2020-05-18 4246