레플리
글 수 284

GPT-3의 다섯 가지 한계

조회 수 1053 추천 수 0 2020.08.23 20:38:29


 

https://blog.pingpong.us/gpt3-limit/

 

 

 

"GPT-3가 생각을 하는 걸까요 아니면 통계적 예측을 하는 걸까요? 둘 중 하나에 속한다는 걸 어떻게 증명할까요? 둘이 정말 큰 차이가 있거나 확실히 구분되는 걸까요? 과연 ‘생각’을 한다는 건 정확히 무슨 의미일까요? 이러한 질문에 확실한 정답을 말해줄 수 있는 사람은 없을 겁니다."

 

 

 

GPT3의 한계에 대해서 잘 정리한 글입니다. 저도 위의 의견에 대해서 상당히 공감합니다. GPT3가 단순히 단어의 빈도수만 가지고 문장을 예측하지는 않는 것 같습니다. 문맥을 파악하고 전체적인 의미를 이해하기 때문에, 그만큼 높은 수준의 글들을 생성할 수 있습니다.

 

어떤 사람들은 딥러닝을 단순히 통계적 예측이라고 하기도 합니다. 개인적으로는 신경망과 통계는 큰 차이가 있다고 봅니다. 보통 통계라고 하면 수식으로 명확하게 설명이 가능합니다. 반면에 신경망은 왜 그런 결과가 나오는지 이론적으로 증명이 어렵습니다. 물론 우리가 알지 못할 뿐, 신경망에도 내부적으로 어떤 공식이 있을지도 모릅니다. 하지만 복잡계(complex system)처럼 아직 인간의 능력으로는 벅찬 문제입니다.

 

언젠가는 그 비밀이 밝혀지게 될까요. 하지만 그렇지 않더라도 딥러닝이 가진 잠재력은 무한하다고 생각합니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4113
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3652
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3566
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3532
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3338
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3293
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3273
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3171
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3154
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3023