레플리
글 수 284

GPT3 튜링 테스트

조회 수 668 추천 수 0 2020.07.23 12:16:24


https://www.facebook.com/monthly.nlp/posts/288885049210033

 

 

 

GPT3가 얼마나 상식을 가지고 있는지 실험한 글입니다. 비슷하게 대답을 하지만 분명한 한계가 존재합니다. 딥러닝은 사람처럼 세계에 대한 모델을 가지고 있지 않습니다. 단지 통계적으로 확률이 높은 단어를(물론 통계학과는 다르게 학습으로 일반화를 하지만) 선택합니다. 그래서 그럴 듯 하지만 논리적으로 틀린 대답이 많습니다. 이런 한계를 어떻게 극복할지가 앞으로 AGI를 만들 수 있는 관건이 될 거라 생각합니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4113
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3652
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3566
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3525
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3337
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3292
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3269
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3170
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3142
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022