레플리
글 수 283

GPT-3.5와 하이퍼클로바의 한국어 대결

조회 수 319 추천 수 0 2023.05.12 18:16:21


346455697_1235464857169889_3285439961845694762_n.jpg

https://github.com/HAETAE-project/HAE-TAE-Catalog

 

 

 

한국어 어휘, 독해, 문법, 지식 총 4가지 영역에서 GPT-3.5와 하이퍼클로바의 성능을 비교했다고 합니다. 독해에서는 GPT-3.5가 60.13%, 하이퍼클로바가 54.5%로 약간 앞섭니다. 하지만 나머지에서는 모두 하이퍼클로바가 우위에 있네요. 특히 역사에서는 50% 이상 차이가 납니다. 역시 한국 콘텐츠에 대한 학습 데이터가 중요한 것 같습니다.

 

 

List of Articles
제목 글쓴이 날짜 조회 수sort
BERT 톺아보기 깊은바다 2018-12-17 26395
딥러닝을 사용한 챗봇 개발방법 정리 file 깊은바다 2018-02-03 25442
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA file 깊은바다 2022-04-05 12080
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9716
글쓰기 보조 서비스 JasperAI, ChatGPT 때문에 어려움 직면 깊은바다 2023-03-01 9693
딥러닝 RNN으로 구현한 챗봇 깊은바다 2017-08-01 8135
문장을 학습하는 딥러닝 RNN의 Seq2Seq 모델 설명 file 깊은바다 2017-09-15 7327
챗봇에 딥러닝 학습을 적용하기 어려운 이유 file 깊은바다 2018-03-23 6641
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6362
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6172
SKT가 공개한 한글 GPT2 - KoGPT2 깊은바다 2020-02-02 5297
챗봇에서 유사한 문장 자동인식 방법 file 깊은바다 2018-04-27 5152
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4669
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 4299
인라이플의 한글 BERT 대형모델 깊은바다 2020-05-18 4246