레플리
글 수 281

GLUE: 벤치마크를 통해 BERT 이해하기

조회 수 1735 추천 수 0 2019.11.19 02:00:58


 

https://huffon.github.io/2019/11/16/glue/

 

 

 

GLUE(General Language Understanding Evaluation)에 대해 매우 쉽게 설명한 글입니다. GLUE는 이름 그대로 범용적인 자연어처리 모델을 평가하는 방법입니다. 하나가 아니라 여러가지 태스크들을 수행하고, 그 값을 취합하여 최종 점수를 얻습니다. BERT 같은 사전훈련 모델의 성능을 측정하는데 많이 사용됩니다.

 

최근에는 GLUE의 휴먼 베이스라인을 넘은 모델들이 많이 개발되었습니다. 그래서 지난 8월에 더 어려운 문제들로 구성된 SuperGLUE가 새롭게 공개되기도 했습니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT 톺아보기 깊은바다 2018-12-17 26387
딥러닝을 사용한 챗봇 개발방법 정리 file 깊은바다 2018-02-03 25393
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA file 깊은바다 2022-04-05 11904
글쓰기 보조 서비스 JasperAI, ChatGPT 때문에 어려움 직면 깊은바다 2023-03-01 9692
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9279
딥러닝 RNN으로 구현한 챗봇 깊은바다 2017-08-01 8130
문장을 학습하는 딥러닝 RNN의 Seq2Seq 모델 설명 file 깊은바다 2017-09-15 7326
챗봇에 딥러닝 학습을 적용하기 어려운 이유 file 깊은바다 2018-03-23 6635
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6308
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6162
SKT가 공개한 한글 GPT2 - KoGPT2 깊은바다 2020-02-02 5290
챗봇에서 유사한 문장 자동인식 방법 file 깊은바다 2018-04-27 5135
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4649
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 4294
인라이플의 한글 BERT 대형모델 깊은바다 2020-05-18 4245