레플리
글 수 284

GLUE: 벤치마크를 통해 BERT 이해하기

조회 수 1737 추천 수 0 2019.11.19 02:00:58


 

https://huffon.github.io/2019/11/16/glue/

 

 

 

GLUE(General Language Understanding Evaluation)에 대해 매우 쉽게 설명한 글입니다. GLUE는 이름 그대로 범용적인 자연어처리 모델을 평가하는 방법입니다. 하나가 아니라 여러가지 태스크들을 수행하고, 그 값을 취합하여 최종 점수를 얻습니다. BERT 같은 사전훈련 모델의 성능을 측정하는데 많이 사용됩니다.

 

최근에는 GLUE의 휴먼 베이스라인을 넘은 모델들이 많이 개발되었습니다. 그래서 지난 8월에 더 어려운 문제들로 구성된 SuperGLUE가 새롭게 공개되기도 했습니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4113
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3652
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3565
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3524
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3337
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3292
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3269
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3170
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3139
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022