레플리
글 수 293

GLUE: 벤치마크를 통해 BERT 이해하기

조회 수 1793 추천 수 0 2019.11.19 02:00:58


 

https://huffon.github.io/2019/11/16/glue/

 

 

 

GLUE(General Language Understanding Evaluation)에 대해 매우 쉽게 설명한 글입니다. GLUE는 이름 그대로 범용적인 자연어처리 모델을 평가하는 방법입니다. 하나가 아니라 여러가지 태스크들을 수행하고, 그 값을 취합하여 최종 점수를 얻습니다. BERT 같은 사전훈련 모델의 성능을 측정하는데 많이 사용됩니다.

 

최근에는 GLUE의 휴먼 베이스라인을 넘은 모델들이 많이 개발되었습니다. 그래서 지난 8월에 더 어려운 문제들로 구성된 SuperGLUE가 새롭게 공개되기도 했습니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4781
GPT2로 만든 텍스트 어드벤처 게임 깊은바다 2019-12-09 2070
인공지능과 함께 글쓰기! 창의 AI x Bookathon 대회 - GPT2 깊은바다 2019-11-30 629
GLUE: 벤치마크를 통해 BERT 이해하기 깊은바다 2019-11-19 1793
GPT2의 1.5B 모델 공개 깊은바다 2019-11-08 620
GPT2로 글을 작성하는 사이트 - StoryAI file 깊은바다 2019-10-11 1638
딥러닝 기반 자연어 언어모델 BERT - Colab 실습 코드 포함 file 깊은바다 2019-09-02 1250
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3473
딥러닝을 활용한 뉴스 메타 태깅 깊은바다 2019-08-26 428
100억건의 카카오톡 데이터로 
똑똑한 일상대화 인공지능 만들기 - 핑퐁 멀티턴 file 깊은바다 2019-08-20 1791
새로운 자연어처리 벤치마크 - SuperGLUE 깊은바다 2019-08-15 776
딥러닝을 사용하여 심심이의 나쁜말 필터링 기능 구현 깊은바다 2019-08-14 971
위키에서 질문의 답을 찾는 딥러닝 모델, 페이스북의 DrQA file 깊은바다 2019-08-03 967
페이스북이 발표한 사전훈련 언어모델 RoBERTa file 깊은바다 2019-07-30 1473
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3200