- AI Dev - 인공지능 개발자 모임
- 정보공유
- 챗봇 딥러닝
글 수 293
자연어처리 벤치마크로 GLUE나 SQuAD가 있습니다. 최근 모델들의 성능이 높아지면서 사람의 수준을 넘어섰는데요. 그래서 SuperGLUE나 SQuAD2.0이 나오기도 했습니다. 하지만 이런 데이터셋들은 정답이 단답형이라는 한계가 있습니다.
얼마 전 TuringAdvice라는 새로운 대회가 생겼습니다. 래딧에서 모은 질문과 대답의 데이터를 사용합니다. 가장 큰 특징은 긴 문장 전체가 정답이라는 것입니다. 이런 장문의 대답은 라벨 문장과 일대일로 비교하며 점수를 매길 수가 없습니다. 그래서 아마존 미케니컬 터크로 사람이 직접 평가를 합니다. 다만 리더보드에 올리기 위해서는 이 비용을 별도로 부담해야 합니다^^;
현재 구글 T5가 1등인데요. 평가척도가 9%로 휴먼 베이스라인 50%에 비해서 매우 낮습니다. 그만큼 도전할만한 대회라고 생각합니다. 아래 사이트에서 Grover 모델로 테스트를 해보실 수 있습니다.
< TuringAdvice >
-> http://rowanzellers.com/advice/