레플리
글 수 292

BERT로 토익 문제를 푸는 프로젝트

조회 수 2367 추천 수 0 2019.04.30 16:57:51


K-001.png

 

https://github.com/graykode/toeicbert?fbclid=IwAR2hoCQE02CaR00m-RZCHwQM_kYd1LgxxMSrucYSTtA52ZUhtvq5i_G2tFk

 

 

 

BERT로 토익 문제를 푸는 프로젝트입니다. 따로 토익문제 데이터로 훈련하지 않고, 사전훈련된 모델을 그냥 사용했습니다. 그런데도 70%의 정확도를 보인다고 합니다.

 

BERT는 기본적으로 두 가지 방법으로 학습을 합니다. 하나는 문장의 특정 단어를 마스킹으로 가리고 그 단어를 예측합니다. 두 번째는 두 문장이 입력으로 들어가면 서로 연결되는 의미인지 T/F로 판단합니다.

 

토익 문제를 풀기 위해서는 마스킹 방식의 BertForMaskedLM 모델을 바로 적용할 수 있습니다. 4가지의 예제 단어를 라벨로 하여 각각 모델의 예측값(얼마나 정확한지를 나타내는 loss)를 얻습니다. 그리고 손실오차가 가장 작은 단어를 정답으로 판단합니다.

 

앞으로 딥러닝 자연어처리를 기반으로 한 재미있는 프로젝트들이 더 많아질 것 같습니다.

List of Articles
제목 글쓴이 날짜 조회 수
딥러닝을 사용하여 의도 및 엔티티를 파악하는 챗봇 소스코드 file 깊은바다 2019-06-25 2387
가짜뉴스를 생성 또는 판별하는 딥러닝 모델 - Grover 깊은바다 2019-06-01 1007
GPT2를 Colab에서 테스트할 수 있는 코드 깊은바다 2019-05-21 1865
인간의 언어를 이해하는 기계, NLU 깊은바다 2019-05-17 898
Jay Alammar의 트랜스포머 한글 번역글 깊은바다 2019-05-09 1153
BERT로 토익 문제를 푸는 프로젝트 file 깊은바다 2019-04-30 2367
워드 임베딩에 대한 아주 쉬운 설명 - The Illustrated Word2vec 깊은바다 2019-04-09 761
대화 인공지능 대회 - ConvAI file 깊은바다 2019-03-25 678
문장의 유사성을 예측하고 평가하는 AI - 카카오 심슨 깊은바다 2019-03-20 1517
OpenAI Transformer GPT2로 만든 언어 모델 깊은바다 2019-02-17 3025
텐서플로에서 사전 훈련된 임베딩을 사용하는 예제 깊은바다 2019-02-02 523
목적지향 대화 학습 - Learning End-to-End Goal-Oriented Dialog file 깊은바다 2019-02-02 1641
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6299
Word2Vec의 학습 방식 깊은바다 2019-01-17 947
Word2Vec 테스트 사이트 file 깊은바다 2019-01-13 1309