레플리
글 수 283

꼼꼼하고 이해하기 쉬운 ELECTRA 논문 리뷰

조회 수 512 추천 수 0 2020.05.15 01:24:15


 

https://blog.pingpong.us/electra-review

 

 

 

요즘 페이스북의 얀 르쿤이 항상 강조하는게 자기지도학습(self-supervised learning)입니다. 지도학습처럼 라벨이 필요한 것은 마찬가지입니다. 하지만 사람이 아니라 기계가 스스로 만든다는 차이가 있습니다. 이렇게 라벨이 없는 대량의 데이터로 사전훈련을 하고, 라벨을 단 소수의 데이터로 다시 전이학습을 합니다. 그만큼 사람의 노력이 줄어든다는 장점이 있습니다.

 

이미지와 자연어처리에서 자기지도 방법이 약간 비슷하게 흘러가는 것 같습니다. 처음에는 이미지를 격자로 조각내고 빈 칸의 영역을 맞추었습니다. BERT의 마스킹과 유사합니다. 요즘에는 SimCLR 같은 contrastive learning을 이미지 자기지도학습에 사용합니다. 원본 사진과 변형된 사진을 비교하는 방식입니다. ELECTRA 역시 이와 유사합니다. 문장에서 특정 단어들을 마스킹하여 새로 생성한 후에, 원본 단어인지 바뀐 단어인지 판단합니다.

 

새로운 기법들이 빠르게 나오고 있어 따라잡기가 벅차네요^^; 그래도 변화의 시대 한복판에 있다는 사실이 즐겁습니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4110
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3651
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3565
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3519
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3335
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3292
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3267
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3170
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3126
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022