레플리
글 수 283


 

https://jeinalog.tistory.com/entry/AI-x-Bookathon-%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5%EC%9D%84-%EC%88%98%ED%95%84-%EC%9E%91%EA%B0%80%EB%A1%9C-%ED%95%99%EC%8A%B5%EC%8B%9C%EC%BC%9C%EB%B3%B4%EC%9E%90

 

 

 

GPT2를 사용해서 글쓰기를 하는 대회가 열렸습니다. 거기서 대상을 받은 팀원이 어떤 과정을 통해 구현했는지 정리한 글입니다. GPT2(Generative Pre-Training)는 OpenAI에서 만들었습니다. 이름 그대로 사전훈련 기반의 생성 모델입니다.

 

라벨이 없는 코퍼스 데이터로 미리 자기지도학습을 합니다. 그다음 모델에 문장을 입력하고 돌리면 거기에 연속되는 다음 문장을 출력합니다. 이렇게 계속 반복하면 무한히 글을 작성하게 됩니다. 전체 소스코드도 공개되어 있으니 관심있는 분들은 참고하시기 바랍니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4113
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3651
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3565
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3521
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3337
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3292
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3269
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3170
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3138
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022