레플리
글 수 283

GPT-2를 사용한 텍스트 압축 기법

조회 수 473 추천 수 0 2021.02.19 15:06:49


K-001.png

 

https://gpc.dle.pw/

 

 

 

GPT-2를 텍스트 압축에 사용했다고 합니다. 언어모델은 앞의 문장에서 다음에 나올 단어를 확률로 예측합니다. 이 정보를 산술부호화라는 기법을 통해 압축했습니다. 좀 더 기술적인 내용은 웹페이지의 설명을 참조 바랍니다.

 

List of Articles
제목 글쓴이 날짜 조회 수sort
OpenAI Transformer GPT2로 만든 언어 모델 깊은바다 2019-02-17 2980
카카오 형태소 분석기(khaiii) 설치와 은전한닢(mecab) 형태소 분석기 비교 깊은바다 2018-12-02 2828
구글 딥러닝 자연어 처리 오픈소스 SyntaxNet file 깊은바다 2017-12-28 2784
그림으로 아주 쉽게 설명한, The Illustrated GPT-2 깊은바다 2020-08-15 2777
추론이 가능한 딥러닝인 Relational Networks [2] 깊은바다 2017-06-11 2740
Python과 Tensorflow를 활용한 AI Chatbot 개발 및 실무 적용 깊은바다 2017-08-25 2582
GPT-3를 강화학습으로 업그레이드한 InstructGPT file 깊은바다 2022-01-30 2566
오픈소스 한국어 딥러닝 챗봇 - Kochat 깊은바다 2020-07-03 2501
딥러닝을 사용하여 의도 및 엔티티를 파악하는 챗봇 소스코드 file 깊은바다 2019-06-25 2329
개체명인식 with Naver 깊은바다 2018-11-20 2320
BERT로 토익 문제를 푸는 프로젝트 file 깊은바다 2019-04-30 2281
GPT2에서 문장 생성 시 단어를 확률에 따라 선택하는 방법 깊은바다 2020-07-16 2203
소설을 생성하는 NarrativeKoGPT2 file 깊은바다 2020-06-19 2195
GPT2로 만든 텍스트 어드벤처 게임 깊은바다 2019-12-09 2010
딥러닝으로 욕설 탐지하기 깊은바다 2018-08-06 1881