레플리
글 수 283

GPT-2를 사용한 텍스트 압축 기법

조회 수 473 추천 수 0 2021.02.19 15:06:49


K-001.png

 

https://gpc.dle.pw/

 

 

 

GPT-2를 텍스트 압축에 사용했다고 합니다. 언어모델은 앞의 문장에서 다음에 나올 단어를 확률로 예측합니다. 이 정보를 산술부호화라는 기법을 통해 압축했습니다. 좀 더 기술적인 내용은 웹페이지의 설명을 참조 바랍니다.

 

List of Articles
제목 글쓴이 날짜sort 조회 수
구글 듀플렉스에 대한 소개 깊은바다 2018-07-30 183
딥러닝을 이용한 자연어 처리 깊은바다 2018-08-01 523
사람의 말로 표현하는 페이지(PAIGE) - 자연어생성 깊은바다 2018-08-04 660
딥러닝으로 욕설 탐지하기 깊은바다 2018-08-06 1881
딥러닝을 이용한 지역 컨텍스트 검색 깊은바다 2018-08-10 222
추천시스템이 word2vec을 만났을때 깊은바다 2018-08-22 1032
문장의 유사도를 파악하는 구글의 universal-sentence-encoder file 깊은바다 2018-08-29 1594
스탠포드 자연어처리 강의 - The Limits and Future of NLP 깊은바다 2018-08-30 395
소설 쓰는 딥러닝 file 깊은바다 2018-08-31 1388
포자랩스의 작사/작곡 인공지능 file 깊은바다 2018-08-31 641
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3292
딥러닝과 자연어처리의 집중 메커니즘 깊은바다 2018-09-08 1019
딥러닝으로 상식 구축 - Event2Mind 깊은바다 2018-09-14 373
문장을 사진으로 변환하는 StackGAN [1] 깊은바다 2018-09-17 1435
페르소나를 가진 대화 학습 - Personalizing Dialogue Agents file 깊은바다 2018-09-19 618