레플리
글 수 283

GPT-2를 사용한 텍스트 압축 기법

조회 수 473 추천 수 0 2021.02.19 15:06:49


K-001.png

 

https://gpc.dle.pw/

 

 

 

GPT-2를 텍스트 압축에 사용했다고 합니다. 언어모델은 앞의 문장에서 다음에 나올 단어를 확률로 예측합니다. 이 정보를 산술부호화라는 기법을 통해 압축했습니다. 좀 더 기술적인 내용은 웹페이지의 설명을 참조 바랍니다.

 

List of Articles
제목 글쓴이 날짜 조회 수sort
내가 AI를 직접 가르치고 키우는 반려지능의 시대 file 깊은바다 2023-05-31 975
7B의 Alpaca가 175B의 GPT-3.5와 동급의 성능을 보임 file 깊은바다 2023-03-14 978
프로그램을 작성하는 딥마인드의 알파코드 file 깊은바다 2022-02-04 1005
페르소나에 따라 대화를 하는 딥러닝 챗봇 by Hugging Face 깊은바다 2020-03-06 1008
딥러닝과 자연어처리의 집중 메커니즘 깊은바다 2018-09-08 1019
딥러닝 기반 자연어처리 기법의 최근 연구 동향 [2] 깊은바다 2017-12-17 1020
Meme 자동 생성기 깊은바다 2020-05-11 1023
추천시스템이 word2vec을 만났을때 깊은바다 2018-08-22 1032
단어를 벡터로 변환하는 Word2Vec 깊은바다 2017-05-04 1039
GPT-3의 다섯 가지 한계 깊은바다 2020-08-23 1053
Seq2Seq와 어텐션 기법을 애니메이션으로 쉽게 설명한 글 깊은바다 2018-10-12 1055
Jay Alammar의 트랜스포머 한글 번역글 깊은바다 2019-05-09 1065
한국어 LLM 민주화의 시작 KoAlpaca file 깊은바다 2023-07-17 1066
딥러닝으로 욕설 탐지하기 file [2] 깊은바다 2018-05-04 1073
Dialog-BERT: 100억건의 메신저대화로 일상대화 인공지능 서비스하기 file [1] 깊은바다 2020-04-19 1093