레플리
글 수 282

GPT-2를 사용한 텍스트 압축 기법

조회 수 473 추천 수 0 2021.02.19 15:06:49


K-001.png

 

https://gpc.dle.pw/

 

 

 

GPT-2를 텍스트 압축에 사용했다고 합니다. 언어모델은 앞의 문장에서 다음에 나올 단어를 확률로 예측합니다. 이 정보를 산술부호화라는 기법을 통해 압축했습니다. 좀 더 기술적인 내용은 웹페이지의 설명을 참조 바랍니다.

 

List of Articles
제목 글쓴이 날짜sort 조회 수
ChatGPT plugin와 Autonomous Agent, 그리고 새로운 패러다임의 시작 깊은바다 2023-06-27 204
생성 에이전트의 자율성이 AGI의 핵심 요소 file 깊은바다 2023-06-25 171
WizardLM의 Evol-instruct로 직접 한글 데이터셋을 만든 모델 file 깊은바다 2023-06-19 1107
세콰이어캐피탈에서 전망하는 LLM의 미래 깊은바다 2023-06-19 249
지금 생성AI는 과도기일 뿐 file 깊은바다 2023-06-19 357
카카오브레인 김일두 대표님의 글 - 생성AI가 비즈니스를 어떻게 혁신할까 깊은바다 2023-06-15 218
ChatGPT API에서도 플러그인과 동일한 기능을 - ChatGPT Function file 깊은바다 2023-06-14 335
내가 AI를 직접 가르치고 키우는 반려지능의 시대 file 깊은바다 2023-05-31 931
LLM의 시대에도 자연어처리를 배워야할까 깊은바다 2023-05-29 316
아카라이브 AI 언어모델 로컬 채널 file 깊은바다 2023-05-23 519
Scale entanglement - LLM 연대기 깊은바다 2023-05-21 208
ChatGPT iOS 버전 출시 file 깊은바다 2023-05-19 98
GPT-3.5와 하이퍼클로바의 한국어 대결 file 깊은바다 2023-05-12 318
인플루언서의 목소리 클론과 GPT-4로 만든 아바타 서비스 - Caryn.ai 깊은바다 2023-05-11 549
오픈소스 LLM이 ChatGPT를 대체할 수 있을 깊은바다 2023-05-05 293