레플리
글 수 282

GPT-2를 사용한 텍스트 압축 기법

조회 수 473 추천 수 0 2021.02.19 15:06:49


K-001.png

 

https://gpc.dle.pw/

 

 

 

GPT-2를 텍스트 압축에 사용했다고 합니다. 언어모델은 앞의 문장에서 다음에 나올 단어를 확률로 예측합니다. 이 정보를 산술부호화라는 기법을 통해 압축했습니다. 좀 더 기술적인 내용은 웹페이지의 설명을 참조 바랍니다.

 

List of Articles
제목 글쓴이 날짜 조회 수
클로바X의 사용량 제한 - QPM과 TPM 깊은바다 2024-04-01 97
Pi를 만든 Inflection AI, MS로 대거 이직한 이유 깊은바다 2024-03-25 110
LLaMA나 Mistral이 계속 무료로 유지될 수 있을까 깊은바다 2024-03-05 237
GPT-3.5와 클로바X 가격 비교 file 깊은바다 2024-02-25 272
OpenAI, 성능은 높아지고 가격은 싸진 새로운 모델 공개 file 깊은바다 2024-01-26 324
AI 휴대용 기기 R1을 만든 Rabbit의 대표 Jesse Lyu 깊은바다 2024-01-12 249
화면을 보고 스마트폰 앱 사용방법을 배우는 모델 - AppAgent file 깊은바다 2024-01-08 300
LLM의 새로운 기법 - Merge와 DPO file 깊은바다 2024-01-02 1144
업스테이지 SOLAR 10.7B에서 사용한 DUS 모델 확장 방법 file 깊은바다 2023-12-27 455
죽은 아들의 AI 아바타를 만든 중국의 부모 file 깊은바다 2023-12-21 180
Private sLLM - 어떻게 만들고 어떻게 배포할까? file 깊은바다 2023-12-18 359
GPT-4가 내 여자친구보다 나를 더 잘 알까? file 깊은바다 2023-12-12 166
FSM과 생성 에이전트의 차이점 깊은바다 2023-11-22 185
RAG를 사용한 페르소나 챗봇 - ChatHaruhi file 깊은바다 2023-10-17 708
LLM Multi Agent: Customer Service를 기깔나게 자동화하는 방법 file [1] 깊은바다 2023-10-09 645