레플리
글 수 283

GPT-2를 사용한 텍스트 압축 기법

조회 수 473 추천 수 0 2021.02.19 15:06:49


K-001.png

 

https://gpc.dle.pw/

 

 

 

GPT-2를 텍스트 압축에 사용했다고 합니다. 언어모델은 앞의 문장에서 다음에 나올 단어를 확률로 예측합니다. 이 정보를 산술부호화라는 기법을 통해 압축했습니다. 좀 더 기술적인 내용은 웹페이지의 설명을 참조 바랍니다.

 

List of Articles
제목 글쓴이 날짜 조회 수sort
ChatGPT 영어회화 깊은바다 2023-03-09 218
카카오브레인 김일두 대표님의 글 - 생성AI가 비즈니스를 어떻게 혁신할까 깊은바다 2023-06-15 218
딥러닝을 이용한 지역 컨텍스트 검색 깊은바다 2018-08-10 222
페이지링크와 ChatGPT 대화를 동시에 지원하는 검색엔진 - You.com 깊은바다 2022-12-27 236
하이퍼클로바 기반의 심리상담 챗봇 개발 경험 깊은바다 2023-02-17 238
테드 창, ChatGPT는 엄청나게 효율이 높은 손실 압축임 깊은바다 2023-02-13 238
LLaMA나 Mistral이 계속 무료로 유지될 수 있을까 깊은바다 2024-03-05 244
GPT-3를 사용하여 코딩을 하는 MS의 파워FX 깊은바다 2021-06-01 249
세콰이어캐피탈에서 전망하는 LLM의 미래 깊은바다 2023-06-19 249
ChatGPT로 폴 그레이엄 에세이 검색해서 대답 file 깊은바다 2023-03-03 251
ChatGPT, 타임지 표지 장식 깊은바다 2023-02-17 255
AI 휴대용 기기 R1을 만든 Rabbit의 대표 Jesse Lyu 깊은바다 2024-01-12 256
카카오미니의 명령어 분류 방법 깊은바다 2020-10-23 260
생성 에이전트를 ChatGPT 프롬프트만으로 구현 file 깊은바다 2023-04-20 264
한국어 초거대AI가 필요한 이유 - 토크나이저와 한국어 콘텐츠 깊은바다 2023-04-17 270