레플리
글 수 283

GPT-2를 사용한 텍스트 압축 기법

조회 수 473 추천 수 0 2021.02.19 15:06:49


K-001.png

 

https://gpc.dle.pw/

 

 

 

GPT-2를 텍스트 압축에 사용했다고 합니다. 언어모델은 앞의 문장에서 다음에 나올 단어를 확률로 예측합니다. 이 정보를 산술부호화라는 기법을 통해 압축했습니다. 좀 더 기술적인 내용은 웹페이지의 설명을 참조 바랍니다.

 

List of Articles
제목 글쓴이 날짜sort 조회 수
KoNLPy를 이용하여 Huggingface Transformers 학습하기 깊은바다 2020-09-20 1571
딥러닝으로 동네생활 게시글 필터링하기 깊은바다 2020-10-06 398
카카오미니의 명령어 분류 방법 깊은바다 2020-10-23 260
스캐터랩의 핑퐁팀, 새로운 생성 모델 챗봇 데모 공개 깊은바다 2020-11-02 898
GPT-3를 헬스케어 서비스에 적용했을 때의 문제점들 깊은바다 2020-11-04 707
좋은 응답을 골라내는 모델 만들기 - 핑퐁의 답변매칭 알고리즘 깊은바다 2020-12-10 553
일상대화 챗봇 레플리카(Replika)의 구현 방식 file 깊은바다 2020-12-22 1508
스캐터랩의 오픈도메인 챗봇 루다 육아일기 - 모델의 구조 및 동작방식 file 깊은바다 2020-12-30 1191
딥러닝 자연어처리 라이브러리 - Pororo file 깊은바다 2021-02-03 1529
GPT-2를 사용한 텍스트 압축 기법 file 깊은바다 2021-02-19 473
GPT-3로 NPC와 대화를 할 수 있는 게임 시뮬레이터 깊은바다 2021-02-22 1463
이성에게 말을 거는 작업멘트를 GPT-3로 생성 file 깊은바다 2021-03-24 587
이루다 같은 챗봇은 어떤 원리로 작동하는 걸까? 깊은바다 2021-04-03 1691
KoGPT2 v2.0 공개 깊은바다 2021-05-03 1589
텍스트 스타일을 바꾸는 딥러닝 기술 깊은바다 2021-06-01 436