레플리
글 수 293

GPT-2를 사용한 텍스트 압축 기법

조회 수 1146 추천 수 0 2021.02.19 15:06:49


K-001.png

 

https://gpc.dle.pw/

 

 

 

GPT-2를 텍스트 압축에 사용했다고 합니다. 언어모델은 앞의 문장에서 다음에 나올 단어를 확률로 예측합니다. 이 정보를 산술부호화라는 기법을 통해 압축했습니다. 좀 더 기술적인 내용은 웹페이지의 설명을 참조 바랍니다.

 

List of Articles
제목 글쓴이 날짜sort 조회 수
딥러닝으로 동네생활 게시글 필터링하기 깊은바다 2020-10-06 998
카카오미니의 명령어 분류 방법 깊은바다 2020-10-23 905
스캐터랩의 핑퐁팀, 새로운 생성 모델 챗봇 데모 공개 깊은바다 2020-11-02 1449
GPT-3를 헬스케어 서비스에 적용했을 때의 문제점들 깊은바다 2020-11-04 1339
좋은 응답을 골라내는 모델 만들기 - 핑퐁의 답변매칭 알고리즘 깊은바다 2020-12-10 1247
일상대화 챗봇 레플리카(Replika)의 구현 방식 file 깊은바다 2020-12-22 2432
스캐터랩의 오픈도메인 챗봇 루다 육아일기 - 모델의 구조 및 동작방식 file 깊은바다 2020-12-30 2153
딥러닝 자연어처리 라이브러리 - Pororo file 깊은바다 2021-02-03 3032
GPT-2를 사용한 텍스트 압축 기법 file 깊은바다 2021-02-19 1146
GPT-3로 NPC와 대화를 할 수 있는 게임 시뮬레이터 깊은바다 2021-02-22 2093
이성에게 말을 거는 작업멘트를 GPT-3로 생성 file 깊은바다 2021-03-24 1277
이루다 같은 챗봇은 어떤 원리로 작동하는 걸까? 깊은바다 2021-04-03 2457
KoGPT2 v2.0 공개 깊은바다 2021-05-03 2299
텍스트 스타일을 바꾸는 딥러닝 기술 깊은바다 2021-06-01 1093
GPT-3를 사용하여 코딩을 하는 MS의 파워FX 깊은바다 2021-06-01 936