레플리
글 수 295

GPT-2를 사용한 텍스트 압축 기법

조회 수 536 추천 수 0 2021.02.19 15:06:49


K-001.png

 

https://gpc.dle.pw/

 

 

 

GPT-2를 텍스트 압축에 사용했다고 합니다. 언어모델은 앞의 문장에서 다음에 나올 단어를 확률로 예측합니다. 이 정보를 산술부호화라는 기법을 통해 압축했습니다. 좀 더 기술적인 내용은 웹페이지의 설명을 참조 바랍니다.

 

List of Articles
제목 글쓴이 날짜 조회 수
MS 직원의 GPT 기반 콜센터 챗봇 사용기 깊은바다 2023-02-18 195
구글의 초거대AI LaMDA, 과연 의식을 가지고 있을까 깊은바다 2023-02-17 145
ChatGPT와 대화 인공지능의 미래 깊은바다 2023-02-17 174
하이퍼클로바 기반의 심리상담 챗봇 개발 경험 깊은바다 2023-02-17 281
ChatGPT 프롬프트 엔지니어링 - 다양한 말투로 대답하기 file 깊은바다 2023-02-17 1095
ChatGPT, 타임지 표지 장식 깊은바다 2023-02-17 331
ChatGPT의 3가지 핵심 특징 깊은바다 2023-02-16 232
ChatGPT가 Stack Overflow를 대체할까 깊은바다 2023-02-16 175
테드 창, ChatGPT는 엄청나게 효율이 높은 손실 압축임 깊은바다 2023-02-13 318
MS의 목적은 ChatGPT로 구글이 장악한 검색시장 자체를 무너뜨리는 것 깊은바다 2023-02-11 190
ChatGPT와 통합된 Bing 사용후기 영상 깊은바다 2023-02-10 216
MS, Bing과 Edge에 ChatGPT 통합 file 깊은바다 2023-02-08 204
구글, ChatGPT의 라이벌인 Bard 공개 file 깊은바다 2023-02-07 212
네이버의 생성AI는 챗GPT가 안 부럽다 - 심층 인터뷰 기사 깊은바다 2023-02-03 265
ChatGPT 2달만에 누적 사용자 1억명 돌파 깊은바다 2023-02-03 162