레플리
글 수 295


K-001.png

 

https://talktotransformer.com/

 

 

 

GPT2를 테스트해볼 수 있는 사이트입니다. 나온지는 오래되었는데요. 지금은 가장 큰 사이즈인 1.5B 모델로 동작합니다. 문장을 입력하고 버튼을 누르면 이어지는 텍스트를 생성합니다.

 

BTS에 대한 글을 만들어보았는데 그럴듯한 내용이 나왔습니다. 다만 구체적인 사실은 실제와 조금씩 달랐습니다. 아마 관련된 데이터가 적어서 그런 것 같습니다. 또한 문장의 구조는 맞지만 의미가 틀리는 경우가 많이 발생하기도 합니다. GPT2의 한계라고 생각합니다.

 

List of Articles
제목 글쓴이 날짜 조회 수
GPT-2를 사용한 텍스트 압축 기법 file 깊은바다 2021-02-19 532
딥러닝 자연어처리 라이브러리 - Pororo file 깊은바다 2021-02-03 2120
스캐터랩의 오픈도메인 챗봇 루다 육아일기 - 모델의 구조 및 동작방식 file 깊은바다 2020-12-30 1430
일상대화 챗봇 레플리카(Replika)의 구현 방식 file 깊은바다 2020-12-22 1659
좋은 응답을 골라내는 모델 만들기 - 핑퐁의 답변매칭 알고리즘 깊은바다 2020-12-10 611
GPT-3를 헬스케어 서비스에 적용했을 때의 문제점들 깊은바다 2020-11-04 746
스캐터랩의 핑퐁팀, 새로운 생성 모델 챗봇 데모 공개 깊은바다 2020-11-02 933
카카오미니의 명령어 분류 방법 깊은바다 2020-10-23 286
딥러닝으로 동네생활 게시글 필터링하기 깊은바다 2020-10-06 441
KoNLPy를 이용하여 Huggingface Transformers 학습하기 깊은바다 2020-09-20 1629
GPT-3 패러다임을 바꿀 미친 성능의 인공지능 등장 및 활용 사례 10가지 깊은바다 2020-09-14 838
GPT3 유료화 가격 공개 file 깊은바다 2020-09-04 1781
GPT-3의 다섯 가지 한계 깊은바다 2020-08-23 1104
그림으로 아주 쉽게 설명한, The Illustrated GPT-2 깊은바다 2020-08-15 2929
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3601