레플리
글 수 283


K-001.png

 

https://talktotransformer.com/

 

 

 

GPT2를 테스트해볼 수 있는 사이트입니다. 나온지는 오래되었는데요. 지금은 가장 큰 사이즈인 1.5B 모델로 동작합니다. 문장을 입력하고 버튼을 누르면 이어지는 텍스트를 생성합니다.

 

BTS에 대한 글을 만들어보았는데 그럴듯한 내용이 나왔습니다. 다만 구체적인 사실은 실제와 조금씩 달랐습니다. 아마 관련된 데이터가 적어서 그런 것 같습니다. 또한 문장의 구조는 맞지만 의미가 틀리는 경우가 많이 발생하기도 합니다. GPT2의 한계라고 생각합니다.

 

List of Articles
제목 글쓴이 날짜 조회 수sort
BERT 톺아보기 깊은바다 2018-12-17 26395
딥러닝을 사용한 챗봇 개발방법 정리 file 깊은바다 2018-02-03 25454
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA file 깊은바다 2022-04-05 12109
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9748
글쓰기 보조 서비스 JasperAI, ChatGPT 때문에 어려움 직면 깊은바다 2023-03-01 9693
딥러닝 RNN으로 구현한 챗봇 깊은바다 2017-08-01 8135
문장을 학습하는 딥러닝 RNN의 Seq2Seq 모델 설명 file 깊은바다 2017-09-15 7327
챗봇에 딥러닝 학습을 적용하기 어려운 이유 file 깊은바다 2018-03-23 6641
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6366
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6172
SKT가 공개한 한글 GPT2 - KoGPT2 깊은바다 2020-02-02 5297
챗봇에서 유사한 문장 자동인식 방법 file 깊은바다 2018-04-27 5152
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4669
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 4299
인라이플의 한글 BERT 대형모델 깊은바다 2020-05-18 4246