레플리
글 수 283


K-001.png

 

https://talktotransformer.com/

 

 

 

GPT2를 테스트해볼 수 있는 사이트입니다. 나온지는 오래되었는데요. 지금은 가장 큰 사이즈인 1.5B 모델로 동작합니다. 문장을 입력하고 버튼을 누르면 이어지는 텍스트를 생성합니다.

 

BTS에 대한 글을 만들어보았는데 그럴듯한 내용이 나왔습니다. 다만 구체적인 사실은 실제와 조금씩 달랐습니다. 아마 관련된 데이터가 적어서 그런 것 같습니다. 또한 문장의 구조는 맞지만 의미가 틀리는 경우가 많이 발생하기도 합니다. GPT2의 한계라고 생각합니다.

 

List of Articles
제목 글쓴이 날짜sort 조회 수
LLM Multi Agent: Customer Service를 기깔나게 자동화하는 방법 file [1] 깊은바다 2023-10-09 648
사진을 인식할 수 있는 ChatGPT 멀티모달 버전 공개 file 깊은바다 2023-09-26 280
Poe에 추가된 업스테이지의 LLM, Solar-70b file 깊은바다 2023-09-18 440
RAG 아키텍처를 위한 임베딩 모델의 선택에 대해 깊은바다 2023-09-14 521
LLM의 미래는 자율행동과 멀티 에이전트 깊은바다 2023-08-30 300
LLM이 서로 협력하여 프로그램을 개발 - ChatDev file 깊은바다 2023-08-16 751
GPT-4에 CoT 프롬프를 적용하여 2023 수능 국어 1등급 달성 file 깊은바다 2023-08-08 624
LLM의 창발적인 현상인 CoT(Chain of Thouht) 소개 file 깊은바다 2023-07-27 708
RAG 아키텍처의 이해 깊은바다 2023-07-23 1334
GPT-4 세부구조에 대한 정보 유출 깊은바다 2023-07-20 459
Llama 2의 RLHF 구현 방법 깊은바다 2023-07-19 728
한국어 LLM 민주화의 시작 KoAlpaca file 깊은바다 2023-07-17 1061
레포트를 써주는 LLM - GPT Researcher file 깊은바다 2023-07-13 423
LLM 챗봇의 특징 2가지 - RAG와 Function 깊은바다 2023-07-06 1210
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9717