- AI Dev - 인공지능 개발자 모임
- 정보공유
- 챗봇 딥러닝
글 수 293
GPT2는 최근 OpenAI에서 발표한 딥러닝 모델입니다. 기본적으로 언어 모델인데, 입력한 문장에서 바로 다음 글자 또는 단어를 예측합니다. 그래서 계속 연속된 글을 작성할 수 있습니다.
예상보다 너무 성능이 좋아서 페이크 뉴스 같은 곳에 잘못 사용될 우려가 있을 정도입니다. 그래서 정확한 동작 방식은 공개하지 않았습니다. 현재도 117M와 345M만 사용할 수 있고, 762M와 1542M 버전은 릴리즈하지 않았습니다.
이런 GPT2를 코랩에서 간단하게 설치해서 돌려볼 수 있는 코드입니다. Unconditional sample generation은 랜덤하게 문장을 생성합니다. 반대로 Conditional sample generation은 인터랙티브하게 동작합니다. 파일을 실행하면 'Model prompt'라고 뜨는데, 여기서 원하는 문장을 입력합니다. 그러면 그 문장에 이어지는 샘플을 출력해서 보여줍니다.
117M 버전뿐만 아니라 얼마 전에 공개된 345M 버전도 테스트해볼 수 있습니다. 저도 해봤는데 345M 모델도 상당히 높은 품질의 텍스트를 만들어냅니다. 1542M 모델은 이거보다 5배 성능이 더 좋을지 궁금하네요.