레플리
글 수 283


하이퍼클로바를 사용해봤습니다. 정말 놀라움 그 자체네요. GPT-3는 영어라서 잘 와닿지 않았는데, 한글로 하니 느낌이 완전히 다릅니다.

 

챗봇을 만들어봤는데 대답 정말 잘합니다. 비밀유지 때문에 자세히 밝힐 수는 없지만 멀티턴은 기본이고요. BTS 멤버나 영화제목 같은 사실도 자연스럽게 문장 내용에 사용합니다.

다만 프롬프트를 잘 설정해야 합니다. 처음에 바로 제로샷으로 했는데 너무 단답이어서 재미가 없었었습니다. 그래서 길고 구체적으로 재미있게 대답한다고 프롬프트를 넣으니 훨씬 품질이 좋아졌습니다.

 

당장 하이퍼클로바를 쓰기에는 가격 때문에 많이 부담이 될텐데요. 일상대화 챗봇 레플리카도 GPT-3로 테스트를 했는데 사용자 반응이 압도적이었습니다. 그래도 결국 자신들이 파인튜닝한 GPT-2를 쓰고 있습니다. 다만 문장 증강이나 개인정보 및 욕설 제거 같은 전처리에는 바로 적용할 수 있을 것 같습니다. 한번만 하면 되니 상대적으로 비용이 적게 드니까요.

 

마음이 좀 착잡하네요. 앞으로 몇년 지나면 가격도 충분히 떨어질 텐데요. 대부분의 자연어처리 모델은 이런 초거대모델을 쓰는게 더 가성비가 높을 것입니다. 지금 모두 클라우드 서버를 쓰는 것처럼요. 과연 모델러는 이제 무얼 해야할지 걱정이네요. 인공지능 API 잘 적용하는 프로그래머가 더 각광 받을지도 모르겠습니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
페이스북이 발표한 사전훈련 언어모델 RoBERTa file 깊은바다 2019-07-30 1429
GPT-4의 특징 정리 file 깊은바다 2023-03-15 1413
GPT-3보다 3배 더 큰 구글의 초거대모델, PaLM file 깊은바다 2022-04-07 1408
소설 쓰는 딥러닝 file 깊은바다 2018-08-31 1388
핑퐁의 리액션 모델 - Dialog-BERT 만들기 깊은바다 2020-01-28 1381
GPT-3, InstructGPT, GPT-3.5, ChatGPT의 차이점 깊은바다 2023-04-05 1381
사전훈련 자연어처리 모델의 발전과정 - The Illustrated BERT, ELMo, and co. 깊은바다 2019-01-01 1379
RNN seq2seq 간단한 대화모델 깊은바다 2018-10-23 1366
교육용 챗봇의 미래!? 구글 람다 (LaMDA) 깊은바다 2022-03-11 1362
구글의 대화기반 초거대모델 LaMDA, 논문 공개 file 깊은바다 2022-02-08 1361
ChatGPT의 가장 큰 특징인 in-context learning file 깊은바다 2023-02-21 1361
RAG 아키텍처의 이해 깊은바다 2023-07-23 1338
딥러닝 자연어처리 튜토리얼 - DLK2NLP [1] 깊은바다 2018-11-24 1221
LLM 챗봇의 특징 2가지 - RAG와 Function 깊은바다 2023-07-06 1215
Word2Vec 테스트 사이트 file 깊은바다 2019-01-13 1199