레플리
글 수 284


K-002_1.jpg

 

K-003__1.jpg

 

K-003_1.jpg

 

K-004_1.jpg

 

K-005_1.jpg

 

K-006_1.jpg

 

K-007_1.jpg

 

 

 

ChatGPT의 가장 큰 단점은 환각(hallucination)입니다. 자기가 모르는 사실은 적당히 지어내서 얘기합니다. 그래서 언뜻 그럴듯해 보이지만 실제로는 잘못된 정보일 경우가 많습니다.

 

이런 문제를 해결하는 첫 번째 방법은 파인튜닝입니다. 특정 도메인의 새로운 데이터로 추가 학습을 합니다. 초거대AI일 경우 전체 파라미터를 모두 업데이트하기는 어렵습니다. 그래서 P-tuning이나 LoRA 같이 일부 파라미터만 학습하는 방식을 사용합니다. 다만 아직 ChatGPT는 파인튜닝 기능이 없습니다.

 

두 번째 방법은 RAG(Retrieval-Augmented Generation)입니다. LLM에게 미리 질문과 관련된 참고자료를 알려줍니다. 이렇게 하면 환각을 줄이고 보다 정확하게 대답을 생성할 수 있습니다. ChatPDF가 대표적인 예입니다. PDF 문서를 업로드하고 질문을 하면, PDF에서 해당하는 정보를 찾아서 대답을 해줍니다.

 

 

 

RAG를 하기 위해선 먼저 지식베이스를 만들어야 합니다. 위키피디아일 경우 100단어 단위로 잘라서 단락으로 구분합니다. 그리고 벡터로 임베딩한 후 벡터DB에 넣습니다. 질문을 하면 이 문장 역시 임베딩으로 변환하고, 벡터DB에서 가장 유사한 단락을 찾습니다. 검색한 단락과 질문을 같이 프롬프트에 넣고 LLM에 입력하면 대답이 생성됩니다. 논문에서는 Bi-Encoder로 임베딩을 했지만, 요즘은 OpenAI Enbeddings를 주로 씁니다.

 

이런 RAG 기법은 LLM을 당장 기업에서 도입할 수 있는 가장 손쉬운 방법입니다. 이미 관련 스타트업도 상당수 있는 걸로 알고 있습니다. 예전 챗봇 회사들이 SI로 챗봇 만들어주는 것과 비슷합니다. Wecover란 곳에서는 장기기억까지 적용해서 사내 또는 고객대응 LLM 챗봇을 만들어주고 있습니다. 사용자의 프로필 정보나 이전에 했던 말을 기억해서 대답을 하면 더욱 유용해집니다. 이렇게 개인화된 서비스 역시 필수적이 될 것입니다.

 

K-001_1.jpg

 

 

 

< Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks >

https://arxiv.org/abs/2005.11401

 

< 논문 리뷰 >

https://cobslab.com/retrieval%EC%9D%98-%ED%9A%A8%EA%B3.../

 

< Embedding이란 무엇이고, 어떻게 사용하는가? >

https://today-gaze-697915.framer.app/.../what-is...

 

< ChatPDF >

https://www.chatpdf.com/

 

< Wecover >

https://www.wecoverai.com/

 

List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4113
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3652
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3566
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3534
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3338
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3293
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3274
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3171
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3158
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3023