레플리
글 수 283

LLM의 시대에도 자연어처리를 배워야할까

조회 수 316 추천 수 0 2023.05.29 01:32:01


지난 주 금융연수원에서 5일 코스의 자연어처리 강의를 했습니다. 올해로 3년째인데요. 작년 및 재작년과의 가장 큰 차이점은 역시 ChatGPT였습니다. 각 주제를 다룰 때마다 이 작업을 ChatGPT로도 할 수 있음을 보여줬습니다.

 

예를 들어, 개체명인식은 챗봇을 만드는데 가장 중요한 기능 중 하나입니다. 문장에서 핵심적인 항목을 뽑아내는 기법입니다. 보통 BIO 태그를 사용하는데, 각 토큰들이 어느 태그에 속하는지 분류합니다.

 

버락(B-사람) 오바마(B-I) 는(O) 44대(B-숫자) 미국(B-국가) 대통령(O) 이다(O)

 

B(Begin)는 개체의 시작, I(Inside)는 이어지는 개체, O(Outside)는 개체가 아닌 것을 나타냅니다. 보통 LSTM이나 BERT 같은 모델을 주로 사용하는데, BIO가 태깅된 데이터셋을 학습합니다. 하지만 ChatGPT에게 '다음 문장을 BIO 태그로 만들어줘'라고만 해도 매우 정확하게 정답을 생성합니다.

 

 

 

아직은 개체명인식에 ChatGPT 보다는 BERT를 쓰는데 좋습니다. 속도나 비용면에서 더 유리하고 정확도 역시 나쁘지 않습니다. 그러나 앞으로 LLM의 성능이 훨씬 높아지고 가격이 충분히 낮아진다면 그때는 어떨까요. 자연어처리의 대부분의 기능들이 개별적인 모델보다는 LLM 하나로 통일될 가능성이 높습니다. 어쩌면 개체명인식 자체가 사라진 기술이 될 수도 있죠.

 

그렇다면 자연어처리를 공부하는게 어떤 의미가 있을지 의문이 듭니다. 논문을 쓰거나 LLM을 직접 개발하는 사람들을 제외하고는 굳이 힘들게 배울 필요가 없습니다. 물론 이론적인 지식이 있다면 LLM을 적용하는데 더 유리하긴 합니다. 자료구조나 알고리즘을 배운 프로그래머처럼요. 아무튼 요즘 이런저런 생각이 많아지는 시기입니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT 톺아보기 깊은바다 2018-12-17 26395
딥러닝을 사용한 챗봇 개발방법 정리 file 깊은바다 2018-02-03 25440
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA file 깊은바다 2022-04-05 12074
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9700
글쓰기 보조 서비스 JasperAI, ChatGPT 때문에 어려움 직면 깊은바다 2023-03-01 9693
딥러닝 RNN으로 구현한 챗봇 깊은바다 2017-08-01 8135
문장을 학습하는 딥러닝 RNN의 Seq2Seq 모델 설명 file 깊은바다 2017-09-15 7327
챗봇에 딥러닝 학습을 적용하기 어려운 이유 file 깊은바다 2018-03-23 6641
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6358
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6172
SKT가 공개한 한글 GPT2 - KoGPT2 깊은바다 2020-02-02 5296
챗봇에서 유사한 문장 자동인식 방법 file 깊은바다 2018-04-27 5152
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4669
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 4299
인라이플의 한글 BERT 대형모델 깊은바다 2020-05-18 4246