글 수 245


오늘은 날씨가 "좋네요"

 

https://github.com/Beomi/KcBERT

 

 

 

SKT의 KoBERT는 위키 같은 정제된 텍스트로 사전훈련을 하였습니다. 반면에 KcBERT(Korean comments BERT)는 네이버 뉴스의 댓글을 학습했다고 합니다. 그래서 신조어나 축약어, 이모지 같은 구어체에 최적화되어 있습니다. 챗봇을 만들 때 더 적합한 모델이 아닐까합니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
GPT3 튜링 테스트 깊은바다 2020-07-23 640
사람의 말로 표현하는 페이지(PAIGE) - 자연어생성 깊은바다 2018-08-04 647
GPT가 스스로 계획을 세워서 실행한다면 - AutoGPT와 LangChain file 깊은바다 2023-04-18 651
카카오미니의 명령어 분류 방법 - GloVe와 CNN 사용 깊은바다 2018-05-07 656
GPT-3를 헬스케어 서비스에 적용했을 때의 문제점들 깊은바다 2020-11-04 660
딥러닝 자연어처리 강의 - Natural Language Processing with PyTorch 깊은바다 2019-07-06 666
ChatGPT와 유사한 서비스 - Chatsonic file 깊은바다 2023-01-09 669
워드 임베딩에 대한 아주 쉬운 설명 - The Illustrated Word2vec 깊은바다 2019-04-09 674
문장을 벡터로 변환하는 방법들 깊은바다 2021-09-16 679
HyperCLOVA로 만드는 캐릭터 챗봇 file 깊은바다 2021-11-26 693
7B의 Alpaca가 175B의 GPT-3.5와 동급의 성능을 보임 file 깊은바다 2023-03-14 693
GPT3가 상식을 가지고 있을까 깊은바다 2020-07-24 714
ChatGPT의 가장 큰 특징인 in-context learning file 깊은바다 2023-02-21 733
GPT3로 하는 리액트 프로그래밍 file 깊은바다 2020-07-19 745
러시아의 구글 얀덱스, 100B 초거대모델 무료 공개 깊은바다 2022-06-26 756