레플리
글 수 282


오늘은 날씨가 "좋네요"

 

https://github.com/Beomi/KcBERT

 

 

 

SKT의 KoBERT는 위키 같은 정제된 텍스트로 사전훈련을 하였습니다. 반면에 KcBERT(Korean comments BERT)는 네이버 뉴스의 댓글을 학습했다고 합니다. 그래서 신조어나 축약어, 이모지 같은 구어체에 최적화되어 있습니다. 챗봇을 만들 때 더 적합한 모델이 아닐까합니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
텐서플로에서 사전 훈련된 임베딩을 사용하는 예제 깊은바다 2019-02-02 480
썰로 푸는 NLP 깊은바다 2018-10-11 494
카카오의 딥러닝 기반 형태소 분석기 깊은바다 2018-11-30 497
ChatGPT의 오픈소스 버전 - ColossalChat file 깊은바다 2023-03-30 502
ChatGPT는 새로운 검색엔진이 될까 file 깊은바다 2022-12-06 507
검색기반 거대모델인 딥마인드의 RETRO 깊은바다 2021-12-20 511
꼼꼼하고 이해하기 쉬운 ELECTRA 논문 리뷰 깊은바다 2020-05-15 512
딥러닝 학습으로 배우는 대화 인공지능 - 구글 듀플렉스 깊은바다 2018-05-09 515
RAG 아키텍처를 위한 임베딩 모델의 선택에 대해 깊은바다 2023-09-14 515
딥러닝을 이용한 자연어 처리 깊은바다 2018-08-01 523
아카라이브 AI 언어모델 로컬 채널 file 깊은바다 2023-05-23 525
RNN과 Torch로 발라드곡 작사하기 깊은바다 2018-03-23 538
인플루언서의 목소리 클론과 GPT-4로 만든 아바타 서비스 - Caryn.ai 깊은바다 2023-05-11 551
좋은 응답을 골라내는 모델 만들기 - 핑퐁의 답변매칭 알고리즘 깊은바다 2020-12-10 553
GPT2의 1.5B 모델 공개 깊은바다 2019-11-08 554