레플리
글 수 284


http://blog.ncsoft.com/?p=40260&fbclid=IwAR0aDUEEIx2Jk8nt17ucD10AZAreRulKEGaFrzxbA3v6p3-w1GiMiNWBkKg

 

 

 

Multi-channel CNN을 이용한 한국어 감성분석에 대한 글입니다. 구어체 같이 사전에 없는 단어가 많이 나올 경우 자연어처리의 정확도가 많이 떨어집니다. 이를 위해서 다음과 같이 3개의 입력 채널을 사용하고 그 결과를 합쳐서 분류를 하였습니다.

 

1. 형태소 단위
-> 엘지, 파이팅, ...

 

2. 음절 단위
-> 엘, 지, 파, 이, 팅, ...

 

3. 자소 단위
-> ㅇ, ㅔ, ㄹ, ㅈ, ㅣ, ...

 

 

 

만약 사전에 없는 단어라 형태소분석이 안되어도 음절이나 자소를 통해 의미를 파악할 수 있습니다. 실험 결과 각각 분리된 모델보다 3개 채널을 동시에 사용한 모델이 정확도가 더 높다고 합니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4113
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3652
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3566
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3528
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3338
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3293
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3272
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3171
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3149
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022