레플리
글 수 283

카카오미니의 명령어 분류 방법

조회 수 260 추천 수 0 2020.10.23 18:04:17


 

https://tech.kakaoenterprise.com/43?category=882488

 

 

 

카카오미니에서 명령어의 의도를 분석하는 방법을 다룬 글입니다. 우선 문장을 벡터로 변환합니다. 그다음 딥러닝 CNN 모델을 사용하여 특정 카테고리로 분류한다고 합니다.

 

 

 

워드 임베딩은 GloVe를 기반으로 합니다. 여기에 몇 가지 추가 벡터를 삽입하였습니다.

 

첫째, Local Word 벡터입니다. 같은 단어라도 문맥에 따라 의미가 달라집니다. 예를 들어, 카카오는 회사의 명칭, 건물 장소, 음식 등 다양한 뜻을 내포합니다. 이런 의미 벡터를 따로 Glove 벡터에 더합니다.

 

둘째, 엔티티 벡터입니다. '아이유 좋은 날'이란 문장에서, '아이유'는 인물이고 '좋은 날'은 곡명이란 개체입니다. 임베딩에 엔티티 정보를 같이 넣어서 단어의 뜻을 더 명확히 합니다.

 

셋째, 품사정보인 POS 벡터입니다. 명사, 동사, 형용사 같은 품사 벡터를 추가해서 문장의 의미를 더욱 잘 파악하도록 하였습니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT를 이용한 챗봇 구현 file 깊은바다 2019-01-07 4110
GPT-3 데모 사이트 - gpt3demo.com 깊은바다 2021-07-13 3707
한국어 자연어처리를 위한 딥러닝 깊은바다 2018-02-14 3651
하이퍼클로바 활용예 및 사용가이드 file 깊은바다 2022-03-05 3570
한국어로 대화하는 생성 모델의 학습을 위한 여정 - Transformer와 GPT2 깊은바다 2020-08-13 3565
KoGPT2를 파인튜닝하여 만든 챗봇 깊은바다 2020-06-23 3519
구글의 딥러닝 대화 알고리즘 깊은바다 2016-03-25 3356
여러 한국어 GPT 모델들 file [1] 봄눈 2021-11-21 3335
네이버 영화 리뷰 감정 분석 깊은바다 2018-09-07 3292
욕설을 찾는 BERT 모델 - Purifier 깊은바다 2019-08-28 3267
딥러닝으로 챗봇 만들기 깊은바다 2017-05-03 3173
네이버의 초거대모델인 하이퍼클로바 사용 후기 깊은바다 2022-02-14 3170
6B 파라미터의 GPT-J_6B 오픈소스 모델 깊은바다 2021-07-01 3126
케라스로 만든 한글 Seq2Seq 챗봇 소스코드 깊은바다 2019-07-13 3091
구글의 Transformer 신경망 모델 [2] 깊은바다 2018-10-13 3022