레플리
글 수 284

RNN seq2seq 간단한 대화모델

조회 수 1366 추천 수 0 2018.10.23 17:08:12


http://hichoe95.tistory.com/13

 

 

 

PyTorch로 만든 RNN와 Attention 기반의 챗봇입니다. 코드도 중간중간 잘 설명이 되어 있어 어렵지 않게 이해할 수 있습니다. 뒤의 테스트 결과를 보면 띄어쓰기별로 단어 임베딩을 한 것을 볼 수 있습니다. 예를 들어, "나는 너를 사랑해"는 '나는/너를/사랑해'로 단어가 구분됩니다. Github에 올라온 seq2seq 코드를 보면 거의 영문이거나 출력이 한글일 경우 이와 같이 띄어쓰기로 전체를 한 단어라 판별하여 임베딩을 합니다.

 

굴절어인 영어는 뒷부분만 조금씩 바뀌기 때문에 단수/복수/시제 등을 구분하지 않고 통째로 임베딩을 해도 됩니다. 'study/studies/studied/studying' 등의 변화가 있지만 몇개 되지 않아 단어의 수가 크게 늘어나지 않습니다.

 

하지만 한글은 '어간+어미'가 붙는 교착어로 단어의 변화가 매우 심합니다. '너는/너를/너에게/너만/...' 등 수많은 어미로 파생합니다. 반면 영어는 'you/you/to you/only you/...' 등 동일하거나 분리된 단어로 표시가 가능합니다. 만약 어간이 10000개이고 어미가 10개라면 모두 100000개의 단어가 필요합니다. 하지만 영어는 10010개면 충분합니다.

 

링크의 글을 보면 마지막에는 형태소 단위로 임베딩을 하였습니다. 이러면 단어의 수가 크게 줄어들기 때문에 학습이 더 잘될 수 있습니다. 하지만 '회식 가 기 싫 으시 ㄴ 거 에 요'처럼 형태소로 나온 출력을 합치고 띄어쓰기를 하는게 쉽지 않다는 단점이 있습니다.

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
BERT 톺아보기 깊은바다 2018-12-17 26395
딥러닝을 사용한 챗봇 개발방법 정리 file 깊은바다 2018-02-03 25465
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA file 깊은바다 2022-04-05 12115
RAG(Retrieval-Augmented Generation) - LLM의 환각을 줄이는 방법 file 깊은바다 2023-07-04 9764
글쓰기 보조 서비스 JasperAI, ChatGPT 때문에 어려움 직면 깊은바다 2023-03-01 9693
딥러닝 RNN으로 구현한 챗봇 깊은바다 2017-08-01 8135
문장을 학습하는 딥러닝 RNN의 Seq2Seq 모델 설명 file 깊은바다 2017-09-15 7327
챗봇에 딥러닝 학습을 적용하기 어려운 이유 file 깊은바다 2018-03-23 6641
KoGPT2, KoBERT, KoELECTRA로 만든 심리상담 챗봇 file 깊은바다 2020-08-05 6370
문장을 입력하면 비슷한 짤방을 보여주는 프로젝트 file 깊은바다 2019-01-28 6172
SKT가 공개한 한글 GPT2 - KoGPT2 깊은바다 2020-02-02 5297
챗봇에서 유사한 문장 자동인식 방법 file 깊은바다 2018-04-27 5152
네이버 영화리뷰 감정분석 with Hugging Face BERT file 깊은바다 2019-12-17 4670
사전학습을 통한 구글의 자연어처리 언어 모델 - BERT file 깊은바다 2018-11-03 4299
인라이플의 한글 BERT 대형모델 깊은바다 2020-05-18 4246