레플리
글 수 282


K-001.png

 

 

 

Memory Networks(MemNN)는 페이스북에서 발표한 딥러닝 모델로 추론을 통해 질의응답을 할 수 있습니다. 예를 들어, 다음과 같이 문장들과 질문을 함께 입력으로 넣으면 대답을 출력합니다.

 

< Sentences >
Joe went to the kitchen. 
Joe travelled to the office. 
Fred went to the kitchen.
Joe left the milk. 
Joe went to the bathroom.

 

< Question >
Where is the milk now? A: office

 

이런 문제를 해결하기 위해서 RNN과 같은 방법으로 구현할 수도 있습니다. Sentences와 Question 전체를 임베딩하고 한번에 입력하면 정답 단어를 출력합니다. 하지만 문장이 길 경우에는 문장사이의 관계를 학습하기 어렵다는 한계가 있습니다. 그래서 MemNN에서는 별도의 외부 메모리를 사용하여 문장 정보를 저장합니다.

 

 

 

위와 같은 질문에 대해 추론을 하기 위해서 먼저 첫 번째로 연관있는 문장 'Joe left the milk'을 찾아야 합니다. 이를 위해서 스코어 함수라는 것을 사용합니다. 모든 입력 Sentences에 대해서 질문과 연관이 있는 정도를 계산하고 가장 점수가 높은 문장을 선택합니다.

 

O1(x, m) = argmax(s(x, mi))

 

s는 스코어 함수, x는 입력 Question, m은 가장 점수가 높은 문장, mi는 모든 Sentences 반복을 의미합니다. 그 다음으로 연관된 문장 'Joe travelled to the office'를 같은 방법으로 찾습니다.

 

 

 

O2(x, m) = argmax(s([x, m1], mi))

 

스코어 함수에 x와 함께 바로 전에 찾은 연관 문장인 m1도 같이 사용하여 두 번째 연관 문장 m2를 찾습니다.

 

 

 

r = argmax(s([x, m1, m2], w))

 

그리고 마지막으로 별도의 스코어 함수를 사용하여 가장 점수가 높은 정답 단어 r을 선택합니다. w는 모든 단어 집합을 의미합니다.

 

 

 

결국 메모리란 것은 스코어 함수 s의 파라미터를 학습하는 것을 말합니다. 문제는 특정 메모리 문장 m이 입력 x에 가장 높은 점수를 주도록 스코어 함수를 만드는 방법입니다. 이를 위해서 데이터셋에 supporting facts를 직접 넣어주어야 합니다.

 

< 학습 데이터 >
1 Joe went to the kitchen. 
2 Joe travelled to the office. 
3 Fred went to the kitchen.
4 Joe left the milk. 
5 Joe went to the bathroom.
6 Where is the milk now? office 4 2

 

위의 데이터에서 'office'뒤에 있는 숫자가 질문과 연관 있는 문장을 가리킵니다. 그런데 실제로 수집하는 데이터에서는 이런 supporting facts를 사람이 일일이 넣어주는게 불가능합니다. 그래서 페이스북이 End-to-End Memory Networks(MemN2N)를 새롭게 발표하였습니다.

 

 

 

첨부한 사진에서 보는 것처럼 Sentences와 Question이 들어오면 우선 Sentences에 해당하는 메모리만 뽑아 Embedding A를 생성합니다. 그리고 소프트맥스를 통해 입력과 가장 연관이 높은 메모리 문장들이 어떤 건지 확률로 나타내고 다시 이 확률값을 메모리의 Embedding C와 함께 계산합니다. 그리고 마지막으로 입력 Embedding B와 이전 출력 o를 가중치 W로 소프트맥스하여 최종 정답을 선택합니다.

 

MemN2N의 최종 목표는 학습을 통해 Embedding A, B, C와 W를 찾는 것입니다. 여기서 중간의 소프트맥스가 MemNN에서의 스코어 함수처럼 입력과 연관된 메모리 문장이 무엇인지 알려주는 역할을 합니다. 대신 supporting facts처럼 정답 단어외에 부가적인 정보가 필요없기 때문에 End-to-End라고 부릅니다.

 

 

 

< 참고자료 >
https://arxiv.org/pdf/1410.3916.pdf
https://arxiv.org/pdf/1503.08895.pdf
https://www.slideshare.net/carpedm20/ss-63116251
https://jhui.github.io/2017/03/15/Memory-network/

 

List of Articles
제목 글쓴이 날짜 조회 수sort
Word2Vec 테스트 사이트 file 깊은바다 2019-01-13 1189
메타, GPT-3와 동급인 175B의 초거대모델 무료 공개 깊은바다 2022-05-04 1188
딥러닝 기반 자연어 언어모델 BERT - Colab 실습 코드 포함 file 깊은바다 2019-09-02 1179
최신 자연어처리 모델 소개 file 깊은바다 2022-07-11 1179
쉽게 씌어진 Word2Vec [2] 깊은바다 2017-12-25 1178
커뮤니케이션과 AI - Multi-channel CNN을 이용한 한국어 감성분석 깊은바다 2018-11-22 1156
퓨샷(few-shot) 러닝에 최적화된 GPT3 모델 file 깊은바다 2020-05-30 1155
유저 피드백을 받아 지속적으로 학습을 하는 챗봇 - BlenderBot 3 file 깊은바다 2022-08-06 1148
딥러닝 질의응답 시스템인 cdQA-suite 깊은바다 2020-03-08 1142
다이나믹 메모리 네트워크 정리 file 깊은바다 2018-09-29 1135
LLM의 새로운 기법 - Merge와 DPO file 깊은바다 2024-01-02 1114
WizardLM의 Evol-instruct로 직접 한글 데이터셋을 만든 모델 file 깊은바다 2023-06-19 1108
딥러닝을 이용한 자연어 처리 입문 - 위키독스 깊은바다 2018-09-21 1107
Dialog-BERT: 100억건의 메신저대화로 일상대화 인공지능 서비스하기 file [1] 깊은바다 2020-04-19 1092
딥러닝으로 욕설 탐지하기 file [2] 깊은바다 2018-05-04 1073