레플리
글 수 284


https://github.com/monk1337/word_embedding-in-tensorflow/blob/master/Use%20Pre-trained%20word_embedding%20in%20Tensorflow.ipynb?fbclid=IwAR3YBM9Kfd25HiiV8XaMcbquJk4mJ76paEF14YhxjkCD_o3dPcQpD0faodg

 

 

 

텐서플로에서 word2vec 같은 사전 훈련된 임베딩을 가져와서 새로운 임베딩 매트릭스를 만드는 방법입니다. Seq2Seq 모델의 경우 <SOS>, <EOS>, <PAD> 같은 심볼을 추가해야 하는데 여기에 대해서도 자세히 설명되어 있습니다.

 

엮인글 :
List of Articles
제목 글쓴이 날짜 조회 수sort
딥러닝 자연어처리 튜토리얼 - DLK2NLP [1] 깊은바다 2018-11-24 1221
LLM 챗봇의 특징 2가지 - RAG와 Function 깊은바다 2023-07-06 1227
RAG 아키텍처의 이해 깊은바다 2023-07-23 1339
구글의 대화기반 초거대모델 LaMDA, 논문 공개 file 깊은바다 2022-02-08 1361
교육용 챗봇의 미래!? 구글 람다 (LaMDA) 깊은바다 2022-03-11 1362
ChatGPT의 가장 큰 특징인 in-context learning file 깊은바다 2023-02-21 1362
RNN seq2seq 간단한 대화모델 깊은바다 2018-10-23 1366
사전훈련 자연어처리 모델의 발전과정 - The Illustrated BERT, ELMo, and co. 깊은바다 2019-01-01 1379
핑퐁의 리액션 모델 - Dialog-BERT 만들기 깊은바다 2020-01-28 1381
소설 쓰는 딥러닝 file 깊은바다 2018-08-31 1388
GPT-3, InstructGPT, GPT-3.5, ChatGPT의 차이점 깊은바다 2023-04-05 1400
GPT-3보다 3배 더 큰 구글의 초거대모델, PaLM file 깊은바다 2022-04-07 1408
GPT-4의 특징 정리 file 깊은바다 2023-03-15 1420
페이스북이 발표한 사전훈련 언어모델 RoBERTa file 깊은바다 2019-07-30 1429
문장을 사진으로 변환하는 StackGAN [1] 깊은바다 2018-09-17 1435