|
사전훈련 자연어처리 모델의 발전과정 - The Illustrated BERT, ELMo, and co.
|
깊은바다 |
2019-01-01 |
1934 |
소설 쓰는 딥러닝
|
깊은바다 |
2018-08-31 |
1886 |
7B의 Alpaca가 175B의 GPT-3.5와 동급의 성능을 보임
|
깊은바다 |
2023-03-14 |
1885 |
Word2Vec 테스트 사이트
|
깊은바다 |
2019-01-13 |
1878 |
|
RNN seq2seq 간단한 대화모델
|
깊은바다 |
2018-10-23 |
1867 |
페이스북이 발표한 사전훈련 언어모델 RoBERTa
|
깊은바다 |
2019-07-30 |
1866 |
한국어 LLM 민주화의 시작 KoAlpaca
|
깊은바다 |
2023-07-17 |
1857 |
최신 자연어처리 모델 소개
|
깊은바다 |
2022-07-11 |
1836 |
|
쉽게 씌어진 Word2Vec
[2]
|
깊은바다 |
2017-12-25 |
1796 |
|
딥러닝 자연어처리 튜토리얼 - DLK2NLP
[1]
|
깊은바다 |
2018-11-24 |
1769 |
|
단어를 벡터로 변환하는 Word2Vec
|
깊은바다 |
2017-05-04 |
1763 |
LLM Multi Agent: Customer Service를 기깔나게 자동화하는 방법
[1]
|
깊은바다 |
2023-10-09 |
1761 |
|
메타, GPT-3와 동급인 175B의 초거대모델 무료 공개
|
깊은바다 |
2022-05-04 |
1759 |
퓨샷(few-shot) 러닝에 최적화된 GPT3 모델
|
깊은바다 |
2020-05-30 |
1710 |
|
Jay Alammar의 트랜스포머 한글 번역글
|
깊은바다 |
2019-05-09 |
1704 |