GPT-3보다 3배 더 큰 구글의 초거대모델, PaLM
|
깊은바다 |
2022-04-07 |
1461 |
초거대모델의 파인튜닝 방법 - P-tuning과 LoRA
|
깊은바다 |
2022-04-05 |
12761 |
교육용 챗봇의 미래!? 구글 람다 (LaMDA)
|
깊은바다 |
2022-03-11 |
1409 |
하이퍼클로바 활용예 및 사용가이드
|
깊은바다 |
2022-03-05 |
3642 |
네이버의 초거대모델인 하이퍼클로바 사용 후기
|
깊은바다 |
2022-02-14 |
3221 |
구글의 대화기반 초거대모델 LaMDA, 논문 공개
|
깊은바다 |
2022-02-08 |
1425 |
프로그램을 작성하는 딥마인드의 알파코드
|
깊은바다 |
2022-02-04 |
1058 |
GPT-3를 강화학습으로 업그레이드한 InstructGPT
|
깊은바다 |
2022-01-30 |
2675 |
DALL-E를 능가하는 OpenAI의 GLIDE
|
깊은바다 |
2021-12-27 |
890 |
검색기반 거대모델인 딥마인드의 RETRO
|
깊은바다 |
2021-12-20 |
558 |
HyperCLOVA로 만드는 캐릭터 챗봇
|
깊은바다 |
2021-11-26 |
829 |
여러 한국어 GPT 모델들
[1]
|
봄눈 |
2021-11-21 |
3505 |
부적절한 문장을 판단해주는 딥러닝 모델 - Ask Delphi
|
깊은바다 |
2021-11-08 |
489 |
문장을 벡터로 변환하는 방법들
|
깊은바다 |
2021-09-16 |
1056 |
네이버의 초거대모델인 HyperCLOVA 논문
|
깊은바다 |
2021-09-13 |
602 |