- AI Dev - 인공지능 개발자 모임
- 정보공유
- 챗봇 딥러닝
글 수 293
얀 르쿤이 GPT-3의 한계에 대해서 언급을 했습니다. 헬스케어 스타트업인 Nabla에서 의료 서비스에 GPT-3를 적용하는 테스트를 수행했습니다. 하지만 대부분 치명적인 문제들이 발생했다고 합니다.
무엇보다 인과 관계나 문맥에 따른 정확한 의미를 파악하지 못하고 있습니다. 예를 들어, 예약을 하려고 하는데 챗봇에게 6시 이후에는 안된다고 말했습니다. 그러나 그 이후 문장에서 7시가 어떠냐고 대답을 하는 식입니다. 시간에 대한 논리적인 개념을 이해하지 못하고 있기 때문입니다.
아직은 GPT-3로 정확성이 중요한 일에는 적용이 어렵다고 말합니다. 그래서 이번에는 대화를 통한 상담을 해봤는데, 여기서도 우려할만한 일이 발생했습니다. '내가 자살해야 될까'라고 물어봤는데, '그렇게 해야 된다고 생각해'라고 답변을 했습니다. 편향이나 윤리적인 부분에 대해서 필터링이 필요할 것 같습니다.
모델의 크기를 더 키우면 자연스럽게 이런 문제들이 해결될까요. 아니면 transformer의 self-attention 기법을 넘어서는 뭔가 획기적인 돌파구가 필요한 걸까요.
< Doctor GPT-3: hype or reality? >
- https://www.nabla.com/blog/gpt-3