글 수 208
https://ai.googleblog.com/2019/08/exploring-weight-agnostic-neural.html
또 구글이 혁신적인 딥러닝 기법을 공개했습니다. WANN(Weight Agnostic Neural Networks)이란 이름처럼 신경망의 가중치를 학습하지 않습니다. 하나의 가중치를 모든 노드에서 공유하여 사용합니다. 대신 모델의 구조 자체를 조금씩 변경하며 평가한 후 개선해 나갑니다.
인간의 뉴런도 시냅스의 가중치만이 전부가 아닙니다. 뉴런간의 시냅스 연결 역시 학습을 통해 지속적으로 삭제 또는 생성됩니다. 가중치와 구조 모두 지능이라 할 수 있습니다.
최근 많은 인기를 끌고 있는 AutoML은 치명적인 단점이 하나 있습니다. 모델의 구조를 변경한 다음 끝까지 학습을 하기 때문에 시간이 엄청나게 걸립니다. 만약 WANN 같은 기술을 적용한다면 그 속도를 획기적으로 높일 수도 있습니다. 아키텍처 후보들의 가중치를 각각 학습할 필요가 없습니다. 데이터셋에 최적인 구조만 찾는다면, 그 후 가중치를 학습한 것 역시 가장 뛰어난 모델일지도 모릅니다. 앞으로 NAS(Neural Architecture Search)에 큰 변화가 올 것 같습니다.