글 수 497
https://news.naver.com/main/read.nhn?mode=LSD&mid=sec&sid1=104&oid=001&aid=0011192058
"미 미시간대와 일본 전기통신대(UEC) 연구진은 아마존의 알렉사, 애플의 시리, 구글 어시스턴트 등이 탑재된 스마트 스피커에 레이저를 쏴 이들에게 명령을 내리는 데 성공했다. 스마트 기기가 시야에서 차단되지 않은 곳이라면 최대 110m 떨어진 곳에서도 조용히 이런 작업을 수행할 수 있었다.
이들은 '구글, 차고 문을 열어줘' 같은 명령어가 암호화돼 입력된 빛을 스마트 스피커의 마이크에 비췄다. 음성 명령을 암호화해 빛에 실은 것이다. 이 빛이 스마트 스피커에 내장된 진동판에 부딪히면 마치 사람이 음성 명령을 말했을 때와 똑같이 이 진동판이 떨리면서 스마트 스피커에 명령을 내리게 된다."
인공지능 스피커를 해킹하는 새로운 방법이 등장했습니다. 앞으로 화자인증이 반드시 포함되어야 할 것 같습니다. 하지만 딥러닝 음성합성이 점점 쉬워지면 이런 안전장치도 소용이 없을 텐데요. 과연 앞으로 어떤 해결책이 나올지 궁금합니다.