https://news.naver.com/main/read.nhn?mode=LSD&mid=sec&sid1=102&oid=032&aid=0002935749
"인공지능 알고리즘에 어떤 데이터를 집어넣느냐에 따라 결과가 달라진다. “쓰레기를 넣으면 쓰레기가 나온다”(garbage in, garbage out)는 말이 이를 잘 표현한다. 결국 인공지능의 차별이 두렵다면 데이터를 만드는 현실세계의 차별을 시정해야 한다."
결국 학습을 통한 인공지능은 데이터에 따라서 행동이 결정됩니다. 윤리적인 AI를 만들려면 데이터 자체를 사람이 하나씩 살펴봐야 합니다. 사실 이는 거의 불가능할 뿐만 아니라, 인공지능을 사용하는 기업이 과연 이것을 원하는가도 문제가 됩니다.
예를 들어, 지원자 중에서 능력있는 사람을 선별하는 알고리즘이 있다고 생각해 보겠습니다. 보통 기존 직원들이 수행했던 업무 결과를 가지고 학습을 합니다. 그런데 과거에는 대부분 남자들이 높은 성과를 받고 승진을 하는 경우가 많습니다. 유리 천장이라는 말처럼 남자를 우대하는 편견이 이미 존재하기 때문입니다. 데이터를 수정하는 것도 힘들지만, 보통 남자들로 구성된 임원진이 그걸 적극적으로 나서서 고치려고 할지도 의문입니다.
그래서 정부의 규제가 필요합니다. 알고리즘을 분석하고 테스트를 거쳐 편향이 존재하는지 판단해야 합니다. 법적으로 인증을 받은 모델만 적용이 가능하도록 한다면, 이런 윤리적인 측면을 어느정도 보완할 수 있습니다. 안전관리가 필요한 제품에 대해서 정부가 인증을 하는 것과 마찬가지입니다. 물론 인공지능을 분석하기 어렵다는 현실적인 문제가 있습니다. 그래도 여기에 관심을 갖고 지속적으로 고민해야될 것 같습니다.