ICT뉴스
인공지능 오류는 “너무 탁월한 시력 탓”? | |||
작성일자 | 2019.06.06 | 조회수 | 5728 |
---|---|---|---|
첨부파일 | 없음 | ||
컴퓨터가 이미지를 식별하는 능력이 인공지능 기술의 발전 덕분에 갈수록 정교해지고 있다. 차별과 정확도 논란 속에서 적용 범위를 확대해가고 있는 인공지능 얼굴인식 기술도 컴퓨터 이미지 인식 기술의 발달에 기인한다.
인공지능 이미지 인식은 개와 고양이 식별처럼 사람에겐 단순한 문제를 구현하지 못하는 한계를 보여왔다. 컴퓨터 이미지 인식능력을 겨루는 2012년 이미지넷 대회에서 캐나다 토론토대의 제프리 힌튼 교수가 심화신경망 방식의 인공지능을 통해 우승한 이후 컴퓨터 이미지 인식능력은 비약적 발전을 거듭했다. 인공지능 이미지 인식은 이후 고양이 식별과 같은 해묵은 과제를 해결한 것은 물론, 사물을 식별하는 능력에서 99% 넘는 정확도를 과시하며 사람 이상의 ‘시력’을 보여주고 있다. 페이스북을 비롯해 개인용 이미지 관리 도구에서 얼굴인식 기능이 널리 활용되고 있으며 중국과 영국 등은 공공장소의 감시카메라 촬영결과를 용의자 얼굴 데이터베이스와 연계해 치안과 감시에 적용하고 있다.
이와 함께 인공지능 이미지 인식의 중대한 결함을 드러내는 사례 또한 보고되고 있다. 인공지능 이미지 식별 기능의 약점을 이용해 의도적으로 잘못된 판독을 하게 하는 이미지를 만들어내는 경우다. 인공지능의 취약점을 드러낸다고 해서 ‘적대적 사례(adversarial examples)’라고 불린다. 적대적 사례는 인공지능의 안전성과 신뢰성을 근본적으로 위협하는 요인이다. 미국 워싱턴 대학의 이반 에브티모프 등은 2017년 7월 논문(Robust Physical-World Attacks on Deep Learning Models)을 통해, 컴퓨터 이미지 인식 기능을 속이는 방법을 공개했다. 교통 표지판에 정교하게 만든 스티커를 붙여 넣었더니, 이미지 인식 모델이 완전히 속아 넘어간 실험이다. 인공지능 이미지 인식모델이 ‘정지(STOP)’ 표지판을 ‘속도 제한(SPEED LIMIT)’ 표지판으로 잘못 인식한 것이다. (중략) |