페이스북은 인공지능(AI) 기술로 테러·불법 무기, 약품 거래 등은 물론 혐오 발언까지도 대부분 자동 감지·삭제하고 있다고 28일 밝혔다.
페이스북은 이날 공개한 올해 2~3분기 커뮤니티 규정 시행 현황을 담은 집행 보고서에서 "유해 콘텐츠 전반에서 규정 집행을 강화해왔으며, AI에 대한 지난 5년간의 지속적인 투자를 통해 콘텐츠의 감지 및 삭제율을 높이고 있다"고 밝혔다.
이어 "혐오 발언 관련 위반 사항을 감지하는 시스템은 지속적으로 향상돼 올해 2분기부터 일부 게시물을 자동으로 삭제해오고 있다"며 "사전 감지율은 지난 보고서의 68%에 비해 크게 향상된 80%를 기록했다"고 설명했다.
기존에 혐오 발언으로 판별된 텍스트와 동일한 문자열 혹은 이미지를 포함하는지 식별해내는 매칭 기능, 혐오발언 콘텐츠에서 나타나는 공통적인 문구나 패턴의 유사성을 평가하는 머신러닝 식별 기능 등 감지 기법을 쓰고 있다고 페이스북은 소개했다.
자살 및 자해, 테러 선동, 아동 나체 이미지 및 아동에 대한 성착취, 불법 무기 및 의약품 거래 등 기존 유해 콘텐츠에 대해선 90% 후반대의 감지·삭제율을 나타내고 있다.
현재 1만5천여명의 인력이 한국어를 포함한 50개 이상의 언어로 365일 24시간 잠재적 유해 콘텐츠를 검토하고 있다고 회사는 전했다. (서울=연합뉴스) 홍지인 기자 ljungberg@yna.co.kr 원문보기 : https://www.yna.co.kr/view/AKR20191128139200017?input=1195m
|