페이스북코리아는 28일 서울 강남구 페이스북코리아에서 열린 '페이스북 미디어 세션'을 열고 이같은 내용의 올 3분기 페이스북 커뮤니티 규정 시행 현황에 대해 발표했다.
페이스북 커뮤니티 규정은 폭력 및 선동, 위험인물·단체, 자살 및 자해, 아동 나체 이미지 및 아동 성착취, 따돌림 및 괴롭힘, 혐오발언, 스팸, 사칭, 허위뉴스 등 총 25개로 이뤄졌다.
이 중 올 3분기에 인스타그램에서 아동의 나체 이미지와 아동에 대한 성 착취, 규제 품목(특히 불법 무기 및 의약품 거래), 자살 및 자해, 테러 선동 등에 대한 항목이 새로 추가됐다.
유동연 페이스북 콘텐츠 정책담당자는 "페이스북은 유해 콘텐츠를 사전에 감지하고 이용자의 신고에 신속하게 대응하기 위해 지난 5년간 인공지능에 지속적인 투자를 통해 콘텐츠 감지와 삭제율을 높이고 있다"고 밝혔다.
실제 AI를 도입한 결과 올 3분기 자살 및 자해, 테러 선동, 아동 나체 이미지 및 아동에 대한 성착취, 불법 무기 및 의약품 거래, 허위계정 등 총 10개의 카테고리에서 90% 이상의 사전 조치가 이뤄진 것으로 집계됐다.
단 혐오발언과 따돌림 및 집단 괴롭힘 등 두 가지 콘텐츠의 경우 사전 조치율은 각각 80.1%, 16.1%에 그쳤다. 유 담당자는 "혐오발언이나 집단 괴롭힘 같은 경우에는 AI에 대한 의존도가 굉장히 낮은 편이다"라며 "이 두 콘텐츠는 사람의 의도나 맥락이 중요해 신중한 판단이 필요하기 때문"이라고 강조했다.
현재 페이스북은 글로벌 조직 콘텐츠 관리 정책팀에서 1만5000여 명의 인력이 커뮤니티에서 신고된 하루에 100만건 이상의 유해 콘텐츠를 검토하고 있다.
유 담당자는 "페이스북은 비영리단체, 안전 전문가, 한국을 포함한 전 세계의 학자와 외부 전문가들로부터 정기적으로 자문을 구해 유해 콘텐츠의 규정 집행을 하고 있으며 사전에 감지할 수 있도록 앞으로도 꾸준히 노력할 것"이라고 말했다.
홍정민 글로벌이코노믹 기자 goodlife@g-enews.com