닫기

글로벌이코노믹

페이스북, 캠브리지 애널리티카 스캔들 이후 다시 위기

공유
1

페이스북, 캠브리지 애널리티카 스캔들 이후 다시 위기

페이스북 로고. 사진=페이스북
페이스북 로고. 사진=페이스북
페이스북은 내부고발자가 수천 페이지에 달하는 자료 공개를 통해 내부 비리를 폭로한 후 캠브리지 애널리티카 스캔들(Cambridge Analytica scandal) 이후 가장 심각한 위기를 겪고 있다.

캠브리지 애널리티카 스캔들은 2010년대 수백만 명의 페이스북 사용자들의 개인 데이터를 영국 컨설팅 회사인 캠브리지 애널리티카가 동의 없이 수집해 정치 광고에 사용한 것이 드러난 사건이다.
데이터 오남용이 밝혀지자 페이스북은 데이터 수집에 대해 사과했고, 저커버그는 의회에 출석해 증언했다.

최근 페이스북은 또 다른 논란에 휘말렸다. 내부 고발자 프랜시스 하우건은 페이스북이 청소년들이 인스타그램에 노출되면 자살할 위험이 높아진다는 점을 자체 조사를 통해 인지했음에도 이를 숨기고 청소년들의 인스타그램 사용을 계속 방관했다고 폭로했다.

이 같은 사건들은 플랫폼이 잘못된 정보의 확산을 가능하게 하고, 위험하다는 내부 경고에 대응하지 않은 고위 경영진의 도덕적 해이를 보여준다.

26일(현지시간) 영국 경제전문지 파이낸셜타임스(FT)는 주요 외신에 공개된 내부 문건 중 일부를 공개했다.

페이스북 고위 임원들은 직원들의 요청에도 불구하고 미국 정치인과 유명인들이 원하는 것은 무엇이든 올릴 수 있도록 방관했다.

이들은 페이스북 직원들이 지속적으로 정치적 중립을 주장했음에도 보수주의자들이 전하는 잘못된 정보와 유해한 내용을 억제하기 위해 고안된 규정을 어길 수 있도록 허용했다.
페이스북은 영어가 사용된 혐오 발언을 막지 못했다고 비판을 받았지만 다른 언어를 사용하는 나라에서는 이 문제가 훨씬 심각했다.

페이스북 직원은 사우디 아라비아, 예멘, 리비아에서 사용되는 아랍어 콘텐츠 모니터링 요원 수가 매우 적다고 경고했다. 내부문서에는 2020년 유해 정보 탐지 알고리즘을 개발하기 위한 예산의 87%를 미국에, 나머지 국가에는 13%만 할당됐다.

페이스북의 최대 시장인 인도에서는 잘못된 정보, 혐오 발언, 폭력 미화가 확산되고 있다는 직원들의 수십 차례 경고에 경영진은 귀를 기울이지 않았다.

2016년 선거 이후 페이스북은 허위 정보를 공유할 가능성이 높은 계정인 '하이퍼포스터(hyperposters)'를 타깃으로 한 '스페어링 셰어링(Sparing Sharing)' 툴(tool)을 사용하기 시작했다.

회사는 툴을 적극적으로 구현하는 것에 반대하는 경영진의 주장에도 불구하고 하이퍼포스터의 게시물 범위를 줄였다.

직원들은 게시물에 게재된 '좋아요'와 '공유' 기능 등 일부 웹사이트의 핵심 기능이 회사의 애초 의도와는 달리 유해 콘텐츠를 증폭시켰다고 거듭 경고했다.

유해 콘텐츠를 발견하도록 훈련된 인공지능(AI) 프로그램이 혐오 발언의 3~5%, 폭력적인 콘텐츠의 0.6%만을 찾아낸다는 사실도 드러났다.

내부문서는 AI가 언어 맥락을 이해하는 것이 ‘매우 어려운’ 일이기 때문에 유해 콘텐츠 발견이 10~20%가 넘지 못할 수도 있다는 것을 인정했다. 그럼에도 페이스북은 AI에 더 의존하기로 결정하고 모니터링 요원을 줄였다.

이에 대해 페이스북 대변인인 조 오스본(Joe Osborn)e은 "유출된 내부문건의 핵심은 거짓인 전제가 있다"며 "우리는 사업하면서 이윤을 남기지만, 사람들의 안전을 희생해서 그렇게 한다는 생각은 오해다"라고 반박했다.

그는 이어 "우리는 130억 달러를 투입해 4만 명 이상의 사람들을 통해 페이스북에서 사람들을 안전하게 지키고 있다"고 전했다.


유명현 글로벌이코노믹 기자 mhyoo@g-enews.com