41초마다 1장 제작…테일러 스위프트·카멀라 해리스 등 무단 합성
필리핀·말레이시아·인도네시아 금지…xAI 기능 전면 중단
필리핀·말레이시아·인도네시아 금지…xAI 기능 전면 중단
이미지 확대보기41초마다 아동 착취물 1장…유명인 사진 무단 도용
CCDH 분석 결과 그록은 11일 동안 약 2만3000장에 이르는 아동 성착취물을 생성했다. 평균 41초마다 1장씩 새로운 이미지를 만들어낸 셈이다.
영국 디지털 정보 기업 페리턴 인텔리전스 분석에 따르면 이 같은 활동은 새해를 맞아 급증해 이달 2일 하루에만 19만9612건의 사진 편집 요청으로 정점을 찍었다.
문제가 된 이미지 생성 방식은 실제 인물 사진을 업로드한 뒤 AI로 디지털 옷을 벗기고 도발적인 포즈로 배치하는 것이었다. CCDH가 확인한 피해자에는 테일러 스위프트, 셀레나 고메즈, 빌리 아일리시, 아리아나 그란데, 니키 미나즈 등 세계적 연예인과 스웨덴 부총리 에바 부시, 전 미국 부통령 카멀라 해리스 등 정치인이 포함됐다. 일반인 피해 사례도 다수 확인됐는데, 한 여학생의 유치원 시절 셀카가 비키니 사진으로 변조되기도 했다.
임란 아흐메드 CCDH 전무이사는 "그록은 산업 규모로 민감한 콘텐츠를 생산하는 기계가 됐다"며 "여성의 허락 없이 옷을 벗기는 것은 성적 학대"라고 비판했다.
각국 규제 압박에 기능 전면 중단
xAI는 논란이 커지자 지난 9일 실제 인물 사진 편집 기능을 유료 사용자로 제한했다. 하지만 비난 여론이 수그러들지 않자 지난 14일 유료 사용자를 포함한 모든 사용자에게 해당 기능을 비활성화했다.
xAI는 "소셜 네트워크 X를 모든 형태의 아동 성학대, 비동의 누드, 원치 않는 성적 콘텐츠에 대해 안전하고 무관용 플랫폼으로 만들기 위해 노력하고 있다"고 밝혔다.
각국 정부도 강력한 규제에 나섰다. 필리핀은 말레이시아와 인도네시아에 이어 그록을 금지한 세 번째 국가가 됐다. 영국과 프랑스도 xAI에 압박을 가하겠다고 밝혔다. 다만 그록이 추가 안전 조치를 시행하면서 말레이시아와 필리핀은 이번 주 금지 조치를 해제했다.
박정한 글로벌이코노믹 기자 park@g-enews.com
































