닫기

글로벌이코노믹

中, AI로 짓는 '디지털 감옥'...티베트어·위구르어 뚫어 소수민족 감시 완비

글로벌이코노믹

中, AI로 짓는 '디지털 감옥'...티베트어·위구르어 뚫어 소수민족 감시 완비

ASPI 보고서 "텐센트·바이두가 '보안관보' 역할...검열 효율 극대화"
AI가 형량 권고하는 '스마트 법원' 등장...사법 공정성 훼손 우려
중국 정부가 인공지능(AI) 기술을 활용해 범죄 사법 시스템을 개편하고 소수민족에 대한 감시망을 촘촘히 하는 등 사회 통제 수위를 한층 높이고 있다는 분석이 제기됐다. 이미지=빙 이미지 크리에이터이미지 확대보기
중국 정부가 인공지능(AI) 기술을 활용해 범죄 사법 시스템을 개편하고 소수민족에 대한 감시망을 촘촘히 하는 등 사회 통제 수위를 한층 높이고 있다는 분석이 제기됐다. 이미지=빙 이미지 크리에이터
중국 정부가 인공지능(AI) 기술을 활용해 범죄 사법 시스템을 개편하고 소수민족에 대한 감시망을 촘촘히 하는 등 사회 통제 수위를 한층 높이고 있다는 분석이 제기됐다.

워싱턴포스트(WP)는 지난 1(현지시각) 호주전략정책연구소(ASPI)가 발표한 최신 보고서를 인용해 중국 당국이 AI를 통해 온라인 검열을 자동화하고 사법 절차에 기술을 깊숙이 개입시키고 있다고 보도했다.

빅테크의 '보안관보(Deputy Sheriffs)' 전락... 검열 자동화 선봉


이번 보고서는 중국 공산당이 민간 기술 기업을 사실상 '보안관보'로 임명해 통제 업무를 위임하고 있음을 보여준다. 방대한 데이터를 보유한 민간 기업이 당국의 업무를 더 빠르고 쉽게 만들어주는 구조다.

네이선 아트릴(Nathan Attrill) ASPI 선임 분석가는 "중국은 AI를 활용해 기존 통제 시스템을 훨씬 더 효율적이고 침습적으로 만들고 있다""AI가 새로운 형태의 검열을 창조한다기보다는 공산당의 정보 통제 모델을 심화하고 가속한다"고 분석했다.

실제로 텐센트(Tencent), 바이두(Baidu), 바이트댄스(ByteDance) 등 중국의 대표적인 기술 기업들이 이러한 과정의 핵심 역할을 맡고 있다. 보고서에 따르면 위챗(WeChat)을 운영하는 텐센트는 '지능형 콘텐츠 보안 감사 시스템'을 통해 사용자 행동에 따라 위험 점수를 자동으로 매긴다. 또한, 채팅 그룹 등 여러 플랫폼을 넘나들며 반복적으로 규정을 위반하는 사용자를 추적한다.

바이두 역시 기업들이 구매할 수 있는 맞춤형 콘텐츠 조정 도구를 판매하고 있다. 이는 동영상, 이미지, 텍스트 내의 금지된 콘텐츠를 신속하게 검토하는 기능을 제공한다.

베서니 앨런(Bethany Allen) ASPI 중국 조사 책임자는 "기업들이 검열 도구를 만들고 판매하도록 유도하는 것은 권위주의를 위해 시장 원리를 무기화하는 것"이라고 지적했다. 다만 검열 업무를 전적으로 AI에 맡기지는 않는다. 정치적 미묘함이나 은어 사용 같은 회피 전술을 잡아내기 위해 인간 감시자가 함께 투입되는 '하이브리드 모델'이 운영되고 있다.

언어 장벽 넘은 AI... 소수민족 감시 사각지대 제거


중국 정부는 위구르족과 티베트족 등 소수민족 감시에도 AI를 적극적으로 활용하고 있다. 그동안 언어 장벽 탓에 이들의 온라인 활동을 완벽하게 파악하는 데 어려움을 겪었으나, 최근 소수민족 언어에 특화된 거대언어모델(LLM) 개발로 이를 극복하려는 움직임이 뚜렷하다.
보고서는 중국 당국이 소수민족 언어로 된 AI 모델 개발에 자원을 집중하고 있다고 밝혔다. 일례로 티베트 자치구의 주도인 라싸(Lhasa) 당국은 지난 여름 티베트어 거대언어모델 개발을 위한 입찰 공고를 냈다.

또한, 지난해 베이징에는 '민족 언어 지능형 분석 및 보안 거버넌스 핵심 연구소'가 설립됐다. 이 연구소 웹사이트에 따르면 몽골어, 티베트어, 위구르어 모델을 연구해 여론을 분석하고 '민족 단결'을 촉진하는 것을 목표로 한다. 이는 소수민족의 언어까지 실시간으로 분석해 반정부 여론이나 집단행동의 조짐을 조기에 차단하겠다는 의도로 풀이된다.

법정 선 AI... 판결의 '블랙박스'화 경고


AI의 도입은 온라인 세계를 넘어 사법 시스템 전반으로 확산하고 있다. 보고서는 AI가 중국 형사 사법 시스템에 깊이 파고들면서 책임성 부재와 기존 편견의 고착화 문제를 일으킬 수 있다고 경고했다.

예를 들어 안면 인식 기술에 포착된 시위 참가자는 AI가 사건 파일을 분석해 형량을 권고하는 '스마트 법원'에서 재판받을 수 있다. 이후 수감된 감옥에서도 AI가 수감자의 감정과 심리 상태를 예측하는 시스템의 감시를 받게 된다.

하지만 이러한 시스템은 공정성을 훼손할 위험이 크다. 상하이의 한 연구팀은 올해 발표한 학술 논문에서 "이러한 프로그램은 사법 공정성을 해칠 잠재력이 있다"고 지적했다. 알고리즘이 어떤 데이터를 근거로 형량을 권고했는지 피고인이 알 수 없는 '블랙박스' 현상이 발생하기 때문이다. 결과에 이의를 제기하기도 사실상 불가능하다.

"기술 거품 존재"... 과장된 능력과 현실의 괴리


전문가들은 중국의 AI 도입 열풍 이면에 '거품'이 존재한다고 지적한다. 중앙 정부가 기술 도입을 강력하게 추진하다 보니, 지방 관료와 기업들이 예산 확보를 위해 기술의 능력을 과장하는 경우가 많다는 것이다.

대만 '민주주의·사회·신기술 연구소'의 카이선 황(Kai-Shen Huang) 연구원은 "연구개발팀이나 대학이 정부 자금을 타내기 위해 현재 기술로는 불가능한 비현실적인 목표를 내세우곤 한다"고 말했다. 그는 "AI 애플리케이션이라는 껍데기는 있지만, 그 안에는 아무것도 없거나 엉터리인 경우가 꽤 흔하다"고 덧붙였다.

황 연구원은 또한 중국 사법 시스템의 AI 접근 방식이 지난 몇 년간 '롤러코스터'를 탔다고 설명했다. 기술에 대한 비현실적인 낙관론으로 시작했다가, 최근에는 AI의 결함에 대한 반성과 신중론이 고개를 들고 있다는 것이다.

퍼거스 라이언(Fergus Ryan) ASPI 선임 분석가는 "중국 기업들은 세계 시장을 목표로 제품을 수출하고 있다""중국산 AI 시스템이 비중국산과 어떻게 다르게 설계되고 통제되는지 이해하지 못한다면, 기술 내부에 숨겨진 검열과 정치적 통제 기능까지 수입하게 될 위험이 있다"고 강조했다.


박정한 글로벌이코노믹 기자 park@g-enews.com