"딥페이크 기술 급속 발전에 법원 속수무책, 검증 전문가 절대 부족"
법정 증거 신뢰도 추락...법원 대응력 한계
법정 증거 신뢰도 추락...법원 대응력 한계

인공지능(AI) 기술이 발달하면서 딥페이크가 빠르게 퍼지고 있어 법정에서 사진, 영상, 음성 등 기존 증거의 믿을 만함이 크게 떨어지고 있다는 걱정이 나왔다. 지난 25일(현지시각) 미국 악시오스 보도에 따르면, 디지털 포렌식 전문가들은 한때 법정에서 가장 믿을 만한 증거로 여겨졌던 시청각 자료들이 AI 조작 기술 앞에서 힘을 잃고 있다고 경고했다.
가장 심각한 문제는 법원이 AI로 조작한 증거를 검증할 수 있는 법의학 분석가가 매우 부족하다는 점이다. 겟리얼 시큐리티(GetReal Security)의 공동창립자이자 최고과학책임자인 하니 파리드는 악시오스 인터뷰에서 "누구나 이미지, 음성 녹음, CCTV 카메라, 경찰 바디캠, 블랙박스를 갖고 있다"며 "정말 모든 게 다 있어 말도 안 되는 일"이라고 말했다.
◇ AI로 만든 가짜 증거 사례 늘어
AI가 만든 가짜 증거는 이미 다양한 모습으로 법정에 나타나고 있다. 한 부모가 사진 배경을 바꿔 아이가 위험한 곳에 있는 것처럼 조작한 이혼 사건, 딥페이크 영상으로 죄 없는 사람을 범죄 현장에 있는 것처럼 거짓으로 보여준 살인 수사, 직장 동료의 해고 이유가 되는 말이 담긴 딥페이크 음성 녹음을 만든 부당해고 소송 등이 대표적인 예다. 실제로 볼티모어 카운티에서는 이와 비슷한 사건이 이미 일어났다.
AI 도구가 발전하면서 사진, 영상, 음성이 조작됐음을 증명하는 것이 점점 더 어려워지고 있다. 금융 사기 사건에서 회계 기록 분석을 위해 전문가 증언에 기대는 것처럼, 이제 법원은 바뀐 미디어의 흔적을 찾기 위해 디지털 포렌식 전문가에게 기댈 수밖에 없다. 그러나 전문가의 분석조차도 배심원을 합리적 의심 없이 설득하기에 충분하지 않을 수 있다는 걱정이 나온다.
파리드는 법원이 새로운 기술에 맞춰야 했던 것이 이번이 처음은 아니라고 덧붙였다. 사진과 영상 증거가 처음 나왔을 때 판사들은 종종 원본이나 자세히 살펴본 시간 기록을 요구했다. 하지만 오늘날의 법 기준은 딥페이크 도구의 속도와 정교함을 따라가지 못하고 있다. 딥페이크 도구는 과거 미디어 형태보다 훨씬 빠르게 바뀌고 있다.
◇ 검증 기술의 한계와 대응책
나르델로 & Co.(Nardello & Co.)의 디지털조사 및 사이버위험 부문 전무이사인 조셉 포크론은 지난주 샌프란시스코에서 열린 딥페이크 회복력 심포지엄에서 법의학 조사관도 딥페이크의 소유권 유지를 추적할 만한 기술이 아직 없다고 밝혔다. 포크론에 따르면, 시중에 나와 있는 각 AI 검증 도구는 내용물의 몇 퍼센트가 AI로 만들어졌는지 판별하는 방식을 알 수 없어 이미지, 영상, 음성을 조작하고 잘못 해석할 여지가 있다.
이 때문에 조사관들은 무언가가 AI로 조작됐는지 증명하기 위해 창의적인 방법을 찾고 있다. 포크론의 팀은 AI 도구에서 흔히 볼 수 있는 패턴과 맞는지 확인하기 위해 음성을 글로 옮기고 문장 구조를 분석하기 시작했다. 그러나 딥페이크가 점점 더 사람과 비슷해지면서 이 방법조차 1년 안에 쓸모없어질 것이라고 포크론은 내다봤다.
전문가들은 법정에서 필요할 경우를 대비해 음성 메일, 문자 메시지, 사진 등 원본 파일을 최대한 많이 기기에 보관하라고 권했다. 포크론은 "다시 이메일을 보냈는데 원본은 어디에 있는 건가"라며 "부가정보나 다른 뒷받침 자료가 이 문제를 파악하는 데 중요할 수 있다"고 강조했다.
파리드는 AI 도구가 이미 딥페이크 이미지와 음성 기술을 완성했으며, 가짜 영상도 세밀하게 조정하는 데 2년도 안 걸릴 것이라고 내다봤다. 피고인 역시 AI가 자신의 미디어를 바꾸지 않았다는 것을 증명하는 데 어려움을 겪을 것으로 보인다. 파리드는 "경찰을 믿지 않는 지역에서는 경찰관의 바디캠 영상이 바뀌지 않았는데도 바뀌었다고 주장하는 방식이 어느 정도 인기를 얻을 수 있다"고 말했다.
박정한 글로벌이코노믹 기자 park@g-enews.com