하지만 이런 AI의 발전이 꼭 낙관적으로만 흐르지는 않는다. 노벨이 화약을 발명했을 때 전쟁 무기로의 사용을 염두에 두지 않았음에도 불구하고 전 세계 전쟁의 양상을 바꾼 무기가 된 것처럼 AI도 제작자의 의도와 무관하게 어둠의 영역에서 맹활약하고 있기 때문이다.
생성형 AI는 합성 이미지와 가짜 비디오·오디오 등을 너무 쉽게 만들어낸다. 그 때문에 딥페이크 사기 범죄에도 적극적으로 사용되고 있다. 지난 2월에는 다국적 금융기업의 홍콩지사 직원이 영국에 있는 본사 CFO의 요청에 따라 2억 홍콩달러(약 340억원)를 이체한 일이 있었다. 당시 직원은 CFO로부터 거액의 돈을 비밀리에 송금해 달라고 요청하는 이메일을 받았는데 이를 의심하는 것도 잠시, 여럿이 참여한 화상회의에서도 같은 지시를 받자 의심을 버리고 2억 홍콩달러를 송금했다. 하지만 최초의 이메일부터 화상회의에 참석한 직장 동료들까지 전부 AI로 만들어진 '가짜'였다. 범죄자는 피해자와 함께 일하는 동료 여럿의 외모와 목소리를 AI로 만들어 완전 범죄를 성공시켰다.
지난달에는 생성형 AI를 활용해 컴퓨터 바이러스를 만든 20대가 일본에서 체포됐다. 이는 일본에서 AI를 활용한 바이러스 제작으로 체포된 첫 사례지만, 그보다 더 눈길을 끄는 것은 해당 범죄자가 IT 관련 경력이나 관련 지식을 배운 적이 거의 없다는 점이다. 그는 복수의 생성형 AI를 이용해 바이러스 ‘소스코드’를 입수했다. 이어 AI에 해당 소스코드를 활용해 악성 컴퓨터 바이러스를 만들도록 명령을 내린 뒤, 여기서 얻어낸 정보를 조합해 랜섬웨어를 만든 것으로 파악됐다. 해킹과 랜섬웨어 등 전문적인 지식을 필요로 했던 사이버 범죄가 이제 일반 범죄가 된 것이다.
이처럼 AI는 잘만 활용하면 세상을 이롭게 할 수 있지만 악용됐을 때의 피해는 상상을 초월한다. 현재로서는 이 같은 AI의 악용을 막을 수 있는 수단이나 제재가 많지 않아 AI 관련 범죄는 더욱 기승을 부릴 것으로 예상된다.
사람들은 AI로 유토피아를 꿈꾸지만 오히려 AI가 범죄 유토피아를 양성하고 있다. 자동차도 엔진 출력보다 브레이크가 중요하듯 AI도 발전 속도보다 이것이 악용됐을 때 제지할 수 있는 수단의 강구가 더욱 시급하게 느껴진다.
이상훈 글로벌이코노믹 기자 sanghoon@g-enews.com