닫기

글로벌이코노믹

AI가 美 이란 공격 '킬 체인' 11분으로 단축...핵전쟁 우려 고조

글로벌이코노믹

AI가 美 이란 공격 '킬 체인' 11분으로 단축...핵전쟁 우려 고조

328명 100일 작업, AI로 90분 완료...핵 위기 시뮬레이션 75% 전면전 확대
"인간 판단 소외 위험...엄격한 통제 시스템 필요" 전문가 경고
2월 28일 이란 남부 미나브의 한 초등학교 파업으로 사망한 학생들의 사진이 4월 7일 테헤란에서 열린 행사에서 공개되고 있다. 사진=로이터이미지 확대보기
2월 28일 이란 남부 미나브의 한 초등학교 파업으로 사망한 학생들의 사진이 4월 7일 테헤란에서 열린 행사에서 공개되고 있다. 사진=로이터
인공지능이 전쟁이 어떻게 구상되고, 계획되고, 싸우느냐를 근본적으로 재구성할 위기에 처해 있을지도 모른다. 최근 분쟁 중 미국-이스라엘 간 이란 공격만큼 이 변화를 극명하게 보여주는 사례는 드물다.

AI 기반 시스템이 의사결정 주기를 압축하고 전투 템포를 한때 상상할 수 없을 정도로 가속화했다.

AI가 군사 작전에 놀라울 정도로 빠르게 통합되는 모습은 정책 입안자, 지휘관, 학자들 사이에서 치열한 논쟁을 불러일으켰으며, 이들 중 많은 이들은 점점 자율적인 기술 시대에 전쟁의 방향에 대해 우려하고 있다고 3일(현지시각) 닛케이 아시아가 보도했다.

하메네이 공격, 11분 23초 만에 완료


아랍에미리트와 연계된 싱크탱크인 알합투르 연구센터의 분석은 그 가속화에 대한 놀라운 설명을 제공한다.

센터에 따르면, 2월 28일 미·이스라엘 공습으로 이란 최고지도자 아야톨라 알리 하메네이와 다른 고위 인사들이 사망했으며, 목표 획득부터 완료까지 단 11분 23초 만에 이루어졌다.

목표물을 식별하고 타격을 수행하는 과정을 '킬 체인(kill chain)'이라고 한다. 그 연쇄가 짧을수록 전투 템포는 더 빠르고 더 치열해진다.

공격 이전에 미군과 이스라엘군은 방대한 양의 위성 정보와 기타 데이터를 통합하고 분석했다. 센터에 따르면 이 작업은 328명의 인간 분석가가 100일이 걸릴 예정이었으나, 약 90분 만에 완료됐다.

싱크탱크는 이 모든 작업이 팔란티어 테크놀로지스와 앤트로픽 같은 미국 AI 기업들이 제공한 데이터 통합 및 분석 기술 덕분에 가능했다고 밝혔다.

"적응 주기, 수십 년→몇 주로 단축"

지난 4월 24일부터 26일까지 파리 근처 샹티이에서 열린 세계정책회의에서 AI를 통한 전쟁의 가속화된 변화가 긴급한 주제로 부상했다.

캐나다 전 국방참모총장 웨인 에어 장군은 현대 분쟁이 군사적 '적응 주기'를 가속화하고 있다고 경고했다. 이 주기는 군대가 위협을 인식하고 정책을 수립하며 대응을 실행하는 과정이다.

에어 장군은 "평화 시기에는 수십 년이 걸리는 적응 주기가 바로 그 주기"라며 "이제 몇 주 만에 그 변화를 보고 있다"고 말했다.

비공개 논의에서 전문가들은 AI가 적대 간 오해와 의심을 거의 즉시 격화시켜 세계를 더 넓은 글로벌 분쟁으로 가깝게 만들 수 있다고 경고했다.

핵 위기 시뮬레이션, 75% 전면전 확대


하지만 AI는 결코 전능하지 않다. 최근 공격에 대한 최종 승인에 인간이 관여했다고 하지만, 그들 역시 실수를 할 수 있다.

이란 공습 첫날, 남부 이란의 한 초등학교가 폭격을 받아 많은 민간인과 어린이들이 사망했다. 이 비극은 이후 반자동화 시스템의 역할 확대와 인간 감독의 적절성 등 현대 표적 조준 절차에 대한 감시를 더욱 강화시켰다.

인간의 지시 없이 공격을 수행할 수 있는 치명적인 자율 무기 시스템(LAWS)이 널리 보급된다면 그 결과는 더욱 심각해질 것이다. 일부 분석은 AI를 핵무기 운용에 참여시키는 것이 핵전쟁 위험을 높일 수 있다고 경고한다.

킹스 칼리지 런던은 최근 여러 AI 시스템에 핵 위기에서 국가 지도자 역할을 부여하는 시뮬레이션 연습을 실시했다. 2월에 발표된 결과에 따르면, 21개 시나리오 중 약 4분의 3에서 긴장이 심각한 수준으로 고조되어 전면적인 핵전쟁으로 이어질 수 있는 수준에 이르렀다.

시뮬레이션 과정에서 AI는 위기를 완화할 의향을 거의 보이지 않는 것으로 보였다. 의사결정 일정을 단축함으로써 AI 기반 전쟁은 인간의 판단을 소외시키고 급격하고 의도치 않은 긴장 확산의 위험을 높일 위험이 있으며, 이는 핵 충돌에도 해당되는 우려다.

"엄격한 통제 시스템 필요"


네덜란드에 본사를 둔 딥테크 스타트업 포르테지스 테크놀로지스의 글로벌 파트너십 디렉터 닐 차우한은 AI 시스템 전반에 걸쳐 엄격한 내장 통제 시스템을 요구했다.

차우한은 "판단 오류와 급격한 악화를 막기 위해서는 국가들이 AI를 엄격히 통제해야 한다"며 "이것은 정책만으로는 달성할 수 없다.

하드웨어부터 소프트웨어, 운영에 이르기까지 AI 시스템에 강제 가능한 인증과 통제가 내장되어야 하며, 오직 허가된 시스템만이 통신하고 데이터를 공유하며 행동할 수 있어야 한다"고 말했다.

국제적으로 AI 군사 사용을 규제하려는 노력은 여전히 부족하다. 유엔은 치명적인 자율 무기 시스템을 금지하거나 제한하는 규칙을 모색하고 있지만, 아직 합의에 대한 명확한 전망은 없다.

이러한 노력에서 중요한 역할을 해야 할 미국과 중국은 위험을 인정하면서도 법적 구속력이 있는 국제 규칙 제정에 신중을 기하고 있다.

신중함은 필요하지만, AI를 과도하게 경계하며 완전히 배제하려는 것은 비현실적이다. 중요한 것은 인간이 통제권과 책임을 유지하도록 보장하고, AI가 명확하게 정의된 윤리 기준에 따라 사용되도록 하는 것이다.

에어 장군은 "전쟁에서 승리할 단 하나의 기술 분야는 없다"며 "전쟁의 본질은 여전히 인간 의지의 싸움"이라고 말했다.


신경원 글로벌이코노믹 기자 shincm@g-enews.com