미 국방부의 군사용 AI 가속 전략은 어떻게 신냉전의 전쟁 방식을 바꾸고 있으며, 그 변화 앞에서 한국은 어떤 선택을 강요받고 있는가
이미지 확대보기미국 국방부가 지난 1월9일 새롭게 제시한 인공지능(AI) 가속 전략은 기술 정책 문서가 아니다. 그것은 전쟁을 준비하는 방식이 바뀌었다는 것을 선언하는 문서다. 이 전략의 핵심은 무엇을 더 잘 만들 것인가가 아니라, 무엇을 더 빨리 쓰고 누가 먼저 결정을 내릴 것인가에 있다. 그 과정에서 윤리, 책임, 인간 통제라는 단어는 문서의 중심에서 사라졌다. 미국은 더 이상 윤리를 가진 패권국으로서의 자기 규율을 전략의 출발점으로 삼지 않는다. 대신 속도를 택했다. 펜타곤의 이 선택은 신냉전의 전쟁 방식을 근본적으로 바꾸는 것으로, 동맹국인 한국의 안보와 산업 구조에도 깊은 영향을 미칠 것으로 예상된다.
윤리에서 속도로, 전쟁 교리의 이동
냉전 이후 미국은 군사 기술을 도입할 때 항상 두 가지 기준을 병행해 왔다. 하나는 우위였고, 다른 하나는 통제였다. 기술적 우위를 확보하되, 그 사용은 국제법과 윤리, 그리고 인간의 판단 아래 두겠다는 원칙이었다. 이는 단순한 도덕적 선택이 아니라 전략적 계산이었다. 미국의 패권은 단독 행동이 아니라 동맹과 규범을 통해 확장되는 구조 위에 있었기 때문이다.
이 같은 변화는 전쟁 교리의 이동을 의미한다. 과거의 억지는 상대가 공격하면 대응한다는 약속 위에 서 있었다. 지금의 억지는 상대가 판단하기 전에 먼저 감시하고 차단하는 능력에 기초한다. AI는 이 새로운 억지의 핵심 도구다. 자동화된 분석과 예측, 자율적 의사결정 시스템은 인간의 개입을 기다리지 않는다. 미국은 이 체계가 불완전하다는 사실을 알면서도, 경쟁 환경에서는 불완전함을 감수하는 쪽이 더 낫다고 판단했다.
AI 오작동과 오판이 불러올 새로운 위험
이 전략의 가장 큰 위험은 AI의 오작동과 오판이 단순한 기술적 실패로 끝나지 않는다는 데 있다. 군사 영역에서 AI는 정보 수집, 위협 평가, 표적 추천, 작전 계획에 이르기까지 연쇄적으로 연결된다. 어느 한 단계에서의 오류는 전체 판단 체계를 왜곡한다.
첫 번째 위험은 잘못된 경보의 확대다. AI는 방대한 데이터를 빠르게 처리하지만, 그 데이터가 불완전하거나 편향돼 있을 경우 위협을 과대평가할 수 있다. 인간 분석가는 맥락과 정치적 신호를 함께 고려하지만, AI는 패턴에 반응한다. 특정 군사 이동이나 통신 증가가 실제 공격 준비가 아니라 훈련이나 정치적 시위일 경우에도, AI는 이를 위협으로 분류할 가능성이 있다. 속도를 중시하는 체계에서는 이 오판이 수정되기 전에 대응으로 이어질 수 있다.
두 번째 위험은 자동화된 확전이다. AI 기반 시스템은 인간의 개입 없이 다음 단계를 제안하거나 실행할 수 있다. 초기 대응이 자동화될수록, 상대의 반응 역시 자동화된 체계에 의해 해석된다. 이 과정에서 상호 오해는 누적되고, 인간이 개입해 긴장을 완화할 시간은 줄어든다. 냉전 시기 위기 관리의 핵심이었던 의도적 지연과 정치적 신호 교환이 사라지는 것이다.
세 번째 위험은 책임의 공백이다. AI가 추천하거나 실행한 결정이 잘못됐을 때, 그 책임은 누구에게 있는가. 개발자, 운용자, 지휘관 중 누구도 명확한 책임을 지기 어렵다. 이는 사후 통제뿐 아니라 사전 억지에도 영향을 미친다. 책임이 분산될수록 결정은 더 쉽게 내려진다. 윤리를 제거한 전략은 단지 도덕적 기준을 낮춘 것이 아니라, 책임 구조 자체를 흐릿하게 만든다.
신냉전의 전쟁 방식은 어떻게 달라지는가
이 전략은 미중 경쟁의 성격을 질적으로 바꾼다. 이전까지의 경쟁은 기술력과 생산 능력, 그리고 제도적 우위에 초점이 맞춰져 있었다. 이제 경쟁의 핵심은 누가 먼저 판단하고, 누가 먼저 움직이며, 누가 상대의 선택지를 줄일 수 있는가로 이동한다.
이는 전쟁이 선언되지 않은 상태에서 이미 전쟁이 시작되는 구조를 만든다. 감시와 분석, 사이버 공간과 정보 영역에서의 충돌은 평시와 전시의 경계를 흐린다. AI는 이 회색지대에서 가장 강력한 무기가 된다. 상대의 행동을 예측하고 차단하는 능력은 곧 주권의 일부가 된다.
이러한 전쟁 방식은 규범과 합의에 기반한 위기 관리 메커니즘을 무력화한다. 국제법과 군비 통제는 인간의 판단과 책임을 전제로 설계돼 있다. 자동화된 AI 체계는 이 전제를 흔든다. 미국이 속도를 택한 것은 단기적으로 우위를 줄 수 있지만, 장기적으로는 예측 불가능성을 극대화한다. 이는 패권국 자신에게도 위험한 선택이다.
동맹국 한국이 직면한 안보의 변화
한국에게 이 변화는 추상적 논의가 아니다. 한미동맹은 오랫동안 미국의 확장 억지와 자동 개입의 신뢰 위에 서 있었다. 그러나 미국이 전쟁 수행의 기준을 속도로 전환하면서, 동맹의 작동 방식도 달라질 가능성이 커졌다.
첫째, 의사결정의 비대칭이 커진다. AI 기반 군사 체계가 미국 중심으로 구축될수록, 동맹국은 그 판단 과정에 개입하기 어려워진다. 한국은 결과에 연동되지만, 결정에는 참여하지 못하는 구조에 놓일 수 있다. 이는 위기 시 한국의 선택지를 좁힌다.
둘째, 확전 위험이 한국 주변에서 먼저 나타날 가능성이 있다. 한반도와 동아시아는 미중 경쟁의 최전선이다. 자동화된 감시와 대응 체계가 이 지역에 집중될수록, 작은 사건이 빠르게 군사적 긴장으로 전환될 위험이 커진다. 한국은 그 파급 효과를 직접 감당해야 한다.
셋째, 억지의 신뢰성이 재구성된다. 자동 개입에 대한 확신이 줄어들수록, 한국은 스스로 억지력을 보완해야 한다는 압박을 받는다. 이는 군사적 선택뿐 아니라 외교적 전략에도 영향을 미친다. 동맹을 부정하지 않으면서도, 동맹이 작동하지 않을 경우를 대비한 자율적 선택지가 필요해진다.
산업과 기술 주권에 미치는 구조적 영향
이 전략은 안보뿐 아니라 산업 구조에도 깊은 함의를 갖는다. AI가 전쟁의 핵심 도구가 되면서, 기술은 더 이상 중립적 산업 자산이 아니다. 그것은 국가 전략의 일부가 된다.
한국의 AI와 반도체 산업은 글로벌 공급망의 핵심에 위치해 있다. 그러나 미국이 속도를 중시하는 전략을 택할수록, 기술 주권의 기준도 달라진다. 단순히 잘 만드는 것만으로는 충분하지 않다. 어떤 기준으로 설계되고, 어떤 조건에서 사용되며, 누가 그 통제권을 갖는지가 중요해진다.
미국의 군사 AI 전략은 상용 기술과 군사 기술의 경계를 허문다. 이는 한국 기업들에게 기회이자 위험이다. 참여할 경우 기술력과 시장을 확보할 수 있지만, 동시에 특정 전략에 종속될 위험도 커진다. 기술의 사용 조건과 데이터 접근권, 보안 요구는 점점 더 정치화될 것이다.
한국 정부와 기업은 이 변화에 수동적으로 반응해서는 안 된다. AI와 반도체, 데이터 인프라에 대한 국가 차원의 기준과 통제 능력을 확보해야 한다. 이는 보호주의가 아니라 협상력을 위한 최소 조건이다. 핵심 공정과 알고리즘, 데이터 주권을 지키지 못하면, 장기적으로 전략적 선택권을 잃게 된다.
속도의 시대에 필요한 전략적 각성
미국이 윤리를 가진 패권국에서 속도를 택한 패권국으로 이동한 것은 단순한 정책 변화가 아니다. 그것은 신냉전의 전쟁 방식이 근본적으로 바뀌었음을 알리는 신호다. 이 변화는 더 빠른 결정과 더 위험한 오판, 그리고 더 불안정한 질서를 동반한다.
한국에게 필요한 것은 안심이 아니라 각성이다. 동맹을 전제로 하되, 동맹의 자동성이 약화될 가능성을 직시해야 한다. 기술 발전을 환영하되, 그 기술이 어떤 전략적 질서 속에서 사용되는지를 이해해야 한다. 속도의 시대에 가장 큰 위험은 뒤처지는 것이 아니라, 무엇에 연동되고 있는지를 모른 채 따라가는 것이다.
이 전략은 아직 완성된 형태가 아니다. 그러나 방향은 분명하다. 윤리가 사라진 자리에 속도가 들어섰고, 인간의 판단을 대신해 알고리즘이 전쟁의 문턱에 서고 있다. 이 문턱을 넘을 것인지, 어떻게 넘을 것인지는 이제 한국 스스로의 전략적 선택에 달려 있다.
이교관 글로벌이코노믹 기자 yijion@g-enews.com
































