닫기

글로벌이코노믹

[이교관의 글로벌 워치] AI 패권 경쟁이 아니라 통제의 전쟁이다

글로벌이코노믹

[이교관의 글로벌 워치] AI 패권 경쟁이 아니라 통제의 전쟁이다

미국식 빅테크 민간 독점 알고리즘 권력과 중국식 당 중심 국가 알고리즘 통제 사이에서 AI는 어떻게 인간과 국가 위에서 섬으로써 새로운 안보 위협이 되고 있는가
미국 금융시장이 인공지능(AI) 산업의 급성장과 맞물려 전례 없는 과열 상태를 보이고 있다. 이미지=GPT4o이미지 확대보기
미국 금융시장이 인공지능(AI) 산업의 급성장과 맞물려 전례 없는 과열 상태를 보이고 있다. 이미지=GPT4o

기술의 문제가 아니라 권력의 문제다


인공지능(Artificial Intelligence, 약칭 AI)은 더 이상 중립적 기술이 아니다. 그것은 생산성 향상 도구이자 행정 자동화 수단이며 동시에 군사력과 억지력, 사회 통제와 정보 전장의 성격을 근본적으로 바꾸는 권력 증폭 장치가 되고 있다.

이 점에서 AI 거버넌스를 둘러싼 국제 담론이 여전히 ‘신뢰성’, ‘윤리’, ‘인간 중심’을 말하고 있는 동안, 실제 세계에서는 AI가 국가의 생존 전략과 패권 경쟁의 핵심 자산으로 재편되고 있다고 평가할 수 있다.

AI는 냉전 시기의 핵기술과 유사한 지점에 도달했다. 다만 차이가 있다면, 핵은 제한된 국가들만이 보유했지만 AI는 경제·군사·사회 전 영역을 관통하며 훨씬 빠른 속도로 확산되고 있다는 점이다.

이 때문에 AI는 단순한 기술 경쟁이 아니라 질서 경쟁, 더 정확히 말하면 어떤 국가가 인간의 안전과 선택권을 정의하고 강제할 권리를 갖는가에 대한 경쟁이 되었다고 할 수 있다.

인간 중심 AI라는 규범 담론의 구조적 한계


최근 이루어지고 있는 'AI 거버넌스' 논의, 즉 AI가 인간과 국가 위에 서지 않도록 어떻게 관리할 것이냐는 논의는 인간을 보호해야 할 대상으로 설정한다.

노동의 전환, 재교육, 윤리적 설계, 투명성 확보 같은 의제는 필요하다. 그러나 이 담론에는 치명적인 결함이 있다. 인간은 보호받는 객체로만 등장할 뿐, 권력을 행사하는 주체로 등장하지 않는다는 점이다.

AI 시대의 핵심 질문은 이것이다. 인간은 시스템의 주인인가, 아니면 시스템이 허용한 선택지 안에서만 움직이는 존재인가.

이 질문에 답하지 못한 채 인간 중심이라는 언어만 반복하는 거버넌스는 현실에서 작동하기 쉽지 않다. 왜냐하면 AI를 둘러싼 실제 결정은 윤리 위원회나 시민 참여 플랫폼이 아니라 국가와 빅테크, 군사·정보 기관의 결합 구조에서 이루어지기 때문이다.

AI 패권 경쟁은 이미 현실주의적 구도로 재편되었다


AI 경쟁을 미중 기술 갈등이나 산업 정책의 문제로만 이해하는 것은 착각이다. AI는 반도체, 클라우드, 데이터, 표준, 군사 지휘통제, 핵 억지 구조와 결합되면서 국가의 전략 자율성 자체를 규정하는 변수가 되었다는 사실을 인식해야 한다.

이 지점에서 자유주의적 기대는 무너진다. 전략적 비정렬, 선택적 결합, 다중 중심 거버넌스는 평시의 제한된 영역에서는 가능할지 모르나, 안보 위기 상황에서는 작동하지 않는다. 위기 상황에서는 언제나 중앙집권적 결정과 배타적 기술 블록이 등장한다.

결과적으로 세계는 두 가지 모델로 빠르게 수렴하고 있다. 하나는 미국식의 '국가–기업 결합형 기술 패권 모델'이고, 다른 하나는 중국식의 '국가 주도형 기술·안보 통합 모델'이다. 이들 두 체제 모두 AI를 억지력과 통제력의 일부로 취급한다는 점에서 동일하다.

인간의 안전과 선택권은 국가 없이는 보장되지 않는다


바로 이 지점에서 불편하지만 회피할 수 없는 결론이 도출된다. AI 시대에 인간의 안전과 선택권을 보장할 수 있는 유일한 실체는 국가(state)라는 사실이다. 시장도, 국제기구도, 규범도 아니다.

국가만이 다음의 기능을 수행할 수 있다. 첫째, AI 기술의 군사적·안보적 사용을 통제할 수 있다는 것이다.

둘째, 기술 접근권과 산업 기반을 방어할 수 있다는 것이다. 셋째, 위기 상황에서 인간의 생존을 최우선 가치로 설정할 수 있다는 것이다.

즉, 인간 중심 AI는 강한 국가 전략이 전제될 때만 의미를 갖는다. 국가는 인간의 존엄을 선언하는 주체가 아니라, 그것을 지킬 수 있는 강제력을 가진 유일한 행위자다.

현실주의 국제정치에서 AI는 억지력의 일부다


현실주의 관점에서 보면 AI는 새로운 억지 변수다. AI는 전쟁의 속도를 바꾸고, 오판의 가능성을 높이며, 선제 공격의 유인을 강화한다. 동시에 AI는 감시·정찰·지휘통제·사이버전·무인 전력과 결합해 핵 억지 구조의 안정성에도 직접적인 영향을 미친다.

이 때문에 AI를 군사와 분리된 기술로 다루는 것은 전략적 자살에 가깝다. AI는 이미 핵 억지, 미사일 방어, 우주 감시, 사이버 방어와 결합된 통합 억지 체계의 일부가 되었다. 인간의 안전은 이 억지 체계가 안정적으로 작동할 때만 보장된다.

한국의 현실: 기술 강국, 억지력 취약국


이제 한국의 문제로 들어가야 한다. 한국은 AI와 반도체, 디지털 산업에서 세계적 경쟁력을 갖춘 국가다. 그러나 동시에 핵을 보유하지 않은 최전선 국가이기도 하다. 이 모순이야말로 한국 전략의 출발점이다.

한국은 AI 기술을 보유하고 있지만, 그것을 독자적 억지력과 완전히 결합시키지 못하고 있다. AI 기반 감시·정찰·지휘체계는 존재하지만, 그 최종 억지의 보증은 여전히 외부에 의존하고 있다. 이는 AI 시대에 더욱 위험한 구조다.

AI가 군사적 의사결정과 결합될수록, 억지의 신뢰성은 더욱 중요해진다. 억지가 불완전한 상태에서 AI만 고도화하는 것은 위험한 비대칭을 만든다.

한국이 선택해야 할 전략적 방향


한국의 AI 전략은 세 갈래로 동시에 설계되어야 한다. 첫째, AI를 국가 안보의 핵심 인프라로 통합해야 한다.

AI는 산업 정책이 아니라 안보 전략의 일부로 관리되어야 한다. 국방·정보·산업·외교가 분절된 상태로는 AI 시대를 견딜 수 없다.

둘째, 동맹 신뢰를 기반으로 전략적 자율성을 확대해야 한다. 미국과의 동맹은 여전히 필수다. 그러나 동맹은 의존이 아니라 자력 억지를 향한 이행 과정이어야 한다. AI 기술 협력은 한국의 독자 억지력 확보와 병행되어야 한다.

셋째, AI 시대의 억지 구조를 전제로 한 자체 핵 옵션 논의가 불가피하다. AI가 전쟁의 문턱을 낮추는 시대에, 핵 없는 억지는 점점 설득력을 잃는다. 이는 이념의 문제가 아니라 구조의 문제다. AI와 결합된 재래식 전력만으로는 핵 보유 국가의 위협을 안정적으로 억지할 수 없다.

인간의 선택권은 힘의 균형 위에서만 유지된다


AI 거버넌스를 인간화하자는 주장 자체는 틀린 것은 아니다. 그러나 그것은 권력의 현실을 외면하지 않을 때만 의미를 갖는다. 인간의 존엄은 선언으로 지켜지지 않는다. 그것은 힘의 균형, 억지의 안정성, 국가의 생존 전략 위에서만 유지된다.

AI 시대의 인간 중심성은 윤리 강령이 아니라 국가 전략의 문제다. 한국이 이 사실을 직시하지 않는다면, AI는 번영의 도구가 아니라 불안정의 촉매가 될 것이다.

AI는 선택의 문제가 아니라 생존의 문제다


AI는 미래의 문제가 아니다. 이미 질서를 바꾸고 있다. 이제 질문은 이것이다. 한국은 AI 패권 경쟁의 규칙을 따르는 국가로 남을 것인가, 아니면 그 규칙이 인간의 안전과 선택권을 침해하지 않도록 억지력을 갖춘 주체가 될 것인가.

이 질문에 대한 답은 기술 정책이 아니라 대전략에서 나와야 한다. 그리고 그 대전략의 중심에는 AI, 안보, 억지력, 그리고 국가의 결단이 함께 놓여 있어야 한다.


이교관 글로벌이코노믹 대기자 yijion@g-enews.com