닫기

글로벌이코노믹

"지구 멸망 버튼을 누른 건 인간이 아니었다"... AI 환각이 설계한 우발적 핵전쟁의 시나리오

글로벌이코노믹

"지구 멸망 버튼을 누른 건 인간이 아니었다"... AI 환각이 설계한 우발적 핵전쟁의 시나리오

인공지능에 핵 지휘권 넘기려는 기술 만능주의의 함정, 인류 최후의 날을 결정할 알고리즘의 오류
랜턴 프로젝트가 폭로한 AI 기반 핵 통제 체계의 치명적 결함, 가짜 신호가 실전 탄도미사일로 변하는 순간
미국은 권위주의 국가들의 도발에 핵 전력을 강화하고 있다. 사진은 핵 코드 서류 가방을 들고 미 백악관 경내를 지나는 군인의 모습이다. 사진=로이터이미지 확대보기
미국은 권위주의 국가들의 도발에 핵 전력을 강화하고 있다. 사진은 핵 코드 서류 가방을 들고 미 백악관 경내를 지나는 군인의 모습이다. 사진=로이터
인류가 발명한 가장 강력한 파괴 도구인 핵무기와 가장 혁신적인 지능인 AI가 만났을 때, 그 결과는 유토피아가 아닌 잿더미일 수도 있다. 전 세계 군사 강대국들이 앞다투어 인공지능 기반 핵 지휘 통제 및 통신(NC3) 체계 도입을 서두르는 가운데, 이 지능형 시스템이 스스로 만들어낸 환각 현상이 전 지구적 핵전쟁을 촉발할 수 있다는 경고음이 터져 나왔다. 인간의 판단력을 보조하기 위해 도입된 알고리즘이 오히려 인간의 통제를 벗어나 돌이킬 수 없는 오판을 내릴 가능성이 제기된 것이다.

미국 싱크탱크 랜드연구소가 3월 31일 '인공지능과 핵 지휘, 통제 및 통신(NC3)의 미래: 기회와 위험에 대한 비판적 고찰(The Future of AI and Nuclear Command, Control, and Communications: A Critical Examination of Opportunities and Risks)'이라는 제하의 아티클을 통해 전한 바에 의하면, 핵 지휘 체계에 심층 학습 알고리즘을 결합하는 랜턴 프로젝트 분석 결과 시스템의 환각 현상이 핵전쟁의 도화선이 될 수 있음이 드러났다. 보고서는 기술적 우위를 점하려는 강대국들의 조급함이 검증되지 않은 지능형 시스템에 핵 단추의 결정권을 넘겨주는 파멸적 결과를 초래할 수 있다고 지적한다.

할루시네이션이 빚어낸 가공의 선제 타격 신호


인공지능의 가장 고질적인 문제인 환각 현상은 핵 통제 체계에서 단순한 해프닝에 그치지 않는다. AI는 존재하지 않는 적의 미사일 발사 징후를 감지하거나, 평범한 군사 훈련 신호를 실제 공격 상황으로 오인하여 보고할 수 있다. 특히 데이터가 부족한 극한 상황에서 AI는 비논리적인 추론을 확신을 가지고 내놓는 경향이 있으며, 이 거짓 정보가 핵 지휘관의 의사결정 경로에 주입될 경우 인류는 적의 공격이 없었음에도 보복 타격을 승인하는 모순된 상황에 직면하게 된다.

초단위로 압축된 결심의 시간과 인간 배제 리스크

AI 도입의 가장 큰 명분은 인간이 따라갈 수 없는 초고속 판단력이다. 극초음속 미사일이 수분 내에 목표에 도달하는 현대전에서 AI는 즉각적인 대응을 보장하는 것처럼 보인다. 그러나 판단 속도가 빨라질수록 인간 지휘관이 AI의 권고안을 검토하고 거부권을 행사할 시간적 여유는 사라진다. 결과적으로 핵 단추를 누르는 최종 결정권은 인간의 손을 떠나 알고리즘의 블랙박스 내부로 빨려 들어가게 된다. 시스템이 오류를 일으켰음을 깨달았을 때는 이미 미사일이 사일로를 떠난 뒤일 확률이 높다.

적대적 머신러닝과 알고리즘 기만 전술의 공포


AI 기반 핵 통제 체계의 또 다른 아킬레스건은 적국에 의한 알고리즘 해킹이다. 적대국이 특수하게 가공된 데이터를 흘려 AI의 판단 기준을 교란하는 적대적 머신러닝 공격을 감행할 경우, 아군의 핵 통제 시스템은 아군을 공격 목표로 재설정하거나 시스템 전체가 마비될 수 있다. 물리적 타격 없이 코드 몇 줄만으로 상대국의 핵 억제력을 무력화하거나, 역으로 상대국이 핵을 쏘도록 유도하는 고도의 인지전이 핵전쟁의 새로운 양상으로 부상하고 있다.

데이터 오염이 불러온 핵 지휘 체계의 신뢰 상실


AI를 학습시키는 데이터 자체가 편향되었거나 오염되었을 가능성도 배제할 수 없다. 과거의 냉전 데이터를 기반으로 학습한 AI는 현대의 복잡한 지정학적 갈등을 오직 이분법적인 대결 구도로만 해석할 위험이 있다. 유연한 외교적 해결책을 고려하기보다는 가장 효율적인 군사적 타격 시나리오를 우선순위에 두는 알고리즘의 속성은 에스컬레이션(전쟁 확대)을 억제하기보다 가속화하는 기폭제로 작용할 가능성이 크다.

전쟁의 안개 속에서 눈 먼 인도자에게 길을 묻다


클라우제비츠가 말한 전쟁의 안개는 AI 시대에 더욱 짙어지고 있다. 지휘관들은 AI가 제공하는 명확한 수치와 확률을 맹신하게 되며, 이는 인간 고유의 직관과 윤리적 고뇌를 마비시킨다. 수백만 명의 생명이 걸린 결정을 내리면서 알고리즘이 제시한 확률 99.9%라는 숫자에 안주하는 순간, 핵 통제 체계는 인류를 지키는 방패가 아니라 인류를 사지로 몰아넣는 눈 먼 인도자가 된다. 기술적 진보가 도덕적 책임감을 압도하는 지점에서 비극은 시작된다.

기술 만능주의의 종말과 인간의 통제권 회복


랜드연구소의 보고서는 인류가 아직 AI에게 핵 통제권을 넘길 준비가 되지 않았음을 명확히 한다. AI는 보조적인 정보 분석 도구로 남아야 하며, 핵무기 사용과 관련된 핵심 결정 경로에는 반드시 인간의 개입(Human-in-the-loop)이 보장되어야 한다는 것이다. 기술적 완벽함이라는 신화에 매몰되어 인류 최후의 안전장치를 해제하려는 시도는 멈춰야 한다. 지구의 운명을 코딩된 스크립트에 맡기기에는 우리가 잃을 것이 너무나 많다. 인류의 미래는 알고리즘의 계산이 아닌 인간의 지혜로운 선택 위에 있어야 한다.


이교관 글로벌이코노믹 기자 haedang@g-enews.com