인공지능 기반 핵 지휘 통제 체계의 명암, 알고리즘 환각이 초래할 핵전쟁 위기
초단위로 압축된 결심의 시간과 인간 배제 리스크, 기술 만능주의가 부른 안보 공포
초단위로 압축된 결심의 시간과 인간 배제 리스크, 기술 만능주의가 부른 안보 공포
이미지 확대보기미국 안보 싱크탱크 랜드연구소를 비롯한 국방 전문가들은 핵 지휘 체계에 인공지능 알고리즘을 결합할 때 발생하는 위험성을 지속적으로 고발해 왔다. 연구 보고서들에 따르면 시스템의 환각 현상은 단순한 오류를 넘어 핵전쟁의 도화선이 될 수 있는 잠재적 위험 요인이다. 보고서들은 기술적 우위를 점하려는 국가 간의 속도 경쟁이 검증되지 않은 지능형 시스템에 핵 투하의 실질적 결정권을 넘겨주는 파멸적 결과를 초래할 수 있음을 경고한다.
외교안보 전문가들은 미, 중, 러시아 등 강대국들이 경쟁적으로 인공지능을 핵 통제 체계에 통합하는 과정에서 시스템 오류 검증이라는 필수적인 안전장치가 소홀해질 수 있다는 비정한 현실을 지적한다. 인간의 통제를 벗어난 알고리즘이 살상 우선순위를 판단하게 되는 상황은 이제 공상과학이 아닌 목전의 안보 위협으로 다가오고 있다.
환각 현상이 빚어낸 가공의 선제 타격 신호
인공지능의 고질적인 문제인 환각 현상은 핵 통제 체계에서 해프닝에 그치지 않는다. 인공지능은 존재하지 않는 적의 미사일 발사 징후를 감지하거나 평범한 군사 신호를 실제 공격 상황으로 오인하여 보고할 위험이 있다. 특히 가용 데이터가 부족한 극한의 대립 상황에서 인공지능은 비논리적인 추론을 확신을 가지고 내놓는 경향이 있다. 이 거짓 정보가 지휘관의 의사결정 경로에 주입될 경우, 인류는 실제 공격이 없었음에도 보복 타격을 승인하는 모순된 상황에 직면하게 된다.
초단위로 압축된 결심의 시간과 인간 배제 리스크
인공지능 도입의 명분은 인간이 따라갈 수 없는 초고속 판단력이다. 극초음속 미사일이 수분 내에 목표에 도달하는 현대전에서 인공지능은 즉각적인 대응을 보장하는 것처럼 보인다. 그러나 판단 속도가 빨라질수록 인간 지휘관이 인공지능의 권고안을 정밀하게 검토하고 거부권을 행사할 시간적 여유는 사라진다. 결과적으로 핵 단추의 최종 결정권은 인간의 손을 떠나 알고리즘의 연산 내부로 빨려 들어가게 된다. 시스템의 오류를 깨달았을 때는 이미 대응이 불가능한 시점일 확률이 높다.
적대적 머신러닝과 알고리즘 기만 전술의 공포
인공지능 기반 핵 통제 체계의 또 다른 약점은 적대적 공격에 의한 판단 교란이다. 상대국이 조작된 데이터를 흘려 인공지능의 판단 기준을 무너뜨리는 적대적 머신러닝 공격을 감행할 경우, 아군의 핵 통제 시스템은 아군을 공격 목표로 재설정하거나 시스템 전체가 마비될 수 있다. 물리적 충돌 없이 코드 몇 줄만으로 상대의 핵 억제력을 무력화하거나, 역으로 상대가 핵을 쏘도록 유도하는 고도의 인지전이 핵전쟁의 새로운 양상으로 부상하고 있다.
전쟁의 안개 속에서 눈 먼 인도자에게 길을 묻다
기술적 진보가 도덕적 책임감을 압도하는 지점에서 비극은 시작된다. 지휘관들이 인공지능이 제공하는 수치와 확률을 맹신하게 되면 인간 고유의 직관과 윤리적 고뇌는 마비될 수 있다. 수백만 명의 생명이 걸린 결정을 내리면서 알고리즘이 제시한 확률에 안주하는 순간, 핵 통제 체계는 인류를 지키는 방패가 아니라 사지로 몰아넣는 위험한 인도자가 된다.
기술 만능주의 경계와 인간 통제권의 회복
랜드연구소와 주요 안보 전문가들의 조언은 인류가 아직 인공지능에게 핵 통제권을 넘길 준비가 되지 않았음을 시사한다. 인공지능은 보조적인 정보 분석 도구로 남아야 하며, 핵무기 사용과 관련된 핵심 결정 경로에는 반드시 인간의 개입이 보장되어야 한다. 기술적 완벽함이라는 신화에 매몰되어 인류 최후의 안전장치를 해제하려는 시도는 멈춰야 한다. 지구의 운명을 코딩된 스크립트에 맡기기에는 우리가 잃을 것이 너무나 많다. 인류의 미래는 알고리즘의 계산이 아닌 인간의 지혜로운 선택 위에 있어야 한다.
이교관 글로벌이코노믹 기자 haedang@g-enews.com
































