닫기

글로벌이코노믹

러시아-우크라이나 전장에 '치명적' 살인로봇 등장

공유
3

러시아-우크라이나 전장에 '치명적' 살인로봇 등장

AI 알고리즘으로 목표물 찾고 무차별 공격 가능성에 '경악'

러시아의 AI 킬러 드론.이미지 확대보기
러시아의 AI 킬러 드론.
러시아가 우크라이나 침공 전쟁에서 치명적인 자율무기를 사용 중인 것으로 드러났다. 살인 로봇 금지를 거부하고 있으며 중국 역시 이에 대해 모호한 입장을 보이고 있다.

반면 미국은 금지 법률을 발동 중이며, 시민사회의 압력이 높아가고 있다.
인간을 죽일 수 있는 로봇은 공상 과학 소설이 아니다. 치명적인 자율 무기 시스템은 이제 전투에서 현실이 되었으며 모스크바와 키예프 충돌 현장에서 일부를 사용했다는 보고가 있다.

기존의 무인 항공기와 달리 이 시스템은 자체적으로 탐색할 수 있는 기능이 있으며 일부는 목표물을 식별하고 치명적 탄약을 발사할 수 있지만 위험은 이러한 기술이 전 세계에 널리 보급되면 이를 통제하기 위해 지금까지 논의하는 것 외에는 아무것도 하지 않은 국가에 대해 이런 무기의 위험을 처리하기 위한 새로운 강제적 접근 방식을 요한다.

네덜란드에 기반을 둔 ‘팍스 포 피스(Pax for Peace)’에 따르면 러시아의 우크라이나 공격 시작 몇 주 후 국방 분석가들은 전장에서 살인 로봇을 발견했다.

우크라이나인들은 키예프의 거리에서 비행기 전면이 박살나고 후면 프로펠러가 뒤틀린 러시아 무인 항공기 사진을 찍었다. 오작동으로 인한 것일 수도 있지만 비행기 사진을 소셜 미디어에 올리자 무기 전문가들은 이를 러시아 무기와 제휴한 드론 산업의 계열사인 ‘잘라 에어로(Zala Aero)’라는 회사가 만든 “캡-블라(Cap-Bla)” 모델로 식별되었다.

제조사인 칼라시니코프(Kalashnikov)가 개발한 이 비행기는 특정 지역을 독립적으로 비행한 후 최대 30분 동안 주위를 회전하고 AI 기술을 사용하여 목표물을 결정한 다음 공격할 수 있기 때문에 자살 폭탄 또는 “카미카제”로 알려져 있다.

한편, 살인로봇은 우크라이나도 보유하고 있다. 자율성이 있는 터키제 ‘바이락타르 TB2’ 항공기를 사용 중이다. 무기의 자율적 운용 방식이 사용되는지 여부를 판단하기는 어렵지만 유엔 보고서에 따르면 리비아에서 이전에 최소 한 번은 사용된 적이 있으며 전쟁 중 더 많이 사용됐을 것으로 추정된다.
우크라이나는 이에 대해 확인해주지 않고 있다.

기존 드론과 달리 이 살인 비행 로봇은 스스로 탐색하고 비행할 수 있을 뿐만 아니라 일부 치명적인 자율무기 시스템은 적 레이더 시스템, 탱크 및 선박 그룹 식별을 포함하여 기계 학습 알고리즘을 통해 목표를 찾기 위해 지역을 배회할 수 있다.

이런 무기는 그룹으로 조립할 수 있으며 자율 시스템은 수정된 ‘알바트로스 L39(Albatros L39)’와 같은 AI 주도 전투 무인 항공기 또는 자율 프로그램으로 용도가 변경된 상업용 무인 항공기 보다 훨씬 클 수 있다.

사람이 타격 여부를 결정할 수 있지만 결정을 항공기에 맡길 수 있다. 이런 무기는 기술 발전을 가속화하면 시간이 지남에 따라 점점 더 많은 자율 기능을 확보할 수 있다. 이제 전 세계의 군대와 준군사 조직들은 이런 로봇의 기능을 알아차렸으므로 이 기술은 널리 보급될 준비가 되었다.

러시아, 한국, 이스라엘, 터키는 자율 능력이 있는 무기를 배치한 국가 중 하나이며 미국, 중국, 호주, 영국은 치명적 자율 무기 시스템 개발에 막대한 투자를 하고 있다.

하지만 2019년 1월 22일 ‘입소스(Ipsos)’가 실시한 설문조사에서 26개국 응답자의 61%가 치명적인 자율무기의 사용에 반대하는 것으로 나타났다. 최근 몇 년 동안 자율무기가 개발된 이후 전 세계적으로 큰 우려가 제기되었다.

사람들은 기계가 사람을 죽이는 것을 허용하지 않아야 한다는 입장이다.

현재 AI는 효율성에도 불구하고 복잡하고 역동적인 환경에서 쉽게 속거나 실수를 할 수 있기 때문에 올바른 표적을 식별하기 어렵게 만들고 민간인과 군인을 위험에 빠뜨릴 수 있다.

국가, 국제 NGO, 과학자 및 인공 지능 전문가가 치명적인 자율 무기 시스템에 대해 우려하는 데에는 여러 가지 이유가 있다.

이러한 결과 중 하나는 이러한 무기가 표적으로 삼는 사람의 수에 제한이 없고 안면 인식 및 기타 기술을 통해 특정 설명에 맞는 개인 또는 그룹을 표적으로 삼을 수 있다는 점을 감안할 때 대규모 폭력을 조장할 수 있다는 점이다. 폭력적인 단체나 국가의 군대를 끌어들이면 정치적 암살과 인종 청소로 이어질 수 있다.

가장 위험한 것은 이런 무기를 사용하여 무기를 통제하는 사람들이 자신의 신원을 숨기기 쉽게 만들어 정치 체제를 전복하고 사회에서 폭력과 테러의 범위를 확대할 수 있다는 점이다.

또한 이런 무기는 혼란스러운 전장 상황에서 민간인과 군인을 오인해 잘못 살상을 범할 수 있다.

국제사회는 이 문제를 논의할 필요가 있다는 데 동의하는 한편, 치명적인 자율무기 시스템을 개발하는 데 앞장서고 있는 국가들은 금지 요구에 저항하고 있다. 미국은 살상 로봇을 규제하되 무력 사용에 대한 적절한 수준의 인간 통제가 있을 경우 사용을 보장하도록 설계되어야 한다는 입장이다.

이에 반해 중국은 치명적 자율무기체계에 대한 좁은 정의를 내세우며 일반법규의 적용을 충분히 검토할 필요가 있음을 시사하는 입장이다.

러시아는 이에 대해 고려조차 하지 않고 외교적 수단을 동원해 교착상태를 유지하고 있다.

안토니오 구테흐스 유엔 사무총장이 정치적으로 용납할 수 없는 것으로 묘사한 바와 같이 대부분의 국가가 치명적인 자율 무기의 개발 및 사용 금지 또는 최소한 규제를 요구했지만 유엔은 규제를 가할 힘이 없다.

치명적인 자율무기를 규제하려는 국제 사회의 시도는 8년 간의 기술적 논의 끝에 2021년 12월 역사적인 회의에서 법적 구속력이 있는 법률을 확정하는 데 실패했다.


박정한 글로벌이코노믹 기자 park@g-enews.com