비용 40분의 1로 고속 공격… 스탠퍼드 실험서 인간 압도
“단기적 위협이자 장기적 방어 수단”… 韓 보안 생태계 지각변동 예고
“단기적 위협이자 장기적 방어 수단”… 韓 보안 생태계 지각변동 예고
이미지 확대보기AI가 단순한 보조 도구를 넘어 인간의 능력을 넘어서는 실질적 위협이자 강력한 방어 수단이 될 수 있음을 입증한 것이라고 월스트리트저널(WSJ)은 지난 11일(현지 시간) 스탠퍼드대 연구팀 실험 결과를 인용해 AI 해킹 도구가 인간 전문가를 능가하는 수준에 도달했다고 보도했다.
전문가 10명 중 9명보다 우수… “평균 이하일 줄 알았는데 압승”
스탠퍼드대 연구팀은 자체 개발한 AI 해킹 봇 ‘아르테미스’를 실제 대학 엔지니어링 네트워크에 투입해 그 성능을 시험했다. 비교 대상은 고용된 10명의 인간 모의 해킹 전문가였다. 결과는 예상을 뒤엎었다. 아르테미스는 인간 전문가 10명 중 9명을 제치고 더 많은 보안 취약점을 찾아내는 기염을 토했다.
연구를 주도한 저스틴 린 연구원은 당초 아르테미스의 성능에 큰 기대를 걸지 않았다고 밝혔다. 그는 “AI가 패턴 인식이나 대화에는 능하지만, 복잡한 추론과 실행이 필요한 실제 해킹에서는 평균 이하일 것으로 예상했다”고 말했다. 하지만 아르테미스는 네트워크를 스캔하고 취약점을 식별해 이를 공격하는 전 과정을 놀라운 속도로 수행했다.
특히 비용 효율성 측면에서 인간을 압도했다. 롭 라간 비숍폭스 연구원에 따르면 인간 전문가가 하루에 2000~2500달러(약 295만~369만 원)의 비용이 드는 반면, 아르테미스의 운용 비용은 시간당 60달러(약 8만 7000원) 미만에 불과했다. 이는 저비용으로 대규모의 빈틈없는 보안 점검이 가능해졌음을 의미함과 동시에, 해커들이 헐값에 강력한 공격 도구를 손에 쥐게 됐다는 경고이기도 하다.
화면 없는 ‘낡은 코드’ 읽는 AI의 눈
아르테미스의 능력은 인간이 간과하기 쉬운 사각지대에서 빛을 발했다. 실험 중 아르테미스는 인간 전문가들이 사용하는 크롬이나 파이어폭스 같은 최신 웹 브라우저에서는 열리지도 않는 노후화된 웹페이지에 접속해 치명적인 버그를 찾아냈다.
인간은 눈에 보이는 화면에 의존했지만, 아르테미스는 화면 대신 ‘컬(Curl)’이라는 데이터 전송 도구를 사용해 서버의 원시 코드를 직접 읽어냈기 때문이다. 인간의 도구로는 접근조차 어려웠던 영역을 AI 특유의 데이터 처리 방식으로 뚫어낸 셈이다.
오픈소프트웨어 ‘컬(Curl)’의 관리자 다니엘 스텐버그는 “AI가 거짓 정보를 쏟아내기도 하지만, 동시에 누구도 발견하지 못한 실수를 찾아내기도 한다”고 평가했다. 실제로 지난해 가을부터 AI 기반의 코드 분석 도구들이 생성한 고품질 버그 리포트가 400건 넘게 접수되는 등 변화가 감지되고 있다.
‘창과 방패’의 대결… 공격자의 AI 무장 가속화
문제는 방어자뿐만 아니라 공격자들도 이미 AI를 적극적으로 활용하고 있다는 점이다. 앤스로픽(Anthropic)의 위협 인텔리전스 책임자 제이콥 클라인은 “수많은 행위자가 생산성을 극대화해 엄청난 규모로 버그를 찾아내는 시점에 와 있다”고 경고했다. 실제로 중국과 연계된 해커 그룹이 앤스로픽의 생성형 AI 모델을 활용해 주요 기업과 정부 네트워크 침투를 시도한 정황이 포착되기도 했다.
스탠퍼드대 알렉스 켈러 시스템 보안 책임자는 이번 실험에 대해 “위험보다 이익이 훨씬 크다”며 “전 세계적으로 보안 검증을 거치지 않은 코드가 넘쳐나는 상황에서 아르테미스와 같은 도구는 장기적으로 방어자들에게 큰 축복이 될 것”이라고 내다봤다. 댄 보네 스탠퍼드대 교수 역시 장기적인 이점을 인정하면서도 “단기적으로는 LLM(거대언어모델) 검증을 거치지 않은 소프트웨어들이 새로운 위협에 노출될 수 있다”고 우려를 표했다.
‘사이버 안보’ 최전선 한국, AI 방어 체계 전환 시급
세계 최고의 IT 인프라를 갖춘 한국은 역설적으로 사이버 공격의 가장 매력적인 표적이다. 북한의 지속적인 해킹 위협과 더불어, 최근에는 중국 및 러시아 발(發) 사이버 정찰 활동까지 겹치며 안보 위협이 최고조에 달했다. 이번 스탠퍼드대의 실험 결과는 한국의 보안 전략에 묵직한 과제를 던진다. 공격자들은 이미 ‘저비용 고효율’의 AI 무기를 손에 쥐었다. 인간 전문가의 수작업에 의존하는 기존 관제 시스템으로는 AI가 24시간 쉬지 않고 쏟아붓는 자동화된 공격을 막아내는 데 한계가 있다.
시급한 것은 ‘공세적 방어’로의 태세 전환이다. 정부와 기업은 AI 기반의 자동화된 모의 해킹 시스템을 도입해, 해커가 공격하기 전에 먼저 취약점을 찾아내고 메우는 선제적 방어 체계를 구축해야 한다. 또한, 현재 형식적으로 운영되는 경우가 많은 ‘버그 바운티(취약점 신고 포상제)’ 제도를 전면 개편해야 한다. AI를 활용한 고품질의 취약점 제보에 대해 파격적인 보상을 제공함으로써, 화이트 해커들이 AI 도구를 적극적으로 활용해 방어막을 두텁게 만들도록 유인해야 한다. AI 보안은 이제 선택이 아닌 생존의 문제다.
박정한 글로벌이코노믹 기자 park@g-enews.com
































