몸값도, 공격도 챗봇이 알아서…“악당의 무기가 된 AI로 자동 협상부터 해킹까지
2025년 2,800만 건 넘게 발생, 앞으로가 더 문제
2025년 2,800만 건 넘게 발생, 앞으로가 더 문제

피쿠스 시큐리티는 지난해 발표한 보고서에서 ‘글로벌 그룹’(Global Group)이라는 랜섬웨어 조직이 AI 챗봇을 활용해 전 세계 피해자와 협상하며, 이 챗봇이 100만 달러(약 13억 8000만 원)을 넘는 큰 몸값을 요구하는 사례가 빈번하다고 알렸다. 에크렉틱IQ(EclecticIQ) 분석에 따르면, 이 그룹은 블랙 록(Black Lock) 랜섬웨어를 이름만 바꿔 운영하는 조직으로, AI 챗봇을 통해 여러 언어로 협상을 빠르고 효과적으로 처리하고 있다. 다만, 실제 몸값 협상에서는 여전히 인간 해커가 챗봇 대화 내용을 함께 확인하며 데이터를 빼내는 마감 시점을 정하는 방식으로 운영 중이다.
AI를 이용한 사이버 공격은 몸값 협상에만 그치지 않는다. 2024년 하반기에 피싱 이메일 발송량은 지난해 같은 기간보다 202% 늘었고, 사용자 계정 정보 탈취를 노린 피싱 공격은 전년보다 703% 증가했다. 특히 AI가 만든 피싱 이메일은 78%가 열람되고, 21%가 포함된 악성 링크나 첨부파일을 클릭하는 것으로 조사됐다. 사이버 위협 전문가 68%는 올해 AI로 만든 피싱 공격이 이전보다 더 잘 숨겨져 탐지하기 어려워졌다고 평가한다.
팰리새이드 리서치(Palisade Research)가 운영하는 ‘AI 에이전트 허니팟’ 시스템은 지난해 9월부터 올해 5월까지 AI 에이전트가 독자적으로 공격을 수행하는 모습을 확인했다. AI 공격 에이전트는 기존 단순 자동화 봇과 달리 시스템 내부에서 사람처럼 반응하며 침투를 시도했다. 업계에서는 이 같은 공격이 점점 더 정교해질 것으로 보고 있다.
또한 S2W 위협 인텔리전스센터 분석 결과, 최근 배포되는 악성코드에 AI나 대형 언어 모델(LLM)이 작성한 코드가 많이 포함되고 있다. 대표적으로 펑크섹(FunkSec) 랜섬웨어 조직은 악성코드와 협박문 작성에 LLM을 활용하는 것으로 확인됐다. 다크웹에서는 WormGPT, FraudGPT, DarkGPT 등 해킹용 AI 언어 모델들이 판매되고 있는데, 이들은 일반 AI와 달리 제한 없이 공격에 악용될 수 있다.
이런 가운데 MIT 테크날리지 리뷰(Technology Review)는 “2025년에는 사이버 공격 대부분이 AI 에이전트에 의해 이뤄질 것”이라고 내다봤다. 전 세계 AI 기반 공격 건수는 연간 2,800만 건을 넘었고, AI를 활용한 데이터 침해 피해는 평균 572만 달러(한화 약 79억 원)에 이르렀다. 랜섬웨어 변종 중 41%는 AI가 작동하는 적응형 공격 방식을 쓸 것으로 예상된다.
수비 기술도 함께 발전한다. 러코어더드 퓨처는 AI 기반 랜섬웨어 탐지 장비를 개발해 피해자가 공개 협박 사이트에 노출되기 최소 한 달 전에도 이상징후를 알아챌 수 있다고 밝혔다. 카스퍼스키가 발표한 올해 랜섬웨어 보고서에서는 펑크섹과 같은 AI 활용 그룹이 AI가 만든 코드와 주석으로 탐지를 피하는 사례가 늘었다고 알렸다.
한국인터넷진흥원(KISA)은 아시아·태평양 20개국과 함께 AI 악용 랜섬웨어 대응 모의훈련을 진행하며 국제 협력을 강화하고 있다. 업계는 생성형 AI에 기반한 사이버 위협이 먼 미래가 아닌 현실로 다가왔다고 보고 있다.
박정한 글로벌이코노믹 기자 park@g-enews.com