29개 기관 AI 활용 1년 새 77% 급증, 팰런티어 계약만 1조 4000억 원
바이든 규제 철폐 뒤 '속도전'…"안전장치 없는 강력한 도구" 전문가 경고
바이든 규제 철폐 뒤 '속도전'…"안전장치 없는 강력한 도구" 전문가 경고
이미지 확대보기규제 해체와 폭발적 확산
백악관 관리예산처(OMB)는 지난해 4월 모든 연방기관에 AI를 적극 도입하라는 지침을 내려보냈다. 백악관은 당시 성명에서 "연방정부는 혁신적 미국 AI 사용에 불필요한 관료적 제약을 더는 부과하지 않겠다"고 선언했다.
트럼프 대통령은 지난해 1월 취임 직후 '미국 AI 리더십 장벽 제거' 행정명령에 서명하며 바이든 행정부의 AI 안전 규제를 철회했다. 같은 해 7월에는 90개 이상의 연방 정책 과제를 담은 'AI 행동계획'을 발표했고, 12월에는 주 정부 AI 규제를 견제하는 행정명령까지 서명했다. 법무부 산하 'AI 소송 전략팀'을 설치해 연방 정책에 어긋나는 주법에 소송을 제기하도록 했다.
29개 기관이 공개한 자료에서 2025년 말 기준 활성 AI 사용 건수는 2987건으로 전년보다 1303건 늘었다. 수백 건은 '고영향(high impact)'으로 분류됐다. 중대한 의사결정의 핵심 근거로 쓰이거나 개인의 권리·안전에 영향을 미치는 용도다.
이민 단속의 첨병이 된 AI
트럼프 행정부의 추방 작전이 강화되면서 국토안보부(DHS) 공시에서 '이민'이나 '국경'을 언급한 AI 사용 건수만 151건에 이른다.
이민세관집행국(ICE)은 현장에서 얼굴을 스캔하는 '모바일 포티파이(Mobile Fortify)' 앱과 비동반 미성년자를 포함한 '취약 인구' 식별 시스템을 도입했다. 방위산업 업체 팰런티어가 구축한 생성형 AI 시스템 'ELITE'는 지난해 6월 가동을 시작해 범죄기록표나 영장 등 수기 문서에서 주소를 자동 추출, 추방 작전 부서에 제공한다. ICE는 "단속 조치의 주된 근거로 쓰이지 않으며, 요원들이 수동으로 검토해 판단한다"고 밝혔다.
팰런티어는 지난해 4월 ICE로부터 3000만 달러(약 438억 원) 규모의 수의계약을 따내 차세대 플랫폼 'ImmigrationOS' 구축에 착수했다. 여권, 사회보장 기록, 국세청 세금 자료, 번호판 판독 데이터를 통합해 추방 대상을 식별하고, 자진 출국 여부를 준실시간으로 추적한다. 연방 지출 추적 사이트 USAspending.gov에 따르면 팰런티어의 연방정부 계약 규모는 2024년 5억 4120만 달러(약 7900억 원)에서 2025년 9억 7050만 달러(약 1조 4180억 원)로 거의 두 배로 불어났다.
브루킹스연구소의 발레리 비르트샤프터 연구원은 "일부 기관 공시에서 세부 내용이 부족해 민감한 AI 사용을 온전히 평가하기 어렵다"고 지적했다.
자살 예측·챗봇 180개…의료·행정 전면 침투
재향군인부(VA)는 174건의 고영향 AI 도구를 공시해 전 기관 가운데 가장 많았다. 수술 준비 지원, 컴퓨터 비전 기반 상처 측정, 자살 위험 예측 등이 포함됐다. VA 대변인 피트 카스퍼로위츠는 "해당 시스템들은 실행 가능성 평가 단계이며, AI는 지원 도구로만 쓰이고 최종 결정은 직원이 내린다"고 밝혔다.
해외참전용사회(VFW)의 크리스 마신코위츠는 "AI가 유용한 도구이긴 하지만 완벽하지 않다"면서 "재향군인과 가족에게 직접 영향을 미치는 결정에서 정확성, 공정성, 책임성을 보장하려면 사람의 판단이 필수"라고 밝혔다.
보건복지부(HHS)는 의료 관련 AI 89건을 공시했고, 연방기관 전체에서 180개 이상 챗봇이 운영된다. 국방부 제이크 글래스먼 선임 기술관은 "약 20명의 계약직 인력을 잃고도 4명이 AI로 의무 보고서를 완성했다"고 말했다.
국방부 '전쟁하듯' AI 도입…안전장치 논란
국방부는 공시 의무 면제 기관이지만, 다른 기록을 통해 공격적 AI 실험이 확인된다. 피트 헤그세스 국방장관은 지난달 메모에서 "위험에 대한 과도한 우려에 발목 잡히지 말라"고 지시하며 AI 계약에서 '합법적 용도라면 어떤 것이든' 추가 제한 없이 허용하도록 했다.
국방부는 최근 업계에 특수작전 부대용 '에이전트형' AI 시스템 조달을 타진했다. 전투 개시·지속 여부의 제약 조건을 분석하고 민간인 사상 위험을 평가하는 용도다. 다만 실탄 사용 같은 '물리적 화력(kinetic fires)' 상황에서는 실시간 학습을 금지한다. "바람직하지 않은 행동으로 이어질 수 있기 때문"이라고 국방부는 밝혔다.
브라운대학교 수레시 벤카타수브라마니안 교수는 "문제는 특정 사용 사례 자체가 아니라, 소음이 많고 강력한 도구를 올바르게 쓸 안전장치가 마련돼 있느냐"라고 지적했다. 바이든 행정부에서 AI 안전 업무를 맡았던 그는 "가장 무해해 보이는 사용 사례도 역효과를 낼 수 있다"고 경고했다.
OMB는 지난해 4월 지침에서 "빠른 AI 혁신이 미국 국민을 희생시키거나 신뢰를 저버리는 대가로 이뤄져서는 안 된다"고 명시했다. 그러나 수천 개 도구의 실제 효과는 공시 자료만으로 확인할 수 없고, 미국 여론도 AI에 깊은 회의감을 보이고 있어, 속도 중심 전략이 신뢰 구축으로 이어질지는 미지수다
박정한 글로벌이코노믹 기자 park@g-enews.com
































