오스틴 학구 24건 위반 적발, 소프트웨어 리콜 후에도 불법 추월 반복
미 NHTSA·NTSB 정밀 조사 착수, '안전보다 효율' 앞세운 알고리즘 정조준
미 NHTSA·NTSB 정밀 조사 착수, '안전보다 효율' 앞세운 알고리즘 정조준
이미지 확대보기미국 IT 전문 매체 와이어드(WIRED)가 지난달 29일(현지시각) 보도한 내용에 따르면, 텍사스주 오스틴에서 운행 중인 구글 웨이모(Waymo) 자율주행차가 정차 중인 스쿨버스를 무시하고 추월하는 사례가 잇따라 발생하며 인공지능(AI) 주행 알고리즘의 근본적인 설계 오류에 대한 비판이 거세지고 있다.
이번 사건은 오스틴 독립 학구(AISD) 내에서 웨이모 차량이 스쿨버스의 정지 신호와 보조 정지 표지판(Stop Arm)을 인식하고도 주행을 강행한 사례가 20건 이상 공식 확인되면서 촉발됐다.
조사 결과, 자율주행 AI가 주변 인간 운전자의 불법적인 추월 행위를 '정상적인 흐름'으로 오판하여 학습함으로써 교통법규 준수보다 주행 효율성을 우선시하는 편향성을 보인 것으로 분석된다.
리콜 후에도 이어진 '불법 추월'… 인간의 나쁜 습관 닮아가는 AI
와이어드의 보도 내용에 따르면 오스틴 학구와 NTSB가 공동 조사한 결과, 지난 학기 동안 해당 지역에서만 웨이모 차량의 스쿨버스 정지 신호 위반이 최소 24건 발생했다.
특히 웨이모가 지난해 12월 약 3000대의 차량에 대해 소프트웨어 업데이트를 실시하며 안전성 강화를 약속했음에도, 업데이트 이후 5건 이상의 위반 사례가 추가로 기록됐다는 점은 기술적 해결의 난항을 시사한다.
실제 주행 데이터를 분석하면 자율주행 AI의 위험한 학습 패턴이 고스란히 드러난다. 스쿨버스 뒤에 정상 정차했던 웨이모 차량이, 뒤따르던 일반 차량이 중앙선을 침범해 스쿨버스를 추월하자 이를 정당한 주행 경로로 인식하고 함께 움직인 사례가 확인됐다.
이는 AI가 '법규'라는 절대 원칙보다 '주변 차량의 움직임'이라는 가변적 데이터를 상위 가치로 두면서 발생한 오류로 풀이된다.
원격 지원 요원의 판단 착오까지… '집단 학습' 시스템의 맹점
NTSB가 지난 1월 12일자로 발표한 보고서는 기계적 결함 외에도 인적 관리 부실을 지적했다. 특정 위반 상황에서 웨이모 차량이 본사의 '원격 지원(Remote Assistance)' 요원에게 스쿨버스 신호 활성화 여부를 확인했으나, 요원이 상황을 오판하여 주행을 승인한 것으로 밝혀졌다.
웨이모가 자랑해 온 '집단 학습' 시스템은 한 대의 실수를 전 부대(Fleet)가 공유하여 지능을 높이는 방식이지만, 이번 사례처럼 오염된 데이터나 인간의 오판이 시스템 전체로 확산될 수 있다는 치명적인 약점을 노출했다.
업계에서는 자율주행 알고리즘이 효율적인 흐름을 맞추는 최적화 과정에서 교통 규범을 경시하는 '사회적 학습의 역설'에 빠졌다는 분석이 지배적이다.
연방 정부 전방위 조사 착수… '안전 가이드라인' 강화 전망
현재 미국 도로교통안전국(NHTSA)은 웨이모의 스쿨버스 주변 주행 행태를 정밀 평가 중이며, 결과에 따라 강제 리콜이나 징벌적 과징금 부과 가능성도 열려 있다
오스틴과 애틀랜타 등 주요 학구들은 어린이 안전을 근거로 등하교 시간대 자율주행 운행 중단을 강력히 요구하고 있으나, 웨이모 측은 서비스 연속성을 이유로 이를 수용하지 않는 처지다.
이러한 갈등 속에 텍사스주 당국은 오는 5월 28일부터 자율주행차의 상업 운행 허가 요건을 강화하는 신규 법안(SB 2807)을 시행할 예정이다.
이 법안이 발효되면 반복적인 안전 수칙 위반 차량에 대해 주 정부가 직접 운행 허가를 취소할 수 있게 되어, 자율주행 기업들의 책임 경영 압박은 더욱 거세질 것으로 보인다.
기술 완성도보다 '윤리적 가이드라인' 확립이 우선
자율주행 기술이 시장의 신뢰를 얻기 위해서는 단순히 사고를 피하는 능력을 넘어, 공동체의 약속인 교통법규를 사수하는 '기계적 강직함'을 증명해야 한다.
이번 웨이모 사태는 인공지능이 인간의 능력을 추월하는 과정에서 인간의 무책임한 주행 습관까지 학습하지 않도록 엄격한 '윤리적 필터'를 장착해야 한다는 과제를 남겼다.
미래 자율주행의 승부처는 하드웨어의 성능이 아닌, 돌발 상황에서도 법적·윤리적 우선순위를 명확히 가려내는 소프트웨어의 신뢰성에 달려 있다.
자율주행 업계가 이번 오스틴 사례를 계기로 학습 알고리즘의 우선순위를 재설계하지 않는다면, 기술 확산의 가장 큰 장벽은 규제가 아닌 대중의 거센 불신이 될 것으로 전망된다.
진형근 글로벌이코노믹 기자 jinwook@g-enews.com
































