닫기

글로벌이코노믹

테슬라, 풀셀프드라이빙(FSD) 안전성 논란...어린이 인식 못해 사고유발 가능성↑

공유
0

테슬라, 풀셀프드라이빙(FSD) 안전성 논란...어린이 인식 못해 사고유발 가능성↑

테슬라의 풀셀프드라이빙 기능은 어린이를 인식하지 못해 사고를 불러 일으킨다는 논란에 직면해 있다. 사진=던프로젝트 동영상이미지 확대보기
테슬라의 풀셀프드라이빙 기능은 어린이를 인식하지 못해 사고를 불러 일으킨다는 논란에 직면해 있다. 사진=던프로젝트 동영상
테슬라의 풀셀프드라이빙(FSD) 기능이 테스트에서 어린이크기의 물체를 인식하지 못해 안전상의 큰 결함으로 논란을 일으키고 있다고 현지 언론이 9일(현지시간) 보도했다.

캠페인 그룹 던프로젝트(Dawn Project)는 FSD 버전 10.12.2(최신 6월 1일 출시)를 장착한 테슬라 모델 3을 사용하여 약 40km/h의 속도로 수행한 테스트에서, 어린이 크기의 마네킹을 인식하지 못해 장애물이 없는 것으로 판단, 마네킹과 충돌했다고 밝혔다. 운전자는 핸들에 손을 올리지 않았으며 이미 10만 운전자가 풀셀프드라이빙 기능을 사용하고 있다고 말했다.
테스트를 진행한 던프로젝트는 "FSD는 완전한 자율 시스템이 아니다"며 "그저 자동차 차선 변경과 자동 조종과 같은 다양한 기능을 가진 초순항 제어 프로그램일 뿐"이라고 말했다. 운전자는 운전대를 잡고 있고 언제든지 위급상황에 대응해야 한다고 강조했다.

이 프로젝트의 창시자인 댄오도우는(Dan O'Dowd)는 "일론 머스크는 테슬라의 완전 자율주행 소프트웨어가 놀랍다고 말하지만 이것은 제가 본 것 중 최악의 상용 소프트웨어"라고 말했다. 댄오도우는 1982년 그린힐스 소프트웨어를 설립하고 소프트웨어 안전을 주장해 왔으며 한동안 테슬라의 반대자로 더 광범위한 사이버 보안 문제를 논의하기 위해 치안 유지에 중점을 둔 캘리포니아의 입찰에 착수하기도 했었다.

지난 6월 초, 미국 도로교통안전국(NHTSA)은 테슬라의 오토파일럿과 관련 테슬라 시스템이 안전상의 사고를 일으킬 수 있는지 조사에 착수했으며 현재 수사가 진행중이다. 조사 발표 일주일 후, NHTSA는 일반 테슬라 오토파일럿(FSD가 아닌 레벨 2에서 작동) 기능이 394건의 운전자 보조 사고 중 270건(약 70%)에 해당한다고 밝혔다.

캘리포니아 자동차부는 테슬라가 차량이 자율적으로 운전할 수 있다는 잘못된 주장을 하고 있다며 테슬라를 고소했고 테슬라가 이번 주말까지 주장에 응하지 않으면 테슬라는 캘리포니아 자동차 판매 면허를 상실할 수도 있다.

한편, FSD뿐만 아니라 일반 오토파일럿을 포함하는 테슬라의 소프트웨어 제품군인 오토파일럿의 오작동은 수년 동안 운전자와 보행자를 포함한 여러 치명적인 사고의 요인으로 언급되어 왔다. 작년에 테슬라는 좌회전 문제를 일으킨 소프트웨어 버그가 발견된 후 테슬라는 FSD 소프트웨어 출시를 연기했는데, FSD가 완벽하지 않다는 것을 보여준 사례로 꼽힌다.


장용석 글로벌이코노믹 기자 jangys@g-enews.com