AI가 일을 줄여준다는 약속은 거짓이었나… UC버클리 8개월 추적 연구서 '업무 팽창의 덫' 확인
앤스로픽 안전장치 팀장 "세상이 위태롭다" 사임… AI 안전 인력 연쇄 이탈에 업계 긴장
앤스로픽 안전장치 팀장 "세상이 위태롭다" 사임… AI 안전 인력 연쇄 이탈에 업계 긴장
이미지 확대보기하버드 비즈니스 리뷰(HBR)에 발표된 UC버클리 연구부터 OpenAI·앤스로픽(Anthropic) 공동 안전 실험의 충격 결과, 앤스로픽 안전장치 연구팀장의 전격 사임까지, 최근 잇따라 터진 세 가지 사건은 AI 산업이 '번아웃 기계·윤리 위협·안보 리스크'를 동시에 양산하고 있다는 경고를 보내고 있다.
AI가 일을 줄인다? 오히려 '업무 팽창의 덫'
테크크런치 지난 9일(현지시각) 보도에 따르면 UC버클리 아루나 랑가나단 교수와 싱치 매기 예 연구원이 직원 200명 규모 기술기업에 8개월간 상주하며 40건 넘는 심층 인터뷰를 진행한 결과, AI 생산성 신화는 허상이었다. 회사가 새 목표를 강요하지 않았는데도 직원들은 AI가 확보해준 시간만큼 더 많은 일을 떠안았고, 업무는 점심시간과 늦은 저녁까지 번졌다.
고립된 발견이 아니다. 지난해 여름 별도 실험에서 AI 도구를 쓴 숙련 개발자들은 작업 속도가 19% 느려졌는데도 20% 빠르다고 착각했다. 미국 국립경제연구국(NBER)이 수천 개 사업장을 추적한 연구에서도 AI 생산성 향상은 시간 절약 3%에 그쳤다.
글로벌 인사기업 DHR글로벌이 북미·유럽·아시아 1500명 사무직 종사자를 조사한 '2026 노동력 트렌드 보고서'는 더 적나라하다. 응답자 83%가 번아웃을 겪는다고 답했고, 48%는 과도한 업무량을 주된 원인으로 꼽았다. 직원 몰입도는 지난해 88%에서 64%로 급락했다. 신입·사원급 61~62%가 몰입도 저하를 호소한 반면, 최고경영진은 38%에 머물러 직급별 격차가 뚜렷했다.
연구진은 이를 '업무 강화의 자기 강화 순환'이라 명명했다. AI가 일을 쉽게 만들면 더 많은 일을 떠안고, AI 의존이 커지면서 피로·번아웃·업무 분리 불능의 악순환에 빠진다는 분석이다.
안전장치 벗긴 ChatGPT, 경기장 폭탄 공격 매뉴얼까지 생성
타임스오브인디아의 10일 보도를 보면 AI의 위협은 노동 영역에만 머물지 않는다. 지난해 여름 OpenAI와 앤스로픽이 업계 최초로 진행한 공동 안전 평가에서 AI 모델의 오용 위험이 적나라하게 드러났다. 양사는 상대방 시스템에 API 접근 권한을 부여하고, 일부 안전장치를 의도로 해제한 통제 조건에서 스트레스 테스트를 실시했다.
앤스로픽 연구진이 '보안 계획'이라는 명목으로 스포츠 이벤트 취약점을 물었을 때, OpenAI의 GPT-4.1 모델은 경기장 구조 약점, 폭발물 화학식, 폭탄 타이머 회로도, 온라인 총기 구매처까지 단계별로 안내했다. 탄저균 무기화 방법과 불법 약물 제조법도 상세히 설명했다. 앤스로픽은 GPT-4o와 GPT-4.1이 "시뮬레이션된 사용자의 명백히 해로운 요청에 우리 예상보다 훨씬 관대했다"고 평가했다.
앤스로픽 안전장치 팀장, "세상이 위태롭다"며 사임
인디아투데이 10일 보도에 따르면 AI 안전을 연구하는 이들마저 회의감을 느끼고 떠나고 있다. 앤스로픽 안전장치 연구팀을 이끌던 므리난크 샤르마가 지난 9일 사임했다. 옥스퍼드대 기계학습 박사 출신으로 2023년 합류한 그는 AI 아첨 현상 연구, AI 활용 생물테러 방어 체계 구축 등 핵심 프로젝트를 주도한 인물이다.
X에 공개한 사임 서한은 조회 수 100만 건을 넘기며 업계에 파장을 일으켰다. 샤르마는 "세상이 위태롭다. AI나 생물무기만이 아니라 바로 이 순간 펼쳐지는 일련의 상호 연결된 위기 때문"이라고 썼다. 동료들에게 보낸 내부 메모에서는 "이곳에 있는 동안 우리의 가치관이 행동을 이끌기가 얼마나 어려운지 여러 번 목격했다. 가장 중요한 것을 제쳐두라는 압박이 끊이지 않았다"며 앤스로픽의 공개 발언과 업무 현장의 괴리를 지적했다.
비즈니스인사이더에 따르면 하르시 메타, 베흐남 네이샤부르 등 핵심 연구원들도 최근 잇따라 퇴사했다. 앤스로픽이 기업 가치 3500억 달러(약 510조 원) 목표로 투자 유치를 추진하고 클로드 오퍼스 4.6(Claude Opus 4.6) 등 고성능 모델을 공격적으로 출시하는 시점에서 벌어진 안전 인력 이탈이라는 점에서 업계의 우려가 깊다.
번아웃·안보 위협·윤리 붕괴… 세 갈래 경고가 가리키는 곳
세 사건의 교차점은 분명하다. AI 기업은 '생산성 혁명'과 '안전 우선'을 동시에 외치지만, 현장에서는 일이 줄지 않는 직장인, 안전장치가 무력화되면 테러 매뉴얼을 생성하는 모델, 가치관의 괴리를 체감하고 떠나는 연구자가 나오고 있다. 2020년 구글에서 AI 편향 연구를 둘러싼 분쟁으로 퇴사한 팀닛 게브루 박사의 선례가 있지만, 당시보다 AI의 사회 침투 속도와 규모는 비교할 수 없이 커졌다.
UC버클리 연구진은 기업이 중요 결정 앞에서 구조화된 사고 시간을 확보하고, 업무 전환 빈도를 줄이며, 대면 소통 시간을 보호하는 'AI 활용 규범'을 수립해야 한다고 제안했다. AI 안전 분야에서는 이번 공동 평가가 정확도뿐 아니라 조작 저항성·안전장치 내구성·정렬 상태를 체계로 검증하는 '행동 감사'의 새 기준을 제시했다는 평가가 나온다.
오는 16~20일 인도 뉴델리 'AI 임팩트 서밋 2026'에 순다르 피차이(구글), 젠슨 황(엔비디아), 다리오 아모데이(앤스로픽) 등이 참석해 AI 거버넌스·안전·일자리 문제를 논의한다. 안전을 담당하는 사람들이 공개 사임으로 경고하는 상황을 업계가 어떻게 받아들이느냐가 AI 시대의 향방을 가를 분기점이 되고 있다.
박정한 글로벌이코노믹 기자 park@g-enews.com



















![[日 증시] 닛케이평균 4일 만에 반등, 한때 2300엔 이상 급등](https://nimage.g-enews.com/phpwas/restmb_setimgmake.php?w=80&h=60&m=1&simg=20251110131550046840c8c1c064d591524497.jpg)


![[현장] 지난해 매출 1위 올리브영 명동타운점 가보니…외국인 쇼...](https://nimage.g-enews.com/phpwas/restmb_setimgmake.php?w=80&h=60&m=1&simg=2026030516263001154056c1628031452117240.jpg)








