인류 구원 앞세운 ‘700조 유니콘’ 오픈AI, 권력 암투와 지배구조의 민낯
“제2의 SBF 우려”… 상장 앞둔 오픈AI, 신뢰 추락이 AI 산업 표준 가른다
“제2의 SBF 우려”… 상장 앞둔 오픈AI, 신뢰 추락이 AI 산업 표준 가른다
이미지 확대보기260명 이상을 인터뷰해 오픈AI와 샘 올트먼(Sam Altman)의 권력 행태를 추적한 카렌 하오의 저서 <AI 제국>과 뉴요커(The New Yorker), 월스트리트저널(WSJ)의 연이은 심층 보도가 그 실체를 드러내고 있다.
최근 뉴요커와 월스트리트저널(WSJ)은 수백 명의 전·현직 관계자 인터뷰를 통해 올트먼 CEO의 리더십이 사실상 ‘허상’ 위에 세워져 있다고 보도했다. 2026년 4월 현재, 기업 가치가 최대 5000억 달러(약 740조 3000억 원) 안팎으로 평가받는 세계 최대 AI 기업의 신뢰도가 뿌리째 흔들리고 있는 셈이다.
“코딩도 못 하는 기술 천재?”… 올트먼 향한 ‘사기꾼’ 경고
뉴요커는 지난 7일(현지시각) 보도에서 올트먼이 대외적으로 쌓아온 ‘기술 wiz(귀재)’ 이미지가 철저히 계산된 연출일 가능성을 제기했다. 함께 일했던 엔지니어들에 따르면, 올트먼은 기본적인 머신러닝(기계학습) 개념조차 혼동하며 실질적인 프로그래밍 능력은 미달 수준인 것으로 알려졌다.
마이크로소프트(MS)의 한 고위 임원은 인터뷰에서 “올트먼이 결국 버니 메이도프나 샘 뱅크먼-프리드(FTX 설립자) 수준의 사기꾼으로 기억될 가능성이 실재한다”고 직격탄을 날렸다. 업계에서는 그가 기술적 깊이보다는 상대방의 마음을 조종해 생각을 바꾸거나 특정 행동을 하게 만드는 기술인 이른바 ‘제다이 마인드 트릭’으로 불리는 교묘한 협상술과 스토리텔링으로 투자자와 이사진을 설득해 왔다는 냉정한 평가가 나온다.
다만 실리콘밸리 일각에서는 올트먼을 “직접 코드를 짜는 기술 천재라기보다는, 자본과 인력을 모아 위험을 감수하는 정치형 경영자”로 보는 시각도 공존한다. 문제는 이런 유형의 리더십이 초지능(AGI)처럼 잠재적 파괴력이 큰 기술에서 허용 가능한지에 대한 사회적 합의가 전혀 없다는 점이다.
앤스로픽의 탄생 비화, “AGI를 핵보유국에 팔자?”
오픈AI의 숙적으로 꼽히는 앤스로픽(Anthropic)이 탄생한 배경도 심상치 않다. 8일(현지시각) WSJ 보도에 따르면 2017년 공동 창립자 그렉 브록맨은 내부 회의에서 초지능(AGI) 기술을 유엔 안전보장이사회 상임이사국 등 핵보유국에 판매하자는 위험한 아이디어를 제안했다. 이에 다리오 아모데이 당시 연구 책임자는 “러시아나 중국에 인류의 운명을 넘기는 것은 반역 행위”에 가깝다며 거세게 반발했다.
이 과정에서 올트먼은 표면적으로는 아모데이 형제를 달래면서도, 이면에서는 더욱 상업주의적인 노선을 지지하는 이중적 태도를 보인 것으로 전해진다. 결국 2020년 말 “오픈AI가 안전보다 권력과 돈에 눈이 멀었다”라고 판단한 핵심 인력 10여 명이 집단 이탈해 세운 회사가 현재 기업 가치 3800억 달러(약 563조 원) 안팎으로 평가받는 앤스로픽이다.
‘지능화 시대’ 선언은 IPO용 연막작전인가
최근 오픈AI는 ‘(인공) 지능 시대의 산업 정책’ 제안서를 통해 임금 삭감 없는 주 4일 32시간 근무제 시범 운영과 ‘공공 자산 펀드(Public Wealth Fund)’, 이른바 로봇세·AI 배당 구상을 일괄 제시하며 “AI가 기업 이윤은 늘리고 노동 소득은 줄이는 구조를 뒤집겠다”고 강조했다. AI가 창출한 부를 정부·국부펀드를 통해 시민에게 직접 배당하자는 청사진은 알래스카 영구기금 모델을 디지털 경제에 적용한 버전으로도 소개됐다.
하지만 내부 증언은 이 화려한 ‘지능화 시대’ 구상이 기업공개(IPO)를 앞둔 평판 관리용 연막에 불과할 수 있음을 시사한다. 지난해 5월 퇴사한 얀 레이커 전 슈퍼얼라이먼트(초정렬) 팀장은 “안전 연구에 컴퓨팅 자원의 20%를 쓰겠다는 경영진의 약속은 거짓이었고, 실제로는 1% 남짓만 배정됐다”고 폭로했다. 그는 “화려한 제품 출시가 안전보다 우선되는 문화에서는 더는 일할 수 없다”며 앤스로픽으로 자리를 옮겼다.
오픈AI는 한편으로 주요 모델의 유해 콘텐츠 대응, 환각(hallucination) 빈도, 탈옥(jailbreak) 방어력 등을 수치로 공개하는 ‘안전성 평가 허브’를 열고 “AI 모델 안전성 평가를 지속 공개하겠다”며 방어에 나섰다. 그러나 안전 예산의 실제 집행 비율과 AI 안전 조직의 권한, 최고경영진에 대한 견제 메커니즘이 불투명한 상황에서 이런 지표 공개가 “IPO를 앞둔 이미지 세탁”에 그칠 수 있다는 회의론도 만만치 않다.
카렌 하오는 <AI 제국>에서 올트먼을 “타인의 인정에 목매면서도 거짓말의 결과에는 무감각한 전형적인 인물”로 묘사하며, 그가 반복적으로 약속을 과장하거나 뒤집는 패턴이 오픈AI 거버넌스의 최대 리스크라고 지적한다. 생전에 올트먼과 교류했던 해커·프로그램머 에런 스와츠 역시 그를 “사회적 공감 능력이 결여된 인물”로 평가한 바 있다.
‘700조 유니콘’의 역설… 올트먼 리더십 리스크가 시장에 던진 과제
오픈AI를 둘러싼 이번 논란은 단순한 내부 갈등을 넘어, 인공지능(AI) 산업 전체의 신뢰 구조를 뒤흔드는 거버넌스 리스크로 번지고 있다. 전문가들은 특히 세 가지 핵심 리스크에 주목한다.
첫째는 거버넌스의 불확실성이다. 비영리 이사회가 영리 자회사를 통제하는 이율배반적인 구조 속에서 2023년 올트먼 해임·복귀 사태 같은 신뢰 붕괴가 이미 한 차례 벌어졌고, 이는 향후 기업공개(IPO) 심사 과정에서 미국 증권거래위원회(SEC)와 각국 규제 당국이 가장 먼저 들여다볼 지점이 될 가능성이 크다. 투자수익 상한선 100배, CEO의 지분 0%, 마이크로소프트(MS)의 이사회 의석 부재 등 독특한 설계가 “공공성 담보 장치”인지, “책임 회피 구조”인지를 둘러싼 질문이 쌓여가고 있다.
둘째는 핵심 인재의 연쇄 이탈이다. 안전성을 중시하던 엔지니어와 연구자들이 앤스로픽 등 경쟁사로 대거 자리를 옮기면서, 오픈AI가 가졌던 압도적 기술 우위가 ‘불패 신화’에서 ‘강력한 1위’ 수준으로 재조정되고 있다는 평가가 나온다. 특히 레이커 등 안전·초정렬 파트의 핵심 인력이 빠져나간 자리를, 단기간에 고액 스톡옵션과 공격적 스카우트로 메우는 방식이 장기적으로 모델의 안정성과 조직 문화에 어떤 영향을 줄지에 대한 우려도 커지고 있다.
셋째는 윤리적 레드라인의 붕괴다. 군사적 활용을 자제하겠다던 초창기 약속과 달리 오픈AI가 최근 국방·정보 계약을 빠르게 확대하며, 자사 모델을 군사·감시 영역에 공급하는 방향으로 선회하고 있기 때문이다. 이는 기업의 단기 수익에는 도움이 될지 몰라도, ESG(환경·사회·지배구조) 자본의 이탈과 시민사회의 반발을 동시에 부를 수 있는 기폭제가 될 수 있다.
시장은 샘 올트먼의 실행력과 도덕성 사이에서 냉정한 선택을 강요받고 있다. 올트먼이 막대한 자본과 인재를 규합해 GPT 신화를 써 내려온 정치형 경영자라는 점은 부정하기 어렵지만, 인류의 운명을 좌우할 수도 있는 초지능(AGI) 리더에게 요구되는 도덕적 기준은 일반 기업 CEO보다 훨씬 높아야 한다는 지적이다.
한편 앞으로 투자자와 사용자의 지갑을 좌우할 변수는 제품의 가격 경쟁력이 아니라, 이 기업들이 어떤 AI 안전 표준을 만들어 가는지에 달려 있다. 초지능을 먼저 만드는 것보다 중요한 싸움이, 누가 더 신뢰할 수 있는 통제·감독 시스템을 갖추느냐의 경쟁으로 옮겨가고 있는 셈이다. 이제 독자들은 화려한 발표문 대신 ▲실제 안전 연구·컴퓨팅 예산의 집행 비율 ▲내부 감사·AI 안전 위원회의 독립성 ▲국방·감시 관련 계약의 공개 범위라는 세 가지 지표를 통해 기업의 실체를 가늠해야 한다. 오픈AI가 시작한 안전성 평가 지표 공개처럼, 정량 데이터를 외부에 내놓는 기업과 그렇지 않은 기업의 격차가 곧 ‘새로운 산업 표준’의 기준이 될 가능성이 크다.
‘기술 천재’라는 한 개인의 매력이 아니라, 시스템의 투명성과 책임성이야말로 초지능 시대 AI 산업의 진짜 경쟁력이라는 사실이 서서히 드러나고 있다.
김주원 글로벌이코노믹 기자 park@g-enews.com
































