"AI 모델은 '범용품' 될 것…선택지 제공 플랫폼이 승패 가른다"
아마존 핵심 임원들, '엔비디아 탈피'·'플랫폼 강화' 양대 전략 공개
아마존 핵심 임원들, '엔비디아 탈피'·'플랫폼 강화' 양대 전략 공개
이미지 확대보기인공지능(AI) 기술의 폭발적인 보급이 클라우드 산업의 지형도를 근본부터 뒤흔들고 있다. 거대 기술 기업(빅테크)들이 데이터센터에 천문학적인 자금을 쏟아붓는 가운데, AI 연산을 위한 특화된 컴퓨팅 인프라가 새로운 주전장으로 급부상했다고 닛케이가 17일(현지시각) 보도했다. 클라우드 시장의 '절대 강자'로 군림해온 아마존 웹 서비스(AWS) 역시 AI 시대의 왕좌를 수성하기 위한 중대 기로에 섰다.
AWS에서 반도체 전략과 AI 기능을 총괄하는 핵심 임원들은 최근 닛케이와 인터뷰를 통해 격변하는 시장 환경 속에서 '왕좌 방어'를 위한 핵심 전략을 공개했다. 이들의 전략은 '자체 개발 AI 반도체를 통한 엔비디아 의존도 탈피'와 'AI 모델 범용화 시대를 대비한 플랫폼 리더십 강화'라는 두 가지 축으로 요약된다. 엔비디아 중심의 하드웨어 종속성에서 벗어나고, 특정 AI 모델이 아닌 '선택의 자유'를 제공하는 플랫폼 공급자로서의 지위를 굳히겠다는 구상이다.
"엔비디아 독주 못 봐"…자체 칩 '트레이니엄' 전면 배치
현재 AI 반도체 시장은 미국 엔비디아가 사실상 시장 점유율의 대부분을 장악하고 있다. 데이브 브라운 AWS 부사장은 이러한 엔비디아의 독점적 지위에 대해 "엔비디아는 뛰어난 제품을 보유하고 있으며, 경이적인 성과를 거뒀다"고 평가하면서도, 이러한 구조가 영원히 지속되지는 않을 것임을 분명히 했다.
AWS가 엔비디아 의존도를 낮추기 위해 전면에 내세운 무기는 자체 설계 AI 반도체 '트레이니엄(Trainium)'이다. 브라운 부사장은 "우리는 자체 설계한 트레이니엄을 고객에게 제공하고 있다"며 "AI 개발 스타트업인 앤스로픽(Anthropic)의 트레이니엄 도입 규모는 2025년 말까지 100만 개에 달할 전망"이라고 밝혔다. 이는 트레이니엄이 단순한 실험을 넘어 실제 대규모 AI 모델 구동에 투입되고 있음을 보여주는 구체적인 성과다.
트레이니엄의 핵심 경쟁력은 '비용 대비 성능'이다. 브라운 부사장은 "타사 제품(엔비디아 GPU를 지칭)보다 낮은 비용으로 동등한 수준의 성능을 발휘할 수 있다는 것이 강점"이라고 설명했다.
AWS는 앤스로픽 외에도 다양한 규모의 기업들을 고객으로 확보하며 생태계를 확장하고 있다. 브라운 부사장은 "규모가 다른 폭넓은 기업들로부터 트레이니엄에 대한 관심이 이어지고 있다"며 "일본의 리코(Ricoh)가 일본어 특화 거대언어모델(LLM) 개발에 트레이니엄을 채택한 것이 좋은 예"라고 언급했다. 그는 "시간이 걸리겠지만, 트레이니엄 도입 규모는 앞으로도 계속 늘어날 것"이라고 자신감을 내비쳤다.
AWS의 이러한 '자체 칩' 전략은 이미 중앙처리장치(CPU) 시장에서 그 성공 가능성이 입증된 모델이다. AWS는 데이터 처리의 사령탑 역할을 하는 CPU 역시 자체 설계한 제품(그래비톤 등)을 인텔이나 AMD 제품과 병용해왔다. 브라운 부사장은 "이미 매년 데이터센터에 신규 도입하는 CPU의 절반 이상은 자체 설계 제품"이라며 "AI 반도체에서도 이와 유사한 흐름을 기대할 수 있다"고 밝혔다.
"모델 아닌 플랫폼"…'선택의 자유'로 승부
하드웨어 전략이 '엔비디아 탈피'에 맞춰져 있다면, 소프트웨어 및 서비스 전략은 '플랫폼 지배력 강화'에 초점이 맞춰져 있다. 특히 경쟁사인 마이크로소프트(MS)가 오픈AI의 최첨단 모델을 독점적으로 제공하며 클라우드 사업(애저)을 급성장시킨 전략과 정면으로 대비된다.
스와미 시바수브라마니안 AWS 부사장은 생성형 AI 시장의 초기 단계를 "많은 기업이 '하나의 AI 모델이 시장을 지배할 것'이라고 생각했던 시기"로 규정했다. 하지만 AWS는 이러한 시각에 동의하지 않았다. 그는 "우리는 초기 단계부터 이용 장면에 따라 최적의 모델은 다르다고 주장해왔다"며 "최근에는 경쟁 기업들 사이에서도 이와 유사한 생각이 확산되고 있다"고 전했다. 특정 모델에 종속되기보다 다양한 모델을 활용하려는 시장의 변화를 정확히 예측했다는 설명이다.
AWS는 향후 '자율적으로 움직이는 AI 에이전트' 시대가 도래하면, 기업이 "자사의 상황에 맞는 AI를 도입할 필요성"이 더욱 커질 것으로 내다봤다. 이러한 환경 속에서 특정 AI 모델 자체는 결국 '코모디티(Commodity, 범용품)'화될 것이라는 게 시바수브라마니안 부사장의 핵심 진단이다.
모델 자체가 범용품이 된다면, 클라우드 사업자의 진정한 경쟁력은 '플랫폼'에서 나온다. 그는 "우리는 고객이 자유롭게 선택할 수 있도록 폭넓은 AI 모델과 개발 도구의 선택지를 제공한다"며, 이것이 AWS의 핵심 전략임을 분명히 했다.
다만, AI 에이전트가 현장에 도입되는 과정은 결코 순탄치 않다. 시바수브라마니안 부사장은 "기술 데모를 보면 쉽고 만능인 것처럼 보이지만, 현장에서는 개발과 도입에 방대한 작업이 필요하다"고 현실적인 어려움을 토로했다. 그는 "AI 에이전트를 현장이 제대로 활용하기까지 수 주일이 걸리는 경우도 많았다"며 "AWS는 클라우드상의 개발 기반을 통해 시스템 구축에 필요한 작업을 단축하는 것을 목표로 하고 있다"고 밝혔다.
AI 도입에 따른 일자리 대체 우려에 대해서도 입장을 밝혔다. 그는 "AI 에이전트가 반드시 고용을 대체하지는 않는다"며 "과거 기술 혁신의 역사를 돌이켜보면, 자동화가 진행되는 한편으로 새로운 직종이나 업무가 생겨났다"고 지적했다. 즉, "지루하고 단조로운 작업이 줄어드는 반면, 인간은 자신이 강점을 가진 창조적인 업무에 집중할 수 있게 된다"는 것이다.
마지막으로 그는 AI 기술의 고질적인 문제인 '신뢰성'을 언급했다. 현재 LLM은 종종 "사실과 다른 답변을 내놓는 '환각(할루시네이션)' 현상"을 보인다. 그는 "인간과 AI 에이전트 간의 신뢰 관계는 새로운 과제"라며 "AWS는 환각 현상을 자동 감지해 이용자에게 통지하는 기능을 도입했다. 기술을 통해 신뢰성을 담보하겠다"고 강조했다.
박정한 글로벌이코노믹 기자 park@g-enews.com
































