닫기

글로벌이코노믹

구글, 인텔 차세대 제온 CPU 전면 채택… AI 인프라 패권 GPU에서 CPU로 이동하나

글로벌이코노믹

구글, 인텔 차세대 제온 CPU 전면 채택… AI 인프라 패권 GPU에서 CPU로 이동하나

인텔·구글, 다년간 전략 협력 공식화… 제온 6·IPU 공동 개발로 AI 추론 시장 공략 본격화
AI 가속기 시대 저문다?… '시스템 균형론'이 데이터센터 설계 원칙 바꾼다
인텔과 구글이 다년간(multi-year) 전략 협력을 공식화하며 AI 데이터센터 설계의 무게중심이 이동하고 있음을 선언했다. 이미지=제미나이3이미지 확대보기
인텔과 구글이 다년간(multi-year) 전략 협력을 공식화하며 AI 데이터센터 설계의 무게중심이 이동하고 있음을 선언했다. 이미지=제미나이3
“AI는 가속기만으로 돌아가지 않는다. 시스템으로 돌아간다."

인텔 최고경영자(CEO) 립부 탄이 지난 9(현지시각) 이 한 문장을 공개 성명에 담아 공표했을 때, 반도체 업계는 주목했다. 같은 날 인텔과 구글이 다년간(multi-year) 전략 협력을 공식화하며 AI 데이터센터 설계의 무게중심이 이동하고 있음을 선언했기 때문이다. 이에 인텔 주가는 발표 당일 5% 가까이 올랐다. 연초 대비 상승률은 60%를 웃돌며 52주 신고가(59.17달러)에 근접하고 있다.

두 회사는 ① 구글 클라우드 전반에 인텔 제온(Xeon) 프로세서를 다세대에 걸쳐 지속 배포하고, ② 맞춤형 ASIC 기반 인프라 처리 장치(IPU·Infrastructure Processing Unit)를 공동 개발하며, ③ 이종 혼합(heterogeneous) AI 시스템에서 CPUIPU의 역할을 강화하기로 합의했다고 밝혔다. 계약 규모와 구체적 일정은 공개하지 않았다.

CPU의 귀환… 추론(Inference) 시대가 판을 바꿨다


AI 인프라 투자의 역사는 단순하다. 2022년 말 챗GPT 등장 이후 빅테크와 각국 정부는 모델 학습(training)을 위한 엔비디아(NVIDIA) 그래픽처리장치(GPU) 확보에 자본을 집중했다. 이 흐름 속에서 데이터센터 CPU 시장의 강자였던 인텔은 소외됐다.

그러나 지금 AI 시장의 무게는 학습에서 실질적인 배포(deployment) 및 추론(inference) 단계로 전환함에 따라 범용 CPU 수요가 다시 급증하고 있다. 로이터통신은 이번 협력을 보도하며 "기업들이 AI 모델 학습에서 대규모 배포와 추론으로 전환하면서 방대한 작업을 처리할 수 있는 범용 CPU 수요가 다시 높아지고 있다"고 전했다. 특히 에이전트형(agentic) AI 시스템의 급성장이 CPU 처리 능력에 대한 요구를 끌어올리고 있다는 분석이다.

구글 AI 인프라 담당 수석부사장(SVP) 아민 바흐다트는 공식 성명에서 "CPU와 인프라 가속화는 학습 조율부터 추론·배포까지 AI 시스템의 핵심 기반으로 자리 잡고 있다""인텔의 제온 로드맵이 늘어나는 성능·효율 요구를 충족할 수 있다는 확신을 준다"고 밝혔다.

실제 수요는 이미 수급 불균형으로 나타나고 있다. 최근 시장조사기관 HSBC2026년 서버 CPU 출하량이 전년 대비 15~20% 늘고, 인텔 데이터센터 매출이 198억 달러(293800억 원)에 달할 것으로 전망했다. 블룸버그인텔리전스는 이번 협약이 "CPU가 다양한 시스템에서 다시 점유율을 회복하고 있음을 시사한다"고 평가했다.

IPU가 핵심 변수… GPUCPU도 아닌 '3의 칩'


이번 협력의 기술적 핵심은 IPU 공동 개발이다. IPUCPU가 전통적으로 담당하던 네트워킹·스토리지·보안 기능을 전담하는 특수 가속기다. 인텔은 성명에서 "IPUCPU가 담당하던 인프라 작업을 넘겨받아 실질적인 컴퓨팅 용량을 늘리고, 전체 시스템 복잡성을 높이지 않고도 효율적인 확장을 가능하게 한다"고 설명했다.
두 회사가 IPU 협력에 나선 것은 이번이 처음이 아니다. CNBC는 인텔과 구글이 2022년부터 IPU 공동 개발을 진행해왔다고 보도했다. 이번 발표는 그 협력의 확장이다.

이 세그먼트에서 인텔의 경쟁 상대는 엔비디아다. 엔비디아는 DPU(Data Processing Unit)라는 유사 개념의 칩을 공급하며 인프라 오프로드 시장을 공략하고 있다. 인텔이 구글과의 IPU 협력을 강화할수록 이 분야 경쟁은 더욱 치열해질 전망이다.

구글의 전략은 다층적이다. 구글은 자체 텐서처리장치(TPU)를 계속 개발하는 동시에, 로이터에 따르면 브로드컴(Broadcom) 등 파트너와 맞춤형 AI 칩 장기 계약도 체결했다. TPU는 구글이 인공지능의 핵심인 머신러닝 및 딥러닝 연산을 가속화하기 위해 직접 설계한 AI 전용 맞춤형 반도체(ASIC). 여기에 인텔 제온 배포와 IPU 공동 개발까지 더해지는 구조다. 업계에서는 이를 '계층형 파트너십' 모델로 부른다. AI 스택의 각 기능에 맞는 공급자를 별도로 두고 운용하는 방식이다.

인텔의 반격, 기회와 한계 사이


구글과의 협약은 인텔에 전략적 전환점이 될 수 있다. 인텔은 지난해 엔비디아(GPU), AMD(서버 CPU)에 시장 점유율을 잠식당하며 고전했다. 블룸버그는 구글 같은 대형 고객의 장기 약정 확보가 "립부 탄 체제에서의 재기에 결정적"이라고 평가했다.

실제 수치는 반등 가능성을 뒷받침한다. 인텔의 2026년 서버 CPU 물량은 하이퍼스케일러(초대형 클라우드사) 수요로 사실상 완판됐으며, 이 공급 부족이 평균판매단가(ASP)10~15% 높일 수 있다는 분석이 나온다. 키뱅크(KeyBanc)는 인텔 목표주가를 70달러(103900)로 상향하며 투자의견 '비중 확대(Overweight)'를 유지했다.

다만 구조적 걸림돌은 여전하다. 인텔 파운드리(위탁생산) 부문은 20254분기에만 251000만 달러(37200억 원)의 영업손실을 기록했다. AMD는 서버 시장에서 고코어(high-core) EPYC '튜린(Turin)' 프로세서를 앞세워 점유율을 계속 확대하고 있다. 엔비디아도 암(Arm) 기반 '베라(Vera)' CPU를 통해 시스템 주도권 경쟁에 뛰어들었다. ARM 아키텍처 서버 CPU 점유율이 202525% 수준에서 2029년 최대 90%까지 높아질 것이라는 카운터포인트리서치(Counterpoint Research)의 전망도 인텔에 장기 압박 요인이다.

한 국내 주요 증권사 글로벌사업본부 관계자는 "이번 협약은 인텔이 x86 생태계의 소프트웨어 호환성과 엔터프라이즈 레거시를 토대로 삼아 AI 인프라 투자를 끌어내는 전략"이라며 "구글 외에 마이크로소프트, AWS 등 다른 하이퍼스케일러의 유사한 움직임으로 이어질 경우 인텔 실적 모멘텀이 가속화할 수 있다"고 진단했다.

SK하이닉스·삼성에 호재인가 악재인가


CPU·IPU 중심으로 AI 인프라 설계가 재편되면 메모리 수요 지형도 달라진다. GPU 학습 서버에는 고대역폭메모리(HBM)가 필수지만, CPU 기반 추론 서버는 상대적으로 DDR5 D램 비중이 높다. AI 학습에서 추론으로 무게가 이동할수록 HBM 수요 증가 속도는 다소 둔화되고, 범용 서버 D램 수요가 보완적으로 확대되는 구조다.

HBM 점유율 세계 1위인 SK하이닉스에는 단기 리스크 요인으로 작용할 수 있다. 하지만 SK하이닉스 역시 세계 최고 수준의 DDR5 기술력을 보유하고 있으며, 최근 CPU 기반 추론에 필수적인 CXL(Compute Express Link) 메모리 등 차세대 제품군을 빠르게 강화하며 'HBM 원툴' 이미지를 탈피하고 있다.

삼성전자도 경쟁에서 뒤처졌던 HBM을 빠르게 따라잡고, 범용 서버 DDR5 공급 역량이 충분해 이 흐름에서 상대적 수혜를 볼 여지가 있다.

다만 HBM이 완전히 대체되는 것은 아니다. GPU 학습 수요가 사라지지 않는 한 HBM 시장 자체는 성장세를 유지하며, CPU 추론 확대는 전체 메모리 탑재량을 늘리는 방향으로 작용한다. 결국 이번 변화는 한국 메모리 업계에 '제품 믹스(mix) 조정'을 요구하는 신호로 읽힌다.

투자자가 지금 챙겨야 할 3가지 지표


이번 인텔-구글 협약은 AI 인프라 투자의 흐름이 '가속기 단독 시대'에서 '시스템 균형 시대'로 넘어가고 있다는 구조적 신호다. GPU가 시장을 지배하는 동안 소외됐던 CPU와 인프라 오프로드 칩이 다시 주목받는 전환점이다.

한국 투자자와 산업 관계자라면 세 가지 지표를 주시해야 한다. 첫째, 인텔 18A 공정 수율 추이다. 아이오나 아일랜드 팹34 공장의 수율이 60%를 지속 상회하는지 여부가 서버 CPU 공급 여력을 결정한다. 둘째, 하이퍼스케일러 자체 설계 칩(Arm 기반) 비중이다. 구글 악시온(Axion), AWS 그래비톤(Graviton) 등 자체 CPU 배포 속도가 x86 수요를 잠식하는 속도보다 빠른지 확인해야 한다. 셋째, AI 추론 워크로드의 CPU 의존도다. 추론 단가가 낮아질수록 CPU 처리 비중이 높아지는 구조인 만큼, 주요 클라우드사의 인스턴스 유형 변화를 살펴야 한다.

AIGPU로 시작됐지만, 그것을 대규모로 쓸 수 있게 하는 인프라는 CPUIPU가 떠받치고 있다. 그 흐름이 인텔의 재기 시나리오를 현실로 바꿀지, 아니면 AMDArm의 벽에 막힐지는 올해 안에 판가름 날 것이다.


김주원 글로벌이코노믹 기자 park@g-enews.com