닫기

글로벌이코노믹

SK하이닉스·삼성전자, '생성형 AI'용 HBM 칩 수요 폭발에 '기세등등'

공유
1

SK하이닉스·삼성전자, '생성형 AI'용 HBM 칩 수요 폭발에 '기세등등'

생성형 AI 시장이 가파른 상승세를 타고 있는 가운데 칩을 생산하고 있는 삼성전자와 SK하이닉스도 탄력을 받을 것으로 보인다. 사진=로이터이미지 확대보기
생성형 AI 시장이 가파른 상승세를 타고 있는 가운데 칩을 생산하고 있는 삼성전자와 SK하이닉스도 탄력을 받을 것으로 보인다. 사진=로이터
생성형 인공지능(AI)이 새로운 수요를 주도하는 흐름이 형성되면서 기업과 정부들은 이 수요를 충족하기 위해 막대한 투자를 준비하거나 진행 중이다.

특히, 거대 기업들은 이 흐름에 뒤지면 시장에서 퇴출될 수 있다는 두려움 때문에 관련 투자를 빠르게 진행 중이다. 엔비디아의 주가가 천정부지로 치솟는 이유도 수요에 비해 공급이 따라가지 못하기 때문이다.
AI 서버 출하량은 크게 증가하고 있으며 이를 지원하는 HBM에 대한 수요 역시 폭발적으로 증가할 것으로 예상한다.

생성형 AI는 수많은 데이터를 학습하고 이를 통해 추론한 결과를 도출한다. 따라서 학습 데이터를 단시간에 수행하고 처리하기 위해 특별한 프로세서 과정이 요구된다. 인간의 뇌처럼 수많은 데이터를 처리하려면 높은 전력과 빠른 속도가 필수적이다.

이를 처리할 수 있는 칩이 HBM이다. HBM은 High Bandwidth Memory의 약자로, 고대역폭 메모리이다. HBM은 기존 DDR 메모리보다 대역폭이 높고 전력 효율이 뛰어나기 때문에 인공지능, 그래픽처리장치(GPU), 서버 등 고성능 컴퓨팅에 사용된다. AI 개발의 특화된 하드웨어 대역폭을 지원한다.

HBM은 2013년 최초로 개발된 이래 1024비트 인터페이스, 8GB/s의 대역폭, 2GB의 용량에서 2020년 2560비트 인터페이스, 48GB/s의 대역폭, 16GB 용량의 HBM3까지 개발되어 있으며, 조만간 SK하이닉스는 성능이 개선된 HBM3E를 시장에 출시할 예정이다.

SK하이닉스는 2022년 6월 HBM3 DRAM 칩을 대량 생산해 엔비디아에 공급하고 있다.

엔비디아가 생성형 AI 시대를 촉진하기 위해 HBM D램을 사용함에 따라 전 세계 8000여 곳의 데이터센터도 이를 빠르게 보강해야 하기에 새로운 성능 혁명과 수요 폭발을 가져올 것으로 보인다.
트렌드포스의 최신 예측에 따르면 AI 서버(GPU, FPGA 및 ASIC와 같은 주요 칩 포함)의 출하량은 수요의 급격한 증가로 2023년에 연간 38.4% 증가한 약 120만 대에 이를 것으로 예상한다.

엔비디아 하이엔드 GPU인 H100과 A100은 현재 주로 HBM2e와 HBM3를 사용한다. 생활 속에서 생성형 AI의 사용을 위한 조기 투자 증가는 엔비디아의 A100/H100, AMD의 MI200/MI300, 구글의 자체 개발 TPU에 대한 수요 촉진을 가져와 2023년 HBM에 대한 수요는 전년 대비 58%, 2024년 약 30% 증가할 것으로 예상된다.

AI 애플리케이션의 급속한 성장으로 AI 서버에 필요한 D램 용량은 기존 서버의 8배에 달해 D램 수요가 크게 증가하고 있다. AI에 대한 애플리케이션의 의존도가 높아짐에 따라 HBM은 필수 부품이 되었다.

트렌드포스에 따르면 HBM은 AI 개발에 특화된 하드웨어 대역폭 병목현상 극복에 필수적이다.

트렌드포스는 2022년 SK하이닉스와 삼성전자, 마이크론 등 3개사의 글로벌 HBM 시장 점유율을 각각 50%, 40%, 10% 수준으로 추정했다. 올해 하반기 주요 공급업체 3곳 모두 HBM3 제품의 대량생산을 계획하고 있지만, 현재 SK하이닉스가 HBM3 제품을 양산하는 유일한 업체라고 밝혔다.

SK하이닉스의 올해 HBM 시장 점유율은 53%로 전년보다 3%포인트 더 오를 전망이다.

SK하이닉스와 삼성전자가 기존의 낸드 플래시와 D램에서 재고가 총 50조원에 달할 정도로 부진하지만, 주가가 오르고 있는 배경은 재고의 소진과 함께 생성형 AI 시장 확대가 초래할 놀라운 변화에 크게 기인한다.


박정한 글로벌이코노믹 기자 park@g-enews.com