
일본경제신문 닛케이에 따르면, 한국 SK하이닉스가 2013년 개발한 HBM은 여러 개의 D램 칩을 쌓아 데이터 처리 속도를 높이는 새로운 메모리 구조다. 대용량 데이터 처리가 필수적인 AI에 최적화된 임시 저장 메모리로 사용되고 있으며, SK하이닉스의 5세대 제품인 HBM3e의 경우 초당 처리 속도가 1.15테라(1테라=1조 바이트)에 달한다.
HBM 기술이 주목받는 이유는 기계학습형 AI의 확산에 따른 대용량 데이터 처리 수요 증가 때문이다. SK하이닉스는 AI 반도체의 강자인 미국 엔비디아와 협력하여 HBM 개발을 진행하고 있다.
엔비디아의 GPU는 대용량 데이터 처리에 탁월한 성능을 갖추고 있기 때문에, 보조 역할을 하는 D램에도 고속 대용량 처리 성능이 요구된다.
메모리 불황으로 SK하이닉스는 2023년 상반기에만 7000억 엔의 대규모 적자에 직면했다. 비용 절감을 위해 설비투자를 전년 대비 절반 이하로 줄였지만, 연구개발 투자는 소폭 감소에 그쳤다. SK하이닉스는 "HBM 시장은 연평균 50% 이상 성장이 지속될 것"이라며 기술개발을 서두르고 있다.
D램 시장에서 40%가 넘는 점유율을 차지하는 삼성전자도 HBM에 집중하고 있다. 전 공정에서 회로 선폭을 얇게 만드는 '미세화'가 아닌 칩 적층 기술이 요구되는 만큼 후공정의 중요성이 커지고 있다. 삼성이 요코하마에 반도체 개발 거점을 신설하는 것도 일본 소재업체와 협력을 강화해 HBM 기술을 확보하기 위한 목적이다.
주식시장에서는 AI 반도체 특수를 누리는 엔비디아와 함께 SK하이닉스의 주가도 상승하고 있다. 국내 증권업계에서는 "AI 시대 HBM 수요 확대로 스마트폰 보급기와 같은 시황 부양 효과를 기대할 수 있다"는 목소리가 커지고 있다.
노정용 글로벌이코노믹 기자 noja@g-enews.com