닫기

글로벌이코노믹

[실리콘 디코드] 마이크론, 192GB 'SOCAMM2' 샘플링…AI 서버 전력·집적도 혁신

글로벌이코노믹

[실리콘 디코드] 마이크론, 192GB 'SOCAMM2' 샘플링…AI 서버 전력·집적도 혁신

기존 D램 대비 전력 3분의 2 절감…크기는 3분의 1로 압축
엔비디아와 5년 협력 결실…AI '첫 토큰' 응답 속도 80% 단축
마이크론이 AI 데이터센터용으로 개발한 192GB SOCAMM2 D램 모듈. 이 제품은 기존 D램보다 전력을 3분의 2 절감하고 크기를 3분의 1로 줄여, AI 서버의 고밀도·저전력 구현에 기여한다. 엔비디아와 5년간의 협력으로 개발됐으며, AI '첫 토큰' 응답 속도를 80% 단축하는 성능을 자랑한다. 사진=마이크론이미지 확대보기
마이크론이 AI 데이터센터용으로 개발한 192GB SOCAMM2 D램 모듈. 이 제품은 기존 D램보다 전력을 3분의 2 절감하고 크기를 3분의 1로 줄여, AI 서버의 고밀도·저전력 구현에 기여한다. 엔비디아와 5년간의 협력으로 개발됐으며, AI '첫 토큰' 응답 속도를 80% 단축하는 성능을 자랑한다. 사진=마이크론

인공지능(AI) 시대가 본격화하며 데이터센터의 고용량, 저전력 메모리 수요가 폭증하는 가운데, 미국 마이크론 테크놀로지(이하 마이크론)가 2025년 10월 차세대 서버 시장을 겨냥한 고용량 D램 모듈을 새롭게 선보였다고 디지털타임스가 24일(현지시각) 보도했다. AI 데이터센터의 트레이닝(학습)과 인퍼런스(추론) 시스템용 192GB(기가바이트) 대용량 저전력 D램 모듈 'SOCAMM2'를 개발, 주요 고객사 샘플링에 돌입한 것이다. 이번 제품은 고집적, 고에너지효율 시스템의 대중화를 목표로 한다.

마이크론이 이번에 공개한 SOCAMM2는 초저전력, 고대역폭, 고집적 특성을 갖춘 LPDDR5X 메모리와 회사의 최신 1-감마(1-gamma) 공정을 바탕으로 제작했다. 데이터 전송 속도는 최대 9.6Gbps에 이른다. '소형 외곽 압축 부착 메모리 모듈(Small Outline Compression Attached Memory Module)'이라는 명칭처럼, 폼팩터 혁신을 통해 AI 데이터센터의 효율을 극대화하는 데 초점을 맞췄다.

이 모듈의 가장 큰 특징은 집적도와 전력 효율이다. 마이크론 측에 따르면, SOCAMM2는 동일한 소형 폼팩터(기판)에서 이전 세대 제품보다 50% 더 많은 용량을 구현했다. 전력 효율 또한 획기적으로 높였다. 신형 모듈은 이전 버전에 비해 전력 효율이 20% 이상 좋아졌다. 특히 기존 서버 시장의 주력 제품인 동급 RDIMM(Registered DIMM)과 비교하면, 전력 소비는 3분의 2 이상 획기적으로 줄이면서 크기는 3분의 1 수준으로 압축했다.

AI 데이터센터 '고밀도·저전력' 장벽 넘는다

이러한 설계는 대규모 AI 데이터센터 클러스터 환경에 알맞은 것으로 평가된다. 최근 AI 연산 수요가 폭발적으로 증가하며 랙(Rack) 하나에 CPU로 연결되는 D램 총용량이 40테라바이트(TB)를 넘는 사례가 늘고 있다. 마이크론은 이 모듈이 대규모 AI 추론 환경에서 '첫 토큰 산출 시간(Time-To-First-Token)'을 80% 이상 단축하는 실제 성능 향상을 가져온다고 강조했다. 또한 소형 설계 덕분에 액체 냉각 등 첨단 AI 서버 시스템과 호환이 잘 된다.

마이크론은 SOCAMM2가 이처럼 막대한 메모리를 요구하는 초고밀도 서버 환경에서 총 전력 사용을 줄이고 집적도를 높이는 데 결정적인 몫을 할 것으로 기대한다.

엔비디아와 5년 협력…LPDDR, 서버 시장 진입 '청신호'


이번 제품은 마이크론이 AI 반도체 시장의 선두 주자인 엔비디아(Nvidia)와 긴밀히 협력해 개발한 결과물이다. 양사는 LPDDR5X 바탕 서버 메모리 최적화를 위해 5년간 협력해왔으며, SOCAMM2는 대형 AI 플랫폼의 실제 요구에 맞춰 개발했다. LPDDR 계열의 저전력 메모리를 모바일 기기를 넘어 고성능 서버 환경에 본격적으로 도입하려는 광범위한 전략의 일환으로 풀이된다.

AI 연산 시스템에서 메모리 효율이 날로 중요해지는 가운데, SOCAMM2는 메모리를 많이 쓰는 AI 워크로드의 전력과 속도 한계를 개선하는 데 기여할 전망이다. 제품의 목표는 AI 추론과 훈련 시스템의 대역폭과 효율을 동시에 끌어올려, 갈수록 증가하는 대규모 AI 워크로드의 막대한 연산과 에너지 수요를 제대로 뒷받침하는 것이다. 마이크론은 이 모듈이 모듈 단위로 서비스하기 쉽고, 앞으로 업그레이드하기 좋으며, 대규모 시스템을 구축할 때 유연하다는 점에서도 유리하다고 덧붙였다.

마이크론은 192GB SOCAMM2 샘플을 현재 엔비디아를 비롯한 세계적인 서버 제조사 등 주요 고객사들에 배송 중이라고 밝혔다. 정식 양산은 이 모듈을 탑재하는 차세대 서버 시스템의 출시 일정에 맞춰 진행할 예정이다. 업계에서는 본격 양산과 시장 도입이 2025년 하반기에서 2026년 상반기 사이에 이루어질 것으로 예상한다.


박정한 글로벌이코노믹 기자 park@g-enews.com