닫기

글로벌이코노믹

소프트뱅크-인텔, 전력소모 절반 줄인 AI 메모리칩 개발

글로벌이코노믹

소프트뱅크-인텔, 전력소모 절반 줄인 AI 메모리칩 개발

700억원 들여 차세대 DRAM 칩 설계... 2020년대 제품화 목표
손 마사요시 소프트뱅크 CEO가 인텔과 협력해 AI용 메모리칩 개발에 착수했다. 사진=로이터이미지 확대보기
손 마사요시 소프트뱅크 CEO가 인텔과 협력해 AI용 메모리칩 개발에 착수했다. 사진=로이터
인공지능(AI) 데이터센터의 전력 소모 문제가 전 세계 화두로 떠오른 가운데, 일본 소프트뱅크와 미국 인텔이 기존 칩보다 전력 소모를 절반으로 줄인 AI용 메모리칩 개발에 나섰다.

닛케이가 지난달 31(현지시각) 보도한 내용에 따르면, 양사는 AI 인프라 구축 효율성을 높이기 위한 새로운 메모리 기술 개발 프로젝트를 시작했다.

이번 사업의 핵심은 현재 사용하는 고대역폭 메모리(HBM)와 다른 배선 구조를 활용한 층층이 쌓은 디램(DRAM, 동적 메모리) 칩을 개발하는 것이다. 소프트뱅크와 인텔은 이를 통해 전력 소모량을 약 50% 줄일 수 있을 것으로 내다본다고 밝혔다.

◇ 사이메모리 세워 설계·지식재산권 관리 맡아
사업 관리를 맡은 새 회사 '사이메모리'가 최근 설립됐다. 이 회사는 인텔이 개발한 기술과 도쿄대학을 비롯한 일본 학술기관이 보유한 특허를 활용할 예정이다. 칩 설계와 지식재산권 관리를 전담하며, 실제 생산은 외부 파운드리 업체에 맡길 계획이다.

프로젝트 총 비용은 100억엔(960억 원)에 달할 것으로 예상된다. 소프트뱅크가 30억엔(288억 원)으로 최대 투자자 역할을 맡으며, 일본의 이화학연구소(리켄)와 신코전기공업도 투자나 기술 협력을 검토 중이다. 정부 지원 신청도 추진 중인 것으로 알려졌다.

개발팀은 2년 내 프로토타입 완성을 목표로 하고 있으며, 이후 대량생산 여부를 결정해 2020년대 상용화를 추진한다는 계획이다. 소프트뱅크 관계자는 "프로젝트가 성공하면 공급 우선권을 확보하고 싶다"고 말했다.

소프트뱅크는 AI 훈련용 데이터센터에서 이 메모리를 사용할 계획이다. 경영 지원 같은 고급 분야에서 AI를 활용하려면 엄청난 양의 데이터를 처리하고 복잡한 추론을 해야 한다. 새 칩은 이런 목적의 고품질 데이터센터를 더 적은 비용으로 구축할 수 있게 해줄 것으로 보인다.

현재 생성형 AI 처리에 사용하는 고대역폭 메모리는 주로 한국의 SK하이닉스와 삼성전자가 생산한다. 일본 기업들은 소재 공급과 제조장비 제공에 그치고 있다. HBM은 대용량 메모리 저장과 빠른 자료 전송이 가능하지만, 생산수율이 낮고 가격이 비싸며 에너지 소모가 심한 단점이 있다. 공급량도 제한돼 일본 기업들의 접근이 어려운 실정이다.

일본과 미국 기술에 바탕을 둔 더 튼튼한 메모리 공급망은 일본 데이터센터에 더 많은 선택권을 열어주고 이런 시설의 에너지 요구를 줄이는 데 도움이 될 것이다. AI 기술 발전에도 도움이 될 수 있다. AI 시스템 성능은 두뇌 구실을 하는 그래픽처리장치(GPU)에 많은 양의 자료를 전송하는 능력에 달려 있다. 성능이 낮은 메모리는 GPU의 처리 능력을 제한해 자율주행 같은 대용량 자료 활용 분야에 걸림돌이 된다.

보스턴컨설팅그룹은 AI 관련 서버 출하량이 2023년부터 2027년까지 6배 증가하고, 디램 출하량은 연평균 21% 성장할 것으로 추정한다고 발표했다. 일본은 1980년대 디램 시장 점유율 70% 이상을 차지했지만, 1990년대 한국과 대만 경쟁업체들의 성장으로 시장에서 밀려났다. 일본 마지막 디램 제조업체인 엘피다메모리는 2013년 파산 후 미국 마이크론테크놀로지에 인수됐다. 도시바에서 분리된 키옥시아홀딩스는 낸드플래시 메모리에서 세계 3위를 차지하지만 디램은 생산하지 않는다.

일본 정부는 지난해 112030 회계연도까지 반도체와 AI 분야에 최소 10조 엔(96조 원)을 투자하겠다는 계획을 발표했다.


박정한 글로벌이코노믹 기자 park@g-enews.com