닫기

글로벌이코노믹

AI 전력 소비 충격적...'AI 프롬프트 한 번, 스테이크 두 번 굽는 전기 소비'

글로벌이코노믹

AI 전력 소비 충격적...'AI 프롬프트 한 번, 스테이크 두 번 굽는 전기 소비'

미국 데이터센터, 2028년까지 전체 전력 12% 점유 전망...텍스트·이미지·영상별 에너지 사용량 공개, 전문가 "정보 투명성 절실"
생성 인공지능(AI) 구동을 위한 데이터센터가 전력을 '폭식'하며 세계 에너지 시장의 '블랙홀'로 떠오르고 있다. 사진=로이터이미지 확대보기
생성 인공지능(AI) 구동을 위한 데이터센터가 전력을 '폭식'하며 세계 에너지 시장의 '블랙홀'로 떠오르고 있다. 사진=로이터
AI(인공지능)가 일상에 깊숙이 들어오면서, AI 프롬프트 한 번이 얼마나 많은 전기를 쓰는지 궁금해하는 사람이 늘고 있다. AI가 일상에서 쓰이면서 데이터센터의 전력 소비도 급격히 늘고 있기 때문이다.

최근 월스트리트저널(WSJ) 칼럼니스트 조애나 스턴(Joanna Stern)이 미국 버지니아주 애쉬번의 데이터센터를 직접 찾아가 현장 취재한 결과, 미국 내 데이터센터가 2028년까지 전체 전력의 최대 12%를 차지할 수 있다는 전망이 나왔다.

AI 프롬프트, 실제로 얼마나 전기를 쓰나


AI가 만드는 콘텐츠 종류에 따라 전력 소비량이 크게 다르다. AI 프롬프트 한 번이 쓰는 전력은 목적과 모델, 하드웨어에 따라 천차만별이다. 한 번 쓰는 에너지는 작아 보여도, 전 세계 수십억 명이 반복해서 쓰면 누적 효과는 매우 크다.

허깅페이스(Hugging Face)에서 AI와 기후를 맡고 있는 사샤 루치오니(Sasha Luccioni)는 여러 AI 모델의 에너지 사용량을 직접 측정해 공개했다.

텍스트를 만드는 데 쓰는 메타(Meta)의 단일 GPU 기반 Llama 모델은 한 번에 약 0.17와트시(Wh)를 쓴다. 여러 GPU에서 더 큰 Llama 모델을 돌리면 1.7Wh까지 쓴다.

이미지를 만드는 데는 1024x1024 픽셀 기준으로 한 장당 1.7Wh가 든다.

영상은 훨씬 더 많은 전력을 쓴다. 6초짜리 표준 화질(480p) 영상을 만드는 데 20~110Wh가 필요하다.

조애나 스턴은 가정용 전기 그릴로 스테이크 한 번 굽는 데 약 220Wh가 든다고 밝혔다. , AI로 영상 두 편을 만드는 데 스테이크 한 번 굽는 만큼의 전기가 소모된다는 뜻이다.

그녀는 "AI로 고양이 영상 12개를 만드는 데 스테이크 6번 굽는 만큼의 전기가 든다", "기업들이 실제로 얼마나 전기를 쓰는지 공개해 사용자가 제대로 선택할 수 있게 해야 한다"는 전문가 의견을 전했다.

오픈AI(OpenAI) 최고경영자(CEO) 샘 알트먼(Sam Altman)은 평균 ChatGPT 쿼리 한 번이 약 0.34Wh를 쓴다고 밝혔다. 이는 고효율 전구를 2~3분간 켜는 수준이다.

업계에서는 생성형 AI 프롬프트가 일반 검색엔진 쿼리보다 최대 30배 더 많은 전력을 쓴다는 연구 결과도 있다.

◇ 데이터센터, 전력 소비 급증과 효율화 노력


AI 프롬프트가 들어오면 대부분 엔비디아(Nvidia) H100 같은 고성능 GPU가 이를 처리한다. 미국 버지니아주 애쉬번에 있는 이퀴닉스(Equinix) 데이터센터에는 엔비디아 H100 GPU로 만든 '슈퍼팟'이 가동 중이다.

이런 대형 데이터센터는 이미 여러 곳에서 새로 짓고 있다. 미국 데이터센터의 전력 소비는 2025년에 20~40% 늘어날 것으로 보인다. 2032년까지 최대 10배까지 늘어나 미국 전체 전력의 20%를 차지할 수 있다는 분석도 나온다.

엔비디아에서 지속가능성을 맡은 조쉬 파커(Josh Parker)"최신 블랙웰 울트라 칩은 1년 전과 같은 작업을 하더라도 전력 효율이 30배 이상 좋아졌다"고 말했다. 하지만 예전 하드웨어도 여전히 많이 쓰이고 있어 전체적인 전력 절감 효과는 제한적이다.

AI 모델을 훈련(트레이닝)하는 것보다 실제로 사용(추론)할 때 더 많은 전력을 쓴다. MIT 테크놀로지 리뷰(MIT Technology Review) 기자 제임스 오도넬(James O'Donnell)"AI 모델의 전력 소비 중 80~90%가 추론 과정에서 나온다"고 전했다.

◇ 전문가와 업계의 목소리


사샤 루치오니는 "AI 모델마다 얼마나 전기를 쓰는지 정보를 투명하게 공개해야, 사용자가 제대로 선택할 수 있다"고 말했다. 허깅페이스는 AI 에너지 스코어(AI Energy Score)라는 평가 시스템을 만들어 여러 모델의 효율성을 공개하고 있다.

업계에서는 GPU 기반 데이터센터 수요가 계속 늘고 있고, 효율성 높이기와 재생에너지 쓰기 노력도 병행하고 있다. 하지만 AI 활용이 늘면서 전력 소비도 함께 늘어나는 현상이 나타나고 있다. 이는 '제본스의 역설'로 불리는 현상이다. 기술이 발전해 에너지 효율이 높아졌음에도 불구하고, 전체 전력 소비는 오히려 늘어난다. 효율이 좋아져 한 번 작업에 쓰는 전력은 줄었지만, 더 많은 사람이 더 자주 AI를 쓰면서 전체 전력 소비가 늘어나는 구조다.

이처럼 AI 하드웨어의 효율이 높아졌다고 해서 꼭 에너지 사용이 줄어드는 것이 아니라, 오히려 전체 사용량이 더 많아질 수 있다는 점이 업계에서 주목받고 있다

한편 데이터센터에 있는 GPU는 단순히 콘텐츠를 만드는 데만 쓰이지 않고, 신약 개발 등 다양한 목적으로 활용되고 있다.

AI의 전력 소비는 앞으로도 계속 늘어날 것으로 보이며, 효율성 높이기와 재생에너지 확대가 꼭 필요하다는 평가가 업계에서 나온다.


박정한 글로벌이코노믹 기자 park@g-enews.com