“전기 먹는 하마 AI 어쩌나..” 구글, 1년 만에 비용 33배 줄였다
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.08.23 05:23

기사 3줄 요약
- 1 구글, AI 쿼리 에너지 비용 1년 만에 33배 절감
- 2 자체 개발 칩, 소프트웨어 최적화 등 기술 혁신 덕분
- 3 AI 데이터센터 전력난 우려 속 효율성 개선 주목
인공지능(AI)이 막대한 양의 전기를 소비한다는 우려가 커지는 가운데, 구글이 놀라운 소식을 발표했습니다.
불과 1년 만에 AI 서비스에 드는 에너지 비용을 33분의 1 수준으로 대폭 줄였다는 것입니다. 이는 AI 기술의 환경 부담을 줄일 수 있는 중요한 발전으로 평가받고 있습니다.
AI가 전기 먹는 하마라고?
최근 AI 기술이 급격히 발전하면서 데이터센터의 전력 소비량도 함께 치솟고 있습니다. 미국에서는 수십 년간 거의 변화가 없던 전력 사용량이 올해 들어서만 약 4%나 증가했는데, 전문가들은 그 주된 원인으로 AI 데이터센터의 확장을 꼽고 있습니다. AI 모델을 가동하고 수많은 요청을 처리하려면 엄청난 양의 전기가 필요합니다. 이 때문에 ‘AI가 환경에 재앙이 될 수 있다’는 경고의 목소리가 나오던 상황이었습니다. AI가 사용하는 전력량이 정확히 얼마나 되는지는 기업 비밀이라 그동안 정확히 알기 어려웠습니다.구글은 어떻게 33배나 줄였을까?
이런 상황에서 구글이 자사의 AI 에너지 효율 개선 성과를 담은 분석 자료를 공개했습니다. 구글에 따르면, 에너지 비용을 획기적으로 줄일 수 있었던 비결은 하드웨어와 소프트웨어 양쪽에서의 끊임없는 기술 혁신 덕분입니다. 먼저 ‘전문가 혼합(Mixture-of-Experts)’이라는 소프트웨어 기술을 적용했습니다. 이는 거대한 AI 모델의 전체를 매번 가동하는 대신, 질문에 필요한 부분만 골라서 활성화하는 방식입니다. 마치 여러 전문가 중 해당 분야 전문가에게만 일을 맡기는 것과 같아, 계산에 필요한 에너지를 10배에서 100배까지 줄일 수 있습니다. 또한 구글이 직접 설계한 AI 전용 반도체(가속기)의 역할도 컸습니다. AI 연산의 절반 이상을 차지하는 이 칩의 성능을 극대화하고, 소프트웨어를 최적화해 효율을 끌어올렸습니다. 효율적인 데이터센터 운영 노하우도 큰 몫을 했습니다.그럼 이제 안심해도 될까?
구글에 따르면 이제 제미나이 AI에 텍스트로 질문 한번 하는 데 드는 에너지는 TV를 약 9초 보는 것과 비슷하고, 물은 5방울 정도만 소비됩니다. 개별 요청의 에너지 소비량은 매우 작아진 셈입니다. 하지만 안심하기는 이릅니다. 구글은 모든 검색에 AI 기능을 도입하고 있어, 요청 건수 자체가 과거와 비교할 수 없을 만큼 많아졌기 때문입니다. 따라서 총 전력 소비량은 여전히 상당할 수 있습니다. 이번 분석에는 AI 모델을 훈련시키는 데 드는 막대한 에너지 비용이 빠져있다는 한계도 있습니다. 구글은 이번 발표를 계기로 업계 전반이 AI의 환경 영향을 측정하는 표준화된 방법을 만들어야 한다고 제안하며, 기술 발전과 함께 환경 효율성도 높여나가야 한다고 강조했습니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI의 전력 소비 문제, 기술로 해결 가능한가?
가능하다
0%
0명이 투표했어요
불가능하다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



