AI는 인류 역사상 가장 빠르게 확산된 기술 중 하나입니다. 그러나 그 이면에는 눈에 잘 보이지 않는 거대한 문제가 도사리고 있습니다. 바로 전력 소비입니다. 월드이코노믹포럼(WEF)은 AI 관련 전력 수요가 2030년까지 매년 50%씩 증가할 것으로 전망하고 있으며, 이는 데이터 센터와 칩 설계의 방식까지 흔들고 있습니다.
30년간 실리콘밸리에서 하드웨어 분야를 지켜본 Cloudflare의 하드웨어 책임자 앤드류 위(Andrew Wee)는 이렇게 말합니다.
"이건 도저히 감당이 안 됩니다. 기술, 정책, 산업 전반에서 해법을 찾아야 합니다."
AI는 이제 기술 트렌드를 넘어 산업과 사회의 판도를 바꾸는 주역이 되었습니다. ChatGPT와 같은 생성형 AI는 사람들의 일상을 바꾸고 있고, 자율주행·의료 진단·사이버 보안 등 다양한 분야에서 AI의 영향력은 나날이 확대되고 있습니다. 이에 따라 글로벌 빅테크는 물론 수많은 스타트업까지 AI 인프라 구축에 수십조 원을 쏟아붓고 있습니다.
하지만 이 눈부신 성장 이면에는 **‘보이지 않는 위기’**가 서서히 다가오고 있습니다. 바로 전력 소비의 폭증입니다. AI 모델을 구동하기 위해 필요한 계산량은 기하급수적으로 늘어나고 있고, 이로 인해 데이터 센터와 칩은 끝없는 **‘전기 먹는 하마’**로 진화하고 있습니다.
월드이코노믹포럼(WEF)은 AI 전력 수요가 2030년까지 매년 50%씩 증가할 것이라고 경고합니다. 이런 흐름 속에서, AI 칩의 성능 경쟁은 이제 단순한 속도나 정확도가 아니라, ‘전력 효율성’이라는 새로운 전장으로 옮겨가고 있습니다.
이 블로그에서는 바로 그 전쟁의 최전선에서 등장한 Groq와 Positron, 그리고 ‘Nvidia Tax’ 회피를 노리는 클라우드 기업들의 전략을 살펴보고, 궁극적으로는 **AI의 미래를 결정짓는 진짜 변수—‘에너지’**에 대해 깊이 있게 들여다보려 합니다.
⚡ 에너지 효율, AI 칩의 '신(新) 전쟁터'로
이러한 위기의식 속에서 새로운 AI 칩들이 속속 등장하고 있습니다. 그 중심에 있는 스타트업 중 하나가 바로 **포지트론(Positron)**입니다. 이 회사는 2023년에 설립, 최근 5,160만 달러의 투자 유치를 발표하며 주목받고 있습니다. Cloudflare는 이미 이들의 칩을 자사 데이터 센터에서 실험 중이며, 초기 테스트는 "매우 유망하다"고 평가했습니다.
포지트론의 칩은 AI 모델을 학습(training)하는 용도가 아닌, "추론(inference)" 전용으로 설계되어 엔비디아 대비 3~6배의 전력 효율을 자랑합니다. 이는 기업 입장에서 수십억 달러의 전기료를 절감할 수 있다는 뜻이며, AI 인프라의 지속가능성을 높이는 핵심 열쇠로 작용합니다.
지금까지 AI 칩 시장의 중심축은 대부분 성능과 속도였습니다. 하지만 최근 들어 이 게임의 판이 바뀌고 있습니다. 바로 **‘전력 효율성’**이 차세대 칩 경쟁의 핵심 기준으로 떠오르고 있는 것입니다. 이유는 명확합니다. AI 모델이 커지고, 사용자가 폭증하면서 이를 구동하기 위한 데이터 센터의 전력 소비량이 천문학적으로 증가하고 있기 때문입니다.
월드이코노믹포럼(WEF)은 AI 관련 전력 수요가 매년 50%씩 증가할 것이라고 경고합니다. 특히 GPT와 같은 대형 언어모델(LLM)은 한 번의 질문에 수십억 개의 매개변수를 호출하는 방식이기 때문에, ‘한 번 쓰고 마는’ 단순한 연산보다 지속적이고 반복적인 연산을 매우 많이 요구합니다. 이 연산들이 모두 전기라는 ‘연료’를 태우며 돌아가고 있는 셈이죠.
이러한 배경 속에서 "추론(inference)" 전용 칩의 등장은 매우 전략적인 의미를 가집니다. AI 개발에는 크게 두 가지 단계가 있습니다: 모델을 훈련(training)하는 과정과, 훈련된 모델을 활용해 결과를 도출하는 추론 과정입니다. 전자는 여전히 엔비디아의 고성능 GPU가 장악하고 있지만, 후자는 다수의 기업이 새로운 경쟁을 벌이고 있는 격전지입니다. 왜냐하면 대부분의 AI 서비스는 ‘추론’ 과정에서 대규모 전력 비용이 발생하기 때문입니다.
이런 맥락에서 **포지트론(Positron)**의 등장은 주목할 만합니다. 이 회사는 범용 기능을 과감히 포기하고, 딱 필요한 기능만 담아 칩을 극도로 단순화시켰습니다. 덕분에 처리 속도는 빠르고, 전력 효율은 놀랍도록 향상되었습니다. 초기 테스트에선 엔비디아 칩 대비 전력당 추론 성능이 3~6배 더 높은 것으로 나타났으며, 비용 대비 성능도 2~3배 뛰어난 것으로 평가됩니다.
이러한 특화형 칩은 단순히 효율적일 뿐 아니라, 클라우드 인프라를 운영하는 기업들에게는 수억 달러의 전기요금 절감 효과를 가져올 수 있습니다. 예를 들어, 수천 대의 GPU 서버를 운영하는 기업이 전기료만 줄여도 연간 수천억 원 규모의 비용을 아낄 수 있는 것이죠.
Cloudflare가 포지트론의 칩을 주목하는 이유도 여기에 있습니다. 회사 입장에선 성능이 비슷하거나 더 좋고, 비용은 낮으며, 전기는 덜 쓰는 칩이 있다면 당연히 Nvidia의 독점적 지위를 견제할 수 있는 무기가 될 수 있기 때문입니다. 게다가 에너지 효율이 향상되면, 데이터 센터 증설 시 냉각 비용, 탄소배출, ESG 리스크까지 줄일 수 있어 더 큰 전략적 가치를 갖습니다.
결국 AI 칩의 전쟁터는 ‘속도’에서 ‘효율’로 이동하고 있으며, 이 전장은 단순한 기술력 이상의 경제성과 지속가능성이라는 새로운 승부처를 만들어내고 있습니다.
🧩 칩을 처음부터 다시 설계하다: Groq와 Positron의 전략
지금까지 AI는 주로 그래픽용 GPU(그래픽처리장치)를 재활용해 왔습니다. 하지만 이제는 AI 전용, 특히 "추론 전용 칩" 시대가 열리고 있습니다.
- Groq: 구글 AI 칩 개발을 주도했던 조나단 로스가 설립한 이 회사는 메모리와 연산 유닛을 통합한 독창적 구조를 통해, 전력은 1/6 수준, 속도는 더 빠른 추론이 가능하다고 주장합니다.
- Positron: 복잡한 기능은 줄이고, 한정된 기능을 더 빠르게 수행하는 구조로 특화. 향후 출시될 엔비디아의 '베라 루빈(Vera Rubin)' 시스템과의 정면 승부를 예고하고 있습니다.
오늘날 AI 칩 시장의 판도를 바꾸는 핵심 키워드는 바로 **‘처음부터 새롭게(Scratch)’**입니다. 기존의 GPU는 원래 그래픽 처리용으로 설계된 하드웨어였지만, 2010년대 중반 이후부터 AI 모델 학습과 추론 작업에 활용되며 엔비디아가 AI의 왕좌를 차지하게 되었습니다. 하지만 GPU는 AI 전용으로 만들어진 것이 아닌 ‘재활용된 솔루션’이었기 때문에, 구조적 한계와 비효율성을 안고 있다는 지적이 계속되어 왔습니다.
이러한 한계를 정면으로 돌파하려는 기업들이 바로 Groq와 Positron입니다. 이들은 기존 GPU 아키텍처의 한계를 인정하고, AI를 위해 처음부터 완전히 다른 방식으로 칩을 설계했습니다. 이 전략은 단순한 성능 개선이 아니라, 칩 설계의 철학 자체를 바꾸는 일에 가깝습니다.
🔧 Groq: 구글 출신 엔지니어의 ‘속도 혁명’
Groq는 구글에서 TPU(Tensor Processing Unit)를 개발했던 **조나단 로스(Jonathan Ross)**가 창업한 회사로, “기존과는 완전히 다른 AI 칩”을 만들기 위해 탄생했습니다. Groq의 칩은 메모리와 연산을 하나의 구조로 통합한 설계를 통해 병목 현상을 최소화하고, AI 모델의 추론 속도를 비약적으로 끌어올렸습니다.
Groq는 자사 칩이 엔비디아의 최신 GPU보다 최대 6배 낮은 전력으로 유사한 성능을 낼 수 있다고 주장하며, 특히 초저지연(ultra low-latency) 환경에서 차별화된 강점을 보입니다. 이는 실시간 번역, 자율주행, 금융 거래 등 실시간 응답이 중요한 AI 서비스에서 강력한 경쟁력을 발휘할 수 있는 구조입니다.
무엇보다 Groq는 범용성을 줄이고, 특정한 추론 작업에 최적화된 **‘고속 전용 칩’**으로 차별화 전략을 펼치고 있습니다. 이 방식은 기존 GPU의 유연성은 떨어뜨리지만, 고정된 AI 워크로드에선 훨씬 더 빠르고 효율적이라는 장점이 있습니다.
🔬 Positron: ‘단순화의 미학’으로 효율을 극대화하다
반면 Positron은 다른 전략을 택했습니다. Groq가 구조적 혁신으로 속도를 올렸다면, Positron은 불필요한 기능을 제거하고, AI 추론에 필요한 핵심만 남기는 방식으로 설계를 단순화했습니다. 이를 통해 생산 비용은 낮추고, 전력 효율은 극대화하는 데 성공했습니다.
Positron의 칩은 범용적인 계산이 아니라, 오직 특정 AI 추론 연산에만 집중하도록 만들어졌습니다. 이로 인해 복잡한 기능은 수행할 수 없지만, 대신 속도, 비용, 전력 측면에서 경쟁사 대비 2~6배 이상의 성과를 보여주고 있습니다.
예를 들어, 엔비디아의 차세대 AI 칩 ‘Vera Rubin’과 비교했을 때, Positron은 성능당 비용(PERFORMANCE/$) 기준으로 2~3배, 전력당 성능(PERFORMANCE/W) 기준으로 3~6배 더 나은 효율을 보일 수 있다는 주장을 내세우고 있습니다. 이런 수준의 효율은 특히 클라우드 인프라 운영 비용 절감과 탄소 배출 절감이라는 두 마리 토끼를 동시에 잡을 수 있게 합니다.
🎯 두 기업의 전략이 던지는 의미: '범용 vs 특화'의 시대적 전환
Groq와 Positron은 서로 다른 설계 철학을 가지고 있지만, 공통점도 뚜렷합니다. 바로 범용(GPU) 시대의 종말과 특화(Custom ASIC) 시대의 개막을 알리고 있다는 점입니다. 과거에는 하나의 칩이 다양한 연산을 처리하는 것이 강점이었지만, AI의 세계에서는 오히려 특정 목적에 최적화된 설계가 더 뛰어난 성과를 가져옵니다.
이러한 전략은 단순히 기술적 진보를 넘어, AI 하드웨어의 산업 지형을 뒤흔들 가능성을 시사합니다. 특히 클라우드 제공업체, 자율주행 기업, 로봇 개발사 등 특정 워크로드 중심의 기업들은 이런 **‘스페셜리스트 칩’**을 선호하게 될 가능성이 높습니다.
💰 ‘Nvidia Tax’를 피하고 싶은 클라우드 기업들
Nvidia는 현재 AI 시장의 왕좌를 차지하고 있으며, 칩당 약 60%의 마진을 유지하고 있습니다. 이를 두고 업계에서는 "Nvidia Tax(세금)"라는 표현까지 등장했습니다. 그만큼 많은 기업들이 이 비용을 줄이기 위해 자체 칩 개발에 뛰어들고 있습니다.
- 구글, 아마존, 마이크로소프트는 모두 수년에 걸친 자체 AI 칩 개발에 막대한 자금을 투자하고 있으며,
- 전 세계적으로 10개 이상의 칩 스타트업이 AI 추론 시장을 두고 치열하게 경쟁 중입니다.
현재 AI 시장에서 **Nvidia는 명실상부한 '지배자'**입니다. GPT와 같은 초거대 언어모델부터 자율주행, 생성형 AI에 이르기까지 거의 모든 최신 AI 기술의 기반에는 Nvidia의 GPU가 깔려 있습니다. 이 때문에 Nvidia는 칩 하나로 **AI 시대의 새로운 '플랫폼 기업'**이 되어가고 있으며, 대부분의 빅테크 기업들은 Nvidia에 의존하지 않고는 AI 인프라를 구축할 수 없는 구조에 놓여 있습니다.
하지만 이 의존의 대가는 작지 않습니다. Nvidia는 GPU 하나당 약 60%에 달하는 높은 마진을 취하고 있으며, 이로 인해 생긴 비용 부담을 업계에서는 일명 **“Nvidia Tax(엔비디아 세금)”**라고 부릅니다. 즉, AI 서비스를 운영하려면 사실상 Nvidia에 '통행료'를 내야 한다는 것이죠.
📈 AI 인프라의 핵심 비용 요소: 칩 가격과 전력 소모
클라우드 인프라 기업 입장에서 보면, 가장 큰 비용은 ① 칩 구매 비용, ② 전기 요금, 그리고 ③ 냉각 및 유지비용입니다. 이 중 Nvidia는 두 항목에서 모두 높은 비용을 유발합니다:
- 고가의 칩: 엔비디아의 최신 GPU H100은 한 개당 수만 달러에 달합니다. 대형 클러스터로 구성하면 수백억 원이 단숨에 들어갑니다.
- 높은 전력 소모: 고성능 칩일수록 발열과 전력 사용량이 크며, 이는 추가적인 냉각 시스템 구축을 요구합니다.
이러한 이유로 구글, 마이크로소프트, 아마존 AWS 같은 초대형 클라우드 사업자들은 하나둘씩 자체 칩 개발에 착수하고 있습니다. 그들이 Nvidia에 계속 종속되어 있는 한, AI 사업의 수익성과 확장성이 떨어질 수밖에 없기 때문입니다.
🛠️ ‘탈 엔비디아’를 위한 두 가지 전략: 자체 개발과 외부 스타트업 투자
‘Nvidia Tax’를 회피하기 위한 전략은 크게 두 가지입니다:
- 자체 칩 개발
- 구글: TPU(Tensor Processing Unit)를 직접 개발해 자사 AI 서비스와 GCP(클라우드)에 활용
- 아마존: Inferentia와 Trainium이라는 추론/훈련 전용 칩을 개발해 AWS에 도입
- 마이크로소프트: Azure용 AI 칩 ‘Maia’ 개발, OpenAI와의 협업을 통해 최적화 진행
- AI 반도체 스타트업에 투자 및 협력
- Cloudflare는 Groq, Positron 등 신생 칩 회사와 손잡고 테스트를 진행 중
- 이러한 스타트업은 엔비디아 대비 2~6배의 비용 및 전력 효율을 자랑하며, 빠른 채택이 이뤄질 경우 Nvidia의 독점 구조를 흔들 잠재력이 큽니다
🏦 단순한 비용 문제가 아니라 ‘전략적 주도권’의 문제
‘Nvidia Tax’는 단순히 비싸서 피하려는 것이 아닙니다. AI 시대의 주도권을 쥐기 위해서라도, 빅테크 기업들은 칩 수준에서부터 플랫폼을 통제하고 싶어하는 것입니다. Nvidia에 인프라를 의존하면, 기술 로드맵부터 수급, 가격까지 모든 주도권을 Nvidia가 가져가기 때문입니다.
- 가격 협상력이 떨어진다
- AI 전략을 유연하게 가져가기 어렵다
- 비용이 올라가면 서비스 가격에도 압박이 온다
즉, Nvidia에 대한 의존도는 단순한 기술 문제가 아니라, 비즈니스 구조의 전략적 리스크로 작용하고 있는 셈입니다.
📊 그래서 앞으로 어떻게 될까?
단기적으로 Nvidia는 여전히 AI 훈련 시장에서 절대적인 우위를 유지할 것입니다. 하지만 AI 서비스가 대중화되고 추론 수요가 폭증하면서, 비용 효율성과 전력 효율이 핵심 기준이 되는 시대가 오고 있습니다. 그 시점이 오면:
- Positron, Groq 같은 경량화/고효율 칩 기업들이 급부상하고,
- 클라우드 기업은 자체 칩 도입을 가속화하며,
- Nvidia는 고급형 칩에서 소수 정예 전략을 취하게 될 수 있습니다.
결국 ‘Nvidia Tax’를 피하려는 움직임은 AI 인프라 시장을 근본적으로 재편하고 있으며, 그 가장 격렬한 전쟁터는 바로 칩 설계와 추론 효율성 경쟁이 될 것입니다.
🔋 문제는 칩이 아니라 ‘전기’다
AI 칩의 효율은 분명 개선되고 있지만, AI 수요는 그것보다 훨씬 빠르게 증가하고 있습니다. 구글 클라우드의 마크 로메이어 부사장은 이렇게 말합니다.
“칩을 아무리 효율적으로 만들어도, 새로운 AI 모델 수요가 그걸 다 삼켜버립니다. 전기 생산이 진짜 병목입니다.”
이에 따라 구글, 마이크로소프트 등 빅테크는 AI 전용 소형 원자로, 심지어 핵융합 기술까지 실험하고 있습니다. 이제 AI 경쟁은 단순한 컴퓨팅을 넘어, 에너지 패권 경쟁으로까지 확산되는 모양새입니다.
AI 혁신의 물결은 지금도 거침없이 몰아치고 있습니다. 하지만 기술이 아무리 발전해도, **가장 현실적인 제약은 ‘전기’**라는 에너지의 벽입니다. 더 빠른 칩, 더 효율적인 시스템이 등장하고 있음에도 불구하고, AI의 전체적인 전력 수요는 줄어들 기미가 없습니다. 오히려 늘어나고 있습니다.
이러한 현상을 가장 잘 설명한 인물이 바로 **구글 클라우드의 AI 및 컴퓨팅 인프라 부문 부사장, 마크 로메이어(Mark Lohmeyer)**입니다. 그는 이렇게 말합니다:
“칩이 아무리 효율적으로 진화해도, 그 효율을 모두 소비할 만큼 더 복잡하고 거대한 AI 모델들이 계속 등장합니다. 수요는 절대 줄지 않습니다.”
📉 ‘무한 수요 vs 유한 자원’의 충돌
이 문제는 ‘자원의 공급’보다 더 근본적인 이슈, 즉 수요 자체가 멈추지 않는다는 점에 있습니다. 더 정교한 AI 모델이 나오면, 그걸 돌리기 위해 더 많은 칩과 데이터 센터가 필요하고, 그것은 곧 더 많은 전력 소비로 이어집니다. 이는 마치 스마트폰 시대의 데이터 트래픽처럼, 칩의 효율 향상이 전체 에너지 절감을 의미하지 않는 구조적 문제입니다.
- GPT-4는 GPT-3.5보다 수 배의 컴퓨팅 자원을 요구하고,
- 텍스트 기반 AI를 넘어 이미지, 음성, 비디오 생성 AI가 대중화되며,
- 실시간 AI 비서, AI 검색, 개인화 에이전트 등 상시 작동형 AI 서비스들이 늘어나고 있습니다.
이 모든 흐름은 결국, 아무리 효율이 좋아도 총 전력 수요는 증가할 수밖에 없는 현실을 보여줍니다.
⚠️ Anthropic의 경고: 진짜 병목은 '전력 인프라'다
AI 스타트업 Anthropic은 최근 보고서에서 **"미래 AI 발전의 병목은 칩도, 데이터 센터도 아닌 '에너지 생산'이 될 것"**이라고 경고했습니다. 이 말은 곧, 우리가 겪게 될 AI 시대의 가장 큰 리스크는 전기를 얼마나 생산할 수 있느냐의 문제라는 것입니다.
특히 다음과 같은 구조적 병목이 존재합니다:
- 기존 전력망의 한계: 급증하는 AI 전력 수요를 감당할 만한 송전 인프라가 아직 부족합니다.
- 친환경 전력 전환의 시간차: 탄소배출을 줄이기 위해 신재생에너지를 확대해야 하지만, 공급 속도는 수요를 따라잡지 못합니다.
- 지역적 편중: 데이터 센터가 몰려 있는 지역에서는 지역 전력망 포화 현상이 이미 시작되고 있습니다.
🔋 그래서, 기술보다 먼저 필요한 건 ‘에너지 혁신’
이러한 상황 속에서 빅테크 기업들은 이제 AI 칩만이 아니라, 에너지 자체에 대한 통제권 확보로 관심을 돌리고 있습니다. 대표적인 대응 전략은 다음과 같습니다:
- 구글: 자체 데이터 센터에 소형 모듈형 원자로(SMR) 도입 검토
- 마이크로소프트: 핵융합 스타트업 Helion Energy에 투자, 2028년까지 전력 공급 계약 체결
- 아마존: 태양광 및 풍력 발전을 이용한 전력 오프셋 전략 강화
- OpenAI: 데이터 센터 인프라 설계 단계부터 에너지 사용 최적화 알고리즘 도입 중
즉, 이제는 ‘AI 칩’이 중요한 것이 아니라, 그 칩에 전기를 안정적으로 공급할 수 있는 능력이 경쟁력을 결정짓는 요소로 떠오른 것입니다. AI 경쟁은 반도체 경쟁에서 ‘에너지 주권’ 경쟁으로 진화 중입니다.
🌍 결국, AI의 미래는 에너지의 미래다
한 마디로 요약하자면, AI는 전기를 먹고 자라는 괴물입니다. 우리가 아무리 스마트한 칩을 개발하고, 효율적인 알고리즘을 만들어도, 그것을 움직이게 할 ‘전기’가 없다면 아무 소용이 없습니다.
이제 기술 혁신과 함께 전력 생산, 저장, 분배 시스템의 근본적인 혁신이 동시에 이뤄져야만, AI의 미래도 지속가능해질 수 있습니다.
AI를 지탱할 새로운 인프라는 실리콘이 아니라, 킬로와트(kWh) 위에 세워지는 중입니다.
🌍 결론: AI 하드웨어 경쟁이 바꾸는 미래
AI의 폭발적인 성장 속도는 하드웨어 기업들에 혁신의 압박을 가하고 있으며, 이는 더 나은 칩, 더 적은 전력, 더 낮은 비용을 추구하는 무한경쟁을 촉발하고 있습니다. 하지만 핵심은 단순한 칩이 아니라, AI 인프라 전체의 지속가능성입니다.
Cloudflare의 앤드류 위는 말합니다.
“이젠 FOMO(놓칠까 봐 두려움)보다 현실을 볼 때입니다.”
AI 칩이 아무리 발전해도, 우리가 감당해야 할 전력 소비의 현실은 변하지 않습니다. 결국, AI 시대를 지속가능하게 만들 해법은 하드웨어와 에너지 정책의 동시 혁신에 달려 있습니다.
AI 산업은 지금도 하루가 다르게 발전하고 있습니다. 더 정밀한 모델, 더 다양한 서비스, 더 빠른 추론 성능. 모든 요소들이 업그레이드되고 있지만, 전력이라는 물리적 한계는 점점 더 명확해지고 있습니다.
Groq와 Positron 같은 스타트업은 기존 GPU의 틀을 깨고 전력 효율성과 목적 특화 설계를 중심으로 AI 칩 시장의 새로운 해답을 제시하고 있습니다. 동시에 구글, 아마존, 마이크로소프트 등 빅테크 기업들도 자체 칩 개발 및 에너지 확보에 박차를 가하고 있습니다. 이는 단순한 기술 경쟁이 아니라, 플랫폼 주도권을 둘러싼 전략적 선택이기도 합니다.
그러나 근본적인 문제는 여전히 남아 있습니다. 아무리 효율적인 칩이 등장해도, AI 서비스의 수요는 그보다 훨씬 더 빠른 속도로 증가하고 있으며, ‘총 전력 사용량’은 줄지 않고 오히려 급증하고 있습니다. Anthropic의 말처럼, 진짜 병목은 칩이 아니라 에너지 인프라에 있을지도 모릅니다.
결국 우리가 마주하게 될 AI의 미래는 단순히 똑똑한 알고리즘이나 빠른 칩이 만드는 미래가 아니라, 그것들을 지속가능하게 운영할 수 있는 에너지 시스템 위에 구축된 미래입니다.
AI가 정말로 인류를 위한 기술로 발전하기 위해선, 에너지 효율, 지속가능한 인프라, 그리고 전력 주권 확보라는 거대한 과제를 함께 해결해 나가야 합니다.
기술의 진보보다 더 중요한 것은, **그 기술이 지속가능할 수 있도록 만드는 '기반의 힘'**입니다.