트럼프 행정부, 급등하는 에너지 비용 속에서 기술 대기업들에게 AI 전력발전소 자금 지원 촉구
트럼프 행정부는 전기 요금이 급등함에 따라 AI 데이터센터의 전력 수요를 지원하기 위해 대형 기술 기업들에게 새로운 발전소 건설 자금을 제공하라고 압박하고 있다.

인공지능 패권 경쟁이 치열해지는 가운데, Meta Platforms가 Google의 텐서 처리 장치(Tensor Processing Units, TPU)를 대여하기 위해 수년간 수십억 달러 규모의 계약을 체결한 것으로 알려졌다. The Information이 처음 보도하고 업계 내부 관계자들이 확인한 이 전략적 전환은 Meta가 기존에 Nvidia의 그래픽 처리 장치(Graphics Processing Unit, GPU) 생태계에 의존하던 방식에서 크게 벗어난 것이며, 하드웨어 다변화를 향한 광범위한 업계 추세를 강조한다.
2026년에 시작될 예정인 이 계약에는 Meta가 AI 모델 학습 및 추론을 위해 Google Cloud를 통해 Google의 맞춤형 실리콘에 접근하는 내용이 포함되어 있다. 이는 Meta의 공격적인 인프라 확장의 핵심 요소로, 회사는 2026 회계연도에 1,150억 달러에서 1,350억 달러($115 billion and $135 billion) 사이의 자본 지출을 예상하고 있다. 이는 중견 국가의 GDP와 맞먹는 수치다.
수년간 Nvidia는 CUDA 소프트웨어 해자(moat)와 고성능 H100 및 Blackwell GPU를 통해 AI 학습 하드웨어 시장에서 거의 독점적인 지위를 유지해 왔다. Meta가 작업 프로세스에 Google의 TPU를 통합하기로 한 결정은 현재까지 이러한 지배력에 대한 가장 신뢰할 만한 도전 중 하나로 평가받는다.
컴퓨팅 포트폴리오를 다변화함으로써 Meta는 세 가지 주요 전략적 목표를 달성하고자 한다:
"이것은 단순한 칩 대여가 아닙니다. 특정 벤더에 대한 종속(lock-in)으로부터의 독립 선언입니다."라고 Creati.ai의 한 수석 분석가는 언급했다. "Meta는 Google 자체 생태계 외부의 하이퍼스케일 워크로드를 위해 Google의 TPU 아키텍처를 효과적으로 검증하고 있으며, 이는 검색 거대 기업인 Google의 하드웨어 부문에 대한 엄청난 지지입니다."
이 파트너십에서 중요하지만 아직 충분히 보도되지 않은 측면은 "TorchTPU" 이니셔티브로 알려진 기술 협력이다. 역사적으로 Google의 TPU는 Google 내부의 머신러닝 프레임워크인 JAX에 최적화되어 있었던 반면, Meta의 AI 개발은 PyTorch에 깊이 뿌리를 두고 있다.
이 대여 계약을 운영상 실현 가능하게 만들기 위해, 두 회사는 TPU 아키텍처에서 PyTorch 성능을 최적화하기 위해 협력하고 있는 것으로 알려졌다. 이러한 소프트웨어-하드웨어 공동 설계 노력은 두 생태계 간의 격차를 해소하여 Meta의 엔지니어들이 최소한의 마찰로 기존 모델을 Google 하드웨어로 이식할 수 있도록 하는 것을 목표로 한다.
주요 기술적 이정표:
2026년 Meta의 AI 인프라 투자 규모는 전례가 없는 수준이다. 이 약속의 규모를 맥락화하기 위해 최근 수익 발표 및 분석가 전망을 바탕으로 주요 하이퍼스케일러들의 2026년 예상 자본 지출을 비교 정리했다.
2026년 AI 인프라 예상 지출 (추정치)
---|---|----
기업|예상 자본 지출 (십억 달러, $B)|주요 집중 분야
Meta Platforms|115 - 135|맞춤형 실리콘, 데이터 센터, TPU 대여
Microsoft|90 - 100|OpenAI 인프라, Azure 확장
Google (Alphabet)|85 - 95|TPU 배포, Gemini 모델 학습
Amazon (AWS)|80 - 90|Trainium/Inferentia 칩, 데이터 센터 전력
참고: 수치는 2025년 4분기 실적 가이드라인 및 업계 분석을 바탕으로 한 추정치임.
Meta와 Google의 계약이 Nvidia와의 완전한 결별을 의미하는 것은 아니다. 대신, 이는 하이브리드 인프라 모델로의 이동을 나타낸다. Meta는 여전히 Nvidia의 Blackwell GPU를 가장 많이 구매하는 기업 중 하나이며, AMD와의 관계도 심화하여 MI300 및 향후 MI400 시리즈 칩을 배포할 계획이다.
이러한 "전방위적(all-of-the-above)" 전략을 통해 Meta는 특정 워크로드를 가장 효율적인 하드웨어에 매칭할 수 있다. 예를 들어, Nvidia GPU는 메모리 대역폭 덕분에 가장 큰 파운데이션 모델 학습을 위한 표준으로 남을 수 있지만, 비용 효율성이 가장 중요한 추론 및 미세 조정(fine-tuning)에는 Google의 TPU와 AMD의 Instinct 가속기가 점점 더 많이 사용될 수 있다.
이번 계약은 반도체 시장에 파장을 일으켰다. 뉴스 발표 이후 Alphabet 주가는 소폭 상승했으며, 이는 자사 내부 하드웨어를 수익화할 수 있는 클라우드 부문의 능력에 대한 투자자들의 신뢰를 반영한다. 반대로, 이번 행보는 Nvidia의 최대 고객들이 경쟁 아키텍처에 적극적으로 자금을 지원하고 배포함에 따라 Nvidia가 마진을 방어해야 하는 압박을 가하고 있다.
광범위한 AI 생태계 측면에서, 이 파트너십은 AI 인프라의 미래가 이기종(heterogeneous)이 될 것이라는 가설을 입증한다. 모델의 복잡성이 증가하고 "에이전틱(agentic)" AI 워크로드가 막대한 추론 용량을 요구함에 따라, GPU, TPU, 맞춤형 가속기 등 다양한 실리콘 전반에 걸쳐 워크로드를 조율하는 능력이 결정적인 경쟁 우위가 될 것이다.
2026년 말로 향해가면서 "TorchTPU" 통합의 성공 여부가 지켜봐야 할 핵심 지표가 될 것이다. 만약 Meta가 PyTorch 모델이 TPU에서 대규모로 효율적으로 실행됨을 증명할 수 있다면, 다른 기업들도 그 뒤를 따르는 물꼬를 터서 AI 시대의 경제 구조를 근본적으로 재편할 수 있을 것이다.