川普政府敦促科技巨頭資助 AI 電力廠,以應對飆升的能源成本
隨著電價飆升,川普政府正施壓主要科技公司資助新電廠,以支援 AI 資料中心的能源需求。

隨著 2026 年 2 月初動盪的財報週塵埃落定,一個令人震驚的單一數字浮現並定義了未來的一年:6500 億美元。這是由 Amazon、Alphabet、Meta 與 Microsoft 這「四大」超大規模雲端業者(Big Four hyperscalers)宣布的 2026 年集體資本支出(Capital Expenditure)預測。這個數字代表著與 2025 年本已創紀錄的支出水平相比,又增長了近 60%,這預示著人工智慧主導權的軍備競賽不僅在繼續,而且已加速進入一個新的資本密集階段。
對於行業觀察家和 AI 開發者來說,這筆巨額資本的注入是對「AI 泡沫」懷疑論的明確反擊。雖然華爾街分析師在過去六個月的大部分時間裡都在質疑生成式 AI(Generative AI)的投資報酬率(Return on Investment, ROI),但科技巨頭們正在用他們的資產負債表進行投票。他們的共識非常明確:在基礎設施層——包括 資料中心、訂製晶片和能源網——投資不足的風險,遠遠超過過度支出的風險。
在 Creati.ai,我們將這一財務承諾視為運算力可用性典範轉移的前奏。曾在 2023 年和 2024 年困擾開發者的高性能 GPU 和訓練集群短缺問題,可能會讓位給一個豐沛時期,這有可能降低推論成本並解鎖新型態的代理型 AI(Agentic AI)應用。
這 6500 億美元的總額並非均勻分佈。令人驚訝的是,Amazon 已成為 2026 財政年度最積極的支出者,超越了 Microsoft 和 Alphabet。Amazon 執行長 Andy Jassy 在週四公布了 2000 億美元的資本支出計劃,讓投資者感到震驚,該計劃明確旨在透過 Amazon Web Services (AWS) 重新奪回基礎設施的霸權。
以下明細說明了 2026 年的預計資本支出,數據基於本週財報電話會議及隨後的分析師簡報。
| 關鍵預測數據 | 2026 資本支出預測 (USD) | 年度增長 (約略) | 主要投資重點 |
|---|---|---|---|
| Amazon (AWS) | $2000 億 | ~70% | 大規模資料中心擴張 訂製晶片 (Trainium/Inferentia) 綠色能源專案 |
| Microsoft | $1700 億 | ~60% | Azure AI 基礎設施 Maia 晶片部署 OpenAI Stargate 支援 |
| Alphabet (Google) | $1500 億 | ~55% | TPU v6 集群 Gemini Ultra 訓練能力 主權 AI 雲端(Sovereign AI Clouds) |
| Meta | $1300 億 | ~50% | Llama 5/6 訓練基礎設施 MTIA 晶片 Fediverse 運算 |
| 總計 | $6500 億 | ~60% | 全球 AI 基礎設施 |
本季度的頭條新聞無疑是 Amazon 的激進轉型。多年來,AWS 在雲端市場保持著舒適的領先地位,但生成式 AI 的繁榮見證了 Microsoft Azure 在與 OpenAI 的合作推動下,侵蝕了這種主導地位。2026 年,Amazon 正在以蠻力反擊。
在財報電話會議上,執行長 Andy Jassy 以異常激昂的態度為 2000 億美元的數字辯護。「我們正在從 AI 實驗的臨時時代轉向 AI 效用的永久時代,」Jassy 表示。「我們今天建設的基礎設施將成為未來十年智慧經濟的電力網。」
Amazon 的策略似乎是雙管齊下的。首先,他們正以前所未有的速度擴大其實體版圖,在中西部和北歐的二級市場獲取土地和電力合約。其次,他們正在加倍投入垂直整合。2000 億美元中的很大一部分被分配給其專有 AI 晶片——Trainium 和 Inferentia 的生產與部署。透過減少對 NVIDIA 高毛利 GPU 的依賴,Amazon 旨在提供其僅依賴第三方硬體的競爭對手所無法比擬的性能價格比。
2026 年這四大科技巨頭的一個共同主題是「晶片自主(Silicon Independence)」。雖然 NVIDIA 仍然是該行業的造王者,但 2026 年的預算顯示出多元化供應鏈的迫切性。
Microsoft 的 Azure Maia: 據報導,Microsoft 專門撥款近 150 億美元用於加速生產其 Maia 100 和下一代加速器。其目標不是完全取代 NVIDIA,而是處理內部工作負載——例如 Bing Chat 和 Copilot 推論——使用第一方晶片,從而為高付費企業客戶騰出寶貴的 H100 和 Blackwell GPU。
Google 的 TPU 優勢: Alphabet 仍然是該領域的老兵。其 1500 億美元的預算反映了張量處理單元(Tensor Processing Unit, TPU)基礎設施的大規模擴展。隨著 Gemini 深度整合到 Android 生態系統和 Workspace 中,Google 控制其硬體堆疊的能力使其推論成本能夠保持在顯著低於同業的水平。
Meta 的開源工廠: Meta 1300 億美元的支出或許是最引人入勝的。與其他公司不同,Meta 不銷售雲端運算。他們的全部資本支出都致力於訓練和提供像即將推出的 Llama 5 這樣的開源權重模型。Mark Zuckerberg 將此描述為「建造全球最大的 AI 研究超級電腦」,以確保社交網絡的未來是由不受審查的開源 AI 生態系統驅動,而非封閉的專有模型。
這 6500 億美元支出狂潮中被忽視的重要因素是能源。資料中心已經使國家電網承受巨大壓力,2026 年增加的吉瓦(Gigawatt)級訓練集群威脅著要讓電網崩潰。
今年的預算揭露中包含了前所未有的能源基礎設施項目。
對於 AI 社群來說,這預示著未來模型擴展的限制可能不是資金或晶片,而是物理。能夠獲得最多吉瓦電力的公司,將有效地為其模型的智慧設定上限。
金融市場的反應不一。雖然科技股在消息公布後出現波動,但長期論點依然成立。華爾街分析師對 6500 億美元的數字表示「標價衝擊(Sticker shock)」,幾家機構因擔心利潤空間壓縮而下調了該行業的評級。令人擔憂的是,來自 AI 代理和企業訂閱的收入增長速度,可能不足以支撐這些龐大資產的折舊成本。
然而,執行長們堅定不移。他們認為,「錯過平台轉型(Platform shift)」的風險是生存威脅。在他們看來,2026 年擁有基礎設施的公司,將在 2030 年代向整個數位經濟徵稅。
對於 Creati.ai 的受眾——開發者、提示工程師和新創公司創辦人——來說,這個消息從根本上是利多的。2026 年的大規模建設預示著生態系統的三大關鍵趨勢:
這 6500 億美元的賭注是一場歷史性的豪賭。但對於那些在 AI 革命前線奮戰的人來說,這是一個承諾:我們今天夢想的工具、運算力和能力,將成為明天的標準公用事業。