La señal de los 650.000 millones de dólares: Las Big Tech redoblan su apuesta por el futuro de la IA
A medida que se asienta el polvo tras una tumultuosa semana de resultados a principios de febrero de 2026, una cifra única y asombrosa ha surgido para definir el año que comienza: 650.000 millones de dólares. Esa es la previsión colectiva de gasto de capital para 2026 anunciada por las "Cuatro Grandes" (Big Four) hiperescaladores (hyperscalers): Amazon, Alphabet, Meta y Microsoft. La cifra representa un aumento de casi el 60% respecto a los niveles de gasto ya históricos de 2025, lo que indica que la carrera armamentista por el dominio de la inteligencia artificial no solo ha continuado, sino que se ha acelerado hacia una nueva fase intensiva en capital.
Tanto para los observadores del sector como para los desarrolladores de IA, esta inyección masiva de capital sirve como una refutación definitiva al escepticismo sobre la "burbuja de la IA". Mientras que los analistas de Wall Street han pasado la mayor parte de los últimos seis meses cuestionando el retorno de la inversión (ROI) de la IA generativa (Generative AI), los gigantes tecnológicos están votando con sus balances. Su consenso es claro: el riesgo de subinvertir en la capa de infraestructura —que comprende centros de datos, silicio personalizado y redes energéticas— supera con creces el riesgo de gastar en exceso.
En Creati.ai, vemos este compromiso financiero como el precursor de un cambio de paradigma en la disponibilidad de cómputo. La escasez de GPU de alto rendimiento y clústeres de entrenamiento que asoló a los desarrolladores en 2023 y 2024 probablemente dará paso a un periodo de abundancia, lo que podría reducir los costes de inferencia y desbloquear nuevas clases de aplicaciones de IA agéntica.
Desglose de la factura: ¿Quién está gastando qué?
El total de 650.000 millones de dólares no está distribuido uniformemente. En un giro sorprendente, Amazon ha surgido como el inversor más agresivo para el año fiscal 2026, superando a Microsoft y Alphabet. El CEO de Amazon, Andy Jassy, asombró a los inversores el jueves con un plan de CapEx de 200.000 millones de dólares, dirigido explícitamente a recuperar la supremacía en infraestructura a través de Amazon Web Services (AWS).
El siguiente desglose ilustra los gastos de capital proyectados para 2026, basados en la orientación proporcionada durante las llamadas de resultados de esta semana y las posteriores reuniones con analistas.
| Datos clave de previsión |
Proyección de CapEx 2026 (USD) |
Crecimiento interanual (Aprox.) |
Foco principal de inversión |
| Amazon (AWS) |
200.000 millones |
~70% |
Expansión masiva de centros de datos Silicio personalizado (Trainium/Inferentia) Proyectos de energía verde |
| Microsoft |
170.000 millones |
~60% |
Azure Infraestructura de IA Despliegue del chip Maia Soporte para Stargate de OpenAI |
| Alphabet (Google) |
150.000 millones |
~55% |
Clústeres TPU v6 Capacidad de entrenamiento de Gemini Ultra Nubes de IA soberana |
| Meta |
130.000 millones |
~50% |
Infraestructura de entrenamiento Llama 5/6 Silicio MTIA Cómputo para el Fediverso |
| TOTAL |
650.000 millones |
~60% |
Infraestructura global de IA |
La apuesta "al todo o nada" de 200.000 millones de dólares de Amazon
La noticia principal del trimestre es, sin duda, el agresivo giro de Amazon. Durante años, AWS mantuvo una cómoda ventaja en el mercado de la nube, pero el auge de la IA generativa vio cómo Microsoft Azure —reforzado por su asociación con OpenAI— erosionaba ese dominio. En 2026, Amazon contraataca con fuerza bruta.
Durante la llamada de resultados, el CEO Andy Jassy defendió la cifra de 200.000 millones de dólares con un fervor inusual. "Estamos pasando de una era provisional de experimentación con la IA a una era permanente de utilidad de la IA", afirmó Jassy. "La infraestructura que construyamos hoy servirá como la red eléctrica para la economía de la inteligencia de la próxima década".
La estrategia de Amazon parece ser doble. En primer lugar, están expandiendo su huella física a un ritmo sin precedentes, asegurando contratos de terrenos y energía en mercados secundarios de todo el Medio Oeste de EE. UU. y el norte de Europa. En segundo lugar, están redoblando la integración vertical. Una parte significativa de los 200.000 millones de dólares se destina a la producción y el despliegue de sus chips de IA patentados: Trainium e Inferentia. Al reducir la dependencia de las GPU de alto margen de NVIDIA, Amazon pretende ofrecer una relación precio-rendimiento que los competidores que dependen únicamente de hardware de terceros no pueden igualar.
El movimiento por la independencia del silicio
Un tema recurrente entre los cuatro gigantes tecnológicos en 2026 es la "Independencia del Silicio". Aunque NVIDIA sigue siendo el artífice de la industria, los presupuestos de 2026 revelan una urgencia desesperada por diversificar las cadenas de suministro.
Azure Maia de Microsoft: Según se informa, Microsoft está asignando casi 15.000 millones de dólares específicamente para la aceleración de su Maia 100 y los aceleradores de próxima generación. El objetivo no es reemplazar a NVIDIA por completo, sino gestionar las cargas de trabajo internas —como la inferencia de Bing Chat y Copilot— con silicio de primera mano, liberando las valiosas GPU H100 y Blackwell para clientes empresariales que pagan tarifas elevadas.
La ventaja TPU de Google: Alphabet sigue siendo el veterano en este espacio. Su presupuesto de 150.000 millones de dólares refleja una escala masiva de la infraestructura de Unidades de Procesamiento de Tensorial (TPU). Con Gemini integrándose profundamente en el ecosistema Android y Workspace, la capacidad de Google para controlar su pila de hardware permite una optimización que mantiene sus costes de inferencia significativamente más bajos que los de sus pares.
La fábrica de código abierto de Meta: El gasto de 130.000 millones de dólares de Meta es quizás el más intrigante. A diferencia de los demás, Meta no vende computación en la nube. Todo su CapEx está dedicado a entrenar y servir modelos de pesos abiertos (open-weights) como el próximo Llama 5. Mark Zuckerberg describió esto como "construir el superordenador de investigación de IA más grande del mundo" para garantizar que el futuro de las redes sociales esté impulsado por un ecosistema de IA abierto y sin censura, en lugar de un modelo propietario cerrado.
La ecuación energética: Energía nuclear y verde
El elefante en la habitación para esta racha de gastos de 650.000 millones de dólares es la energía. Los centros de datos ya están forzando las redes eléctricas nacionales, y la adición de clústeres de entrenamiento a escala de gigavatios en 2026 amenaza con romperlas.
Las revelaciones presupuestarias de este año incluyeron partidas sin precedentes para infraestructura energética.
- Microsoft ha confirmado la ampliación de sus asociaciones para reactivar instalaciones nucleares inactivas, con el objetivo de asegurar energía de carga base que esté libre de carbono.
- Amazon anunció un subfondo de 10.000 millones de dólares dedicado a proyectos de eficiencia "de la red al chip" (Grid-to-Chip), incluidas inversiones en reactores modulares pequeños (SMR).
- Google está siendo pionera en nuevas técnicas de refrigeración geotérmica para reducir la intensidad de agua y energía de sus nuevos megacampus.
Para la comunidad de la IA, esto indica que la restricción para el escalado futuro de los modelos puede no ser el dinero ni los chips, sino la física. La empresa que logre asegurar la mayor cantidad de gigavatios de energía limitará, de hecho, el techo de inteligencia de sus modelos.
Wall Street frente a los constructores
La reacción de los mercados financieros ha sido mixta. Aunque las acciones tecnológicas experimentaron volatilidad tras los anuncios, la tesis a largo plazo permanece intacta. Los analistas de Wall Street expresaron su "asombro" ante la cifra de 650.000 millones de dólares, y varios rebajaron la calificación del sector por temor a la compresión de los márgenes. La preocupación es que los ingresos provenientes de los agentes de IA y las suscripciones empresariales no escalen lo suficientemente rápido como para justificar los costes de depreciación de estos activos masivos.
Sin embargo, los directores ejecutivos se mantienen firmes. Argumentan que el "riesgo de perderse el cambio de plataforma" es una amenaza existencial. En su opinión, la empresa que posea la infraestructura en 2026 gravará toda la economía digital de la década de 2030.
Qué significa esto para desarrolladores y creadores
Para la audiencia de Creati.ai —desarrolladores, ingenieros de prompts y fundadores de startups— esta noticia es fundamentalmente alcista. El despliegue masivo de 2026 sugiere tres tendencias clave para el ecosistema:
- Caída en picado de los costes de inferencia: A medida que esta capacidad entre en funcionamiento, el coste por token debería caer drásticamente. Esto hará que sea económicamente viable construir agentes de IA "siempre activos" que puedan razonar, planificar y ejecutar tareas sin arruinar al usuario.
- Nubes soberanas: La dispersión geográfica de esta inversión en infraestructura significa que el cómputo de alto rendimiento estará disponible en más regiones, abordando las preocupaciones de soberanía y residencia de datos para los desarrolladores europeos y asiáticos.
- Diversidad de modelos: Con Meta invirtiendo 130.000 millones de dólares para mantener el código abierto competitivo frente a los modelos cerrados, los desarrolladores no estarán encadenados al ecosistema de un solo proveedor.
La apuesta de 650.000 millones de dólares es una jugada de proporciones históricas. Pero para quienes están construyendo en las trincheras de la revolución de la IA, es la promesa de que las herramientas, el cómputo y las capacidades que soñamos hoy serán los servicios estándar del mañana.