
En un movimiento decisivo que remodela el panorama competitivo de la infraestructura de inteligencia artificial (artificial intelligence), Microsoft ha asegurado un acuerdo de tres años por 750 millones de dólares con la startup de búsqueda impulsada por IA Perplexity. El acuerdo, finalizado a finales de la semana pasada, supone que el unicornio del "motor de respuestas" se compromete con Microsoft Azure para una porción significativa de sus necesidades de computación en la nube.
Esta asociación llega simultáneamente con la presentación por parte de Microsoft del Maia 200, un chip de IA de nueva generación diseñado específicamente para cargas de trabajo de inferencia (inference). La confluencia de estos dos eventos señala un giro estratégico en Redmond: Microsoft no solo está financiando la revolución de la IA, sino que está integrando verticalmente el hardware y el software necesarios para sostenerla, desafiando efectivamente el dominio de Nvidia y Amazon Web Services (AWS) de un solo golpe.
El acuerdo marca una diversificación crítica para Perplexity, una compañía que anteriormente se había descrito a sí misma como "totalmente" en AWS. Aunque Perplexity mantiene que AWS sigue siendo un socio preferente, la magnitud del trato con Microsoft —tres cuartos de mil millones de dólares durante 36 meses— sugiere un cambio sustancial en su gravedad operativa.
Según los términos del acuerdo, Perplexity aprovechará Microsoft Foundry, un servicio que proporciona acceso unificado a una suite de modelos de vanguardia. Esto incluye no solo la serie GPT de OpenAI, sino también modelos de competidores como Anthropic y xAI, todos alojados en la infraestructura de Azure. Para Perplexity, cuyo producto se basa en sintetizar respuestas a partir de múltiples modelos para garantizar precisión y reducir las alucinaciones, esta flexibilidad es primordial.
El momento es particularmente notable dada la relación en enfriamiento entre Perplexity y Amazon. Tras una demanda presentada por Amazon relativa a la función "Buy with Pro" de Perplexity, el movimiento de la startup para asegurar capacidad con Microsoft sirve tanto como cobertura estratégica como declaración de independencia. Al asegurar capacidad de cómputo con Azure, Perplexity se garantiza poder escalar su volumen de consultas —que ha explotado hasta superar los 100 millones por semana— sin estar supeditada a un único proveedor de infraestructura.
Mientras que la cifra mediática es el contrato de 750 millones de dólares, el habilitador tecnológico subyacente es el nuevo silicio de Microsoft. El acelerador Maia 200 es un Application-Specific Integrated Circuit (ASIC) diseñado específicamente para la inferencia (inference): el proceso de ejecutar un modelo para generar respuestas, en lugar de entrenarlo.
La inferencia (inference) es el principal centro de costos para productos de IA orientados al usuario, como Perplexity. Cada vez que un usuario hace una pregunta, el sistema debe procesar enormes cantidades de datos en tiempo real. Las GPU suelen ser excesivas o ineficientes en consumo energético para estas tareas específicas. El Maia 200, fabricado en un proceso de 3 nanómetros por TSMC, afirma ofrecer un 30 % mejor rendimiento por dólar en comparación con las soluciones comerciales existentes.
Capacidades clave del Maia 200 incluyen:
Para un cliente como Perplexity, el acceso a instancias Maia 200 en Azure podría, teóricamente, reducir el "costo por consulta", una métrica que actualmente desafía la economía unitaria de los motores de búsqueda de IA frente a la búsqueda tradicional por palabras clave.
El acuerdo subraya la batalla cada vez más intensa entre los "Tres Grandes" proveedores de nube para captar startups de IA de alto crecimiento. Al asegurar a Perplexity, Microsoft niega a sus rivales la reclamación exclusiva sobre una de las pocas aplicaciones de IA de consumo con verdadera tracción masiva.
La siguiente tabla ilustra la alineación actual de los principales proveedores de nube con actores clave de IA y sus estrategias de hardware:
| **Proveedor de Nube | Principales Socios de IA | Enfoque Estratégico de Hardware** |
|---|---|---|
| Microsoft Azure | OpenAI, Perplexity, Mistral, xAI | Serie Maia: Enfocada en la reducción del costo de la inferencia y en disminuir la dependencia de Nvidia. |
| Amazon Web Services (AWS) | Anthropic, Hugging Face, Cohere | Trainium & Inferentia: Silicio personalizado maduro orientado al entrenamiento y la inferencia. |
| Google Cloud | DeepMind (interno), Anthropic | TPU (Tensor Processing Unit): El proyecto de silicio personalizado de IA más longevo. |
Esta tabla pone de relieve una tendencia crítica: las asociaciones ya no se tratan solo de créditos; se tratan de alineación de hardware. AWS ha promocionado durante mucho tiempo sus chips Trainium a socios como Anthropic. Ahora, Microsoft está utilizando el Maia 200 como un señuelo para mostrar a las startups conscientes de los costos que Azure es el lugar más económico para ejecutar sus negocios a escala.
La valoración de Perplexity se ha disparado hasta cerca de 9.000 millones de dólares, impulsada por su promesa de reemplazar los "diez enlaces azules" de la búsqueda tradicional con respuestas directas citadas. Sin embargo, este modelo es computacionalmente costoso. Generar un párrafo de texto requiere órdenes de magnitud más energía y potencia de procesamiento que recuperar una fila de una base de datos.
Para sostener su crecimiento, Perplexity debe resolver la ecuación de latencia y costo. El acuerdo con Microsoft proporciona una vía para lograr ambas cosas. Al utilizar la huella global de centros de datos de Azure y, potencialmente, las capacidades de inferencia (inference) del Maia 200, Perplexity puede llevar sus funciones "Pro" —como investigación profunda y análisis de archivos— a más usuarios sin erosionar sus márgenes.
Además, el acceso a Microsoft Foundry simplifica la capa de orquestación de modelos. En lugar de gestionar integraciones API separadas para GPT-4, Claude 3 y Grok, Perplexity puede encaminar estas solicitudes a través del servicio gestionado de Azure, mejorando la fiabilidad y reduciendo la sobrecarga de ingeniería.
El acuerdo de 750 millones de dólares genera un efecto dominó en el ecosistema más amplio de la IA.
Para los inversores de Microsoft, el acuerdo es una señal bienvenida de que el enorme gasto de capital (CapEx) de la compañía en infraestructura de IA está generando contratos que aportan ingresos. Las preocupaciones habían ido en aumento respecto al retorno de la inversión de los miles de millones gastados en centros de datos. Un compromiso de 750 millones de dólares por parte de una única startup ayuda a validar el lado de la demanda de la ecuación.
Además, la introducción del Maia 200 aborda el temor a la "compresión de márgenes". Si Microsoft puede atender las cargas de trabajo de IA en sus propios chips en lugar de en costosas GPU de terceros, sus márgenes brutos en servicios de IA mejorarán con el tiempo.
El acuerdo de 750 millones de dólares entre Microsoft y Perplexity es más que un contrato estándar de proveedor; es una maniobra estratégica que refuerza la posición de Azure como el sistema operativo de la era de la IA. Al combinar una asignación masiva de capital con el despliegue del chip Maia 200, Microsoft está construyendo una fortaleza integrada verticalmente que atrae a la próxima generación de gigantes tecnológicos. Para Perplexity, el acuerdo ofrece la potencia computacional necesaria para continuar su asalto a la búsqueda tradicional, asegurando su futuro en una economía digital cada vez más limitada por los recursos.