
Dans un mouvement décisif qui remodèle le paysage concurrentiel de l’infrastructure d’intelligence artificielle (artificial intelligence infrastructure), Microsoft a conclu un accord de trois ans d’une valeur de 750 millions de dollars avec la startup de recherche IA Perplexity. L’accord, finalisé tard la semaine dernière, voit la licorne « moteur de réponses » s’engager auprès de Microsoft Azure pour une part significative de ses besoins en cloud computing.
Ce partenariat intervient simultanément avec la présentation par Microsoft du Maia 200, une puce IA de nouvelle génération conçue spécifiquement pour les charges de travail d’inférence (inférence, inference). La confluence de ces deux événements signale un pivot stratégique à Redmond : Microsoft ne finance pas seulement la révolution de l’IA ; elle intègre verticalement le matériel et le logiciel nécessaires pour la soutenir, défiant ainsi en une seule offensive la domination de Nvidia et d’Amazon Web Services (AWS).
L’accord marque une diversification critique pour Perplexity, une entreprise qui s’était auparavant décrite comme « entièrement » sur AWS. Bien que Perplexity maintienne qu’AWS reste un partenaire privilégié, l’ampleur de l’accord avec Microsoft — trois quarts de milliard de dollars sur 36 mois — suggère un changement substantiel de gravité opérationnelle.
Aux termes de l’accord, Perplexity tirera parti de Microsoft Foundry, un service qui fournit un accès unifié à une suite de modèles de pointe. Cela inclut non seulement la série GPT d’OpenAI mais aussi des modèles de concurrents comme Anthropic et xAI, tous hébergés sur l’infrastructure d’Azure. Pour Perplexity, dont le produit repose sur la synthèse de réponses à partir de plusieurs modèles pour garantir la précision et réduire les hallucinations, cette flexibilité est primordiale.
Le timing est particulièrement notable compte tenu du refroidissement des relations entre Perplexity et Amazon. À la suite d’un procès intenté par Amazon concernant la fonctionnalité « Buy with Pro » de Perplexity, la démarche de la startup pour sécuriser de la capacité auprès de Microsoft sert à la fois de couverture stratégique et de déclaration d’indépendance. En verrouillant une capacité de calcul avec Azure, Perplexity s’assure de pouvoir faire monter en charge son volume de requêtes — qui a explosé à plus de 100 millions par semaine — sans être tributaire d’un seul fournisseur d’infrastructure.
Si le chiffre phare est le contrat de 750 millions de dollars, l’élément technologique sous-jacent est la nouvelle puce de Microsoft. L’accélérateur Maia 200 est un circuit intégré spécifique à une application (Application-Specific Integrated Circuit, ASIC) conçu spécifiquement pour l’IA d’« inference » (inférence, inference) — le processus d’exécution d’un modèle pour générer des réponses, plutôt que son entraînement.
L’inférence (inférence, inference) est le principal centre de coûts pour les produits IA orientés utilisateur comme Perplexity. À chaque fois qu’un utilisateur pose une question, le système doit traiter en temps réel d’énormes volumes de données. Les GPU standard sont souvent excessifs ou inefficaces en termes de consommation pour ces tâches spécifiques. Le Maia 200, fabriqué en procédé 3 nanomètres par TSMC, prétend offrir 30 % de meilleures performances par dollar comparé aux solutions commerciales existantes.
Principales capacités du Maia 200 :
Pour un client comme Perplexity, l’accès à des instances Maia 200 sur Azure pourrait théoriquement réduire le « coût par requête », une métrique qui remet actuellement en question l’économie unitaire des moteurs de recherche IA comparée à la recherche par mot-clé traditionnelle.
L’accord souligne la bataille qui s’intensifie entre les trois grands fournisseurs de cloud pour capter les startups IA à forte croissance. En sécurisant Perplexity, Microsoft prive ses rivaux d’une revendication exclusive sur l’une des rares applications IA grand public ayant une véritable traction de masse.
Le tableau suivant illustre l’alignement actuel des principaux fournisseurs de cloud avec les acteurs clés de l’IA et leurs stratégies matérielles :
| **Cloud Provider | Primary AI Partners | Strategic Hardware Focus** |
|---|---|---|
| Microsoft Azure | OpenAI, Perplexity, Mistral, xAI | Série Maia : axée sur la réduction du coût d’inférence et la diminution de la dépendance à Nvidia. |
| Amazon Web Services (AWS) | Anthropic, Hugging Face, Cohere | Trainium & Inferentia : silicium personnalisé mûr visant l’entraînement et l’inférence. |
| Google Cloud | DeepMind (Interne), Anthropic | TPU (Tensor Processing Unit) : le projet de silicium personnalisé pour l’IA le plus ancien. |
Ce tableau met en évidence une tendance critique : les partenariats ne portent plus seulement sur des crédits ; ils portent sur l’alignement matériel. AWS vante depuis longtemps ses puces Trainium auprès de partenaires comme Anthropic. Désormais, Microsoft utilise le Maia 200 comme un argument pour montrer aux startups soucieuses des coûts qu’Azure est l’endroit le plus économique pour faire fonctionner leurs activités à grande échelle.
La valorisation de Perplexity a grimpé en flèche pour approcher les 9 milliards de dollars, portée par sa promesse de remplacer les « dix liens bleus » de la recherche traditionnelle par des réponses directes et sourcées. Cependant, ce modèle est coûteux en calcul. Générer un paragraphe de texte nécessite des ordres de grandeur plus importants d’énergie et de puissance de traitement que l’extraction d’une ligne d’une base de données.
Pour soutenir sa croissance, Perplexity doit résoudre l’équation latence/coût. L’accord avec Microsoft offre une voie pour faire les deux. En utilisant l’empreinte mondiale des centres de données d’Azure et potentiellement les capacités d’inférence du Maia 200, Perplexity peut déployer ses fonctionnalités « Pro » — telles que la recherche approfondie et l’analyse de fichiers — auprès de davantage d’utilisateurs sans éroder ses marges.
De plus, l’accès à Microsoft Foundry simplifie la couche d’orchestration des modèles. Plutôt que de gérer des intégrations d’API séparées pour GPT-4, Claude 3 et Grok, Perplexity peut acheminer ces requêtes via le service géré d’Azure, améliorant la fiabilité et réduisant la charge d’ingénierie.
L’accord de 750 millions de dollars provoque une onde de choc dans l’écosystème IA au sens large.
Pour les investisseurs de Microsoft, l’accord est un signal bienvenu que les dépenses massives en capital (CapEx) de l’entreprise pour l’infrastructure IA génèrent des contrats générateurs de revenus. Les inquiétudes montaient quant au retour sur investissement pour les milliards dépensés dans les centres de données. Un engagement de 750 millions de dollars de la part d’une seule startup aide à valider le côté demande de l’équation.
De plus, l’introduction du Maia 200 répond à la crainte de « compression des marges ». Si Microsoft peut servir des charges de travail IA sur ses propres puces plutôt que sur des GPU tiers coûteux, ses marges brutes sur les services IA s’amélioreront avec le temps.
L’accord de 750 millions de dollars entre Microsoft et Perplexity est plus qu’un simple contrat fournisseur ; c’est une manœuvre stratégique qui renforce la position d’Azure comme système d’exploitation de l’ère IA. En combinant une allocation massive de capitaux avec le déploiement de la puce Maia 200, Microsoft construit une forteresse intégrée verticalement qui séduit la prochaine génération de géants technologiques. Pour Perplexity, l’accord offre la puissance de calcul nécessaire pour poursuivre son assaut contre la recherche traditionnelle, sécurisant son avenir dans une économie numérique de plus en plus contrainte en ressources.