Meta заключает стратегический альянс с Google в области вычислений для ИИ, сигнализируя о сдвиге в ландшафте инфраструктуры
В рамках знакового шага, подчеркивающего обострение гонки за превосходство в области искусственного интеллекта (Artificial Intelligence, AI), компания Meta Platforms, по сообщениям, подписала многолетнее соглашение на несколько миллиардов долларов об аренде тензорных процессоров (Tensor Processing Units, TPU) от Google. Этот стратегический поворот, о котором первым сообщило издание The Information и который подтвердили отраслевые инсайдеры, знаменует собой значительный отход от исторической зависимости Meta от экосистемы графических процессоров (GPU) Nvidia и подчеркивает общую отраслевую тенденцию к диверсификации аппаратного обеспечения.
Сделка, начало которой ожидается в 2026 году, предполагает доступ Meta к специализированным чипам (custom silicon) Google через Google Cloud для обучения моделей ИИ и логического вывода (inference). Она является важнейшим компонентом агрессивного расширения инфраструктуры Meta: компания прогнозирует капитальные затраты в размере от 115 до 135 миллиардов долларов на 2026 финансовый год — цифра, сопоставимая с ВВП стран среднего размера.
Разрушение монополии Nvidia
На протяжении многих лет Nvidia сохраняла фактическую монополию на оборудование для обучения ИИ благодаря своей программной экосистеме CUDA и высокопроизводительным графическим процессорам H100 и Blackwell. Решение Meta интегрировать TPU от Google в свой рабочий процесс представляет собой один из самых серьезных вызовов этому доминированию на сегодняшний день.
Диверсифицируя свой вычислительный портфель, Meta стремится достичь трех основных стратегических целей:
- Устойчивость цепочки поставок (Supply Chain Resilience): Снижение рисков, связанных с дефицитом GPU и узкими местами в поставках, которые преследуют отрасль.
- Оптимизация затрат (Cost Optimization): Использование специфических архитектурных преимуществ специализированных интегральных схем (Application-Specific Integrated Circuits, ASIC), таких как TPU, для целевых рабочих нагрузок, что потенциально снижает стоимость одной операции с плавающей запятой (cost-per-flop) при логическом выводе.
- Рычаги влияния в переговорах (Negotiating Leverage): Создание жизнеспособной альтернативы оборудованию Nvidia для получения возможности влиять на ценообразование в будущих переговорах.
«Речь идет не просто об аренде чипов; это декларация независимости от привязки к одному поставщику», — отмечает старший аналитик Creati.ai. «Meta фактически подтверждает пригодность архитектуры TPU Google для гипермасштабируемых рабочих нагрузок за пределами собственной экосистемы Google, что является мощным одобрением для подразделения аппаратного обеспечения поискового гиганта».
Инициатива «TorchTPU» и технические последствия
Критическим, но мало освещаемым аспектом этого партнерства является техническое сотрудничество, известное как инициатива «TorchTPU». Исторически TPU Google были оптимизированы для JAX, внутренней программной среды машинного обучения Google, в то время как разработка ИИ в Meta глубоко укоренена в PyTorch.
Чтобы сделать это арендное соглашение операционно жизнеспособным, обе компании, по сообщениям, сотрудничают над оптимизацией производительности PyTorch на архитектуре TPU. Эти усилия по совместному проектированию программного и аппаратного обеспечения (software-hardware co-design) направлены на устранение разрыва между двумя экосистемами, позволяя инженерам Meta переносить существующие модели на оборудование Google с минимальными трудностями.
Ключевые технические этапы:
- 2026: Meta начинает аренду мощностей TPU через Google Cloud для крупномасштабного обучения моделей и тестирования производительности логического вывода (inference benchmarking).
- 2027 (прогноз): Потенциальный переход к локальному развертыванию (on-premise deployment), при котором Meta сможет устанавливать стойки с TPU Google «Ironwood» или «Trillium» (v6) непосредственно в свои собственные центры обработки данных.
Масштаб инвестиций в инфраструктуру: сравнительный анализ
Масштаб инвестиций Meta в инфраструктуру ИИ на 2026 год беспрецедентен. Чтобы контекстуализировать величину этих обязательств, мы составили сравнение прогнозируемых капитальных затрат на 2026 год среди крупнейших гиперскейлеров (hyperscalers) на основе недавних отчетов о доходах и прогнозов аналитиков.
Прогноз затрат на инфраструктуру ИИ на 2026 год (оценки)
---|---|----
Компания|Прогноз капзатрат (млрд $)|Основные направления
Meta Platforms|115 - 135|Специализированные чипы, ЦОД, аренда TPU
Microsoft|90 - 100|Инфраструктура OpenAI, расширение Azure
Google (Alphabet)|85 - 95|Развертывание TPU, обучение модели Gemini
Amazon (AWS)|80 - 90|Чипы Trainium/Inferentia, энергоснабжение ЦОД
Примечание: Цифры оценочные, основаны на прогнозах доходов за 4 квартал 2025 года и отраслевом анализе.
Многосторонняя аппаратная стратегия
Соглашение Meta с Google не означает полный разрыв с Nvidia. Напротив, оно указывает на переход к гибридной инфраструктурной модели. Meta продолжает оставаться одним из крупнейших покупателей графических процессоров Blackwell от Nvidia, а также углубила свои связи с AMD, планируя развертывание чипов серии MI300 и будущих серий MI400.
Эта стратегия «использования всего доступного» позволяет Meta подбирать наиболее эффективное оборудование для конкретных рабочих нагрузок. Например, в то время как графические процессоры Nvidia могут оставаться золотым стандартом для обучения крупнейших базовых моделей (foundation models) из-за пропускной способности их памяти, TPU от Google и ускорители Instinct от AMD могут все чаще использоваться для логического вывода и тонкой настройки (fine-tuning), где эффективность затрат имеет первостепенное значение.
Реакция отрасли и перспективы на будущее
Сделка вызвала резонанс на рынке полупроводников. После этой новости акции Alphabet продемонстрировали умеренный рост, отражая уверенность инвесторов в способности облачного подразделения монетизировать свое внутреннее оборудование. Напротив, этот шаг заставляет Nvidia защищать свою маржу, поскольку ее крупнейшие клиенты активно финансируют и развертывают конкурирующие архитектуры.
Для более широкой экосистемы ИИ это партнерство подтверждает тезис о том, что будущее инфраструктуры ИИ будет гетерогенным. По мере роста сложности моделей и потребности «агентских» (agentic) рабочих процессов ИИ в огромных мощностях для логического вывода, способность координировать рабочие нагрузки на различном оборудовании — GPU, TPU и специализированных ускорителях — станет определяющим конкурентным преимуществом.
Если смотреть в конец 2026 года, ключевым показателем, за которым стоит следить, будет успех интеграции «TorchTPU». Если Meta сможет продемонстрировать, что модели PyTorch эффективно работают на TPU в масштабе всей системы, это может открыть путь для других предприятий, что коренным образом изменит экономику эры ИИ.