NVIDIAとイーライリリー、画期的な医薬品発見のための10億ドル規模のAIラボを立ち上げ
NVIDIAとイーライリリーは、AIを活用して医薬品の発見と製造を革命的に変えることを目的とした共同イノベーションラボを設立するため、10億ドルの画期的なパートナーシップを発表しました。開発期間を大幅に短縮することを目指します。

人工知能(AI)インフラストラクチャが市場のリーダーシップを決定する状況において、Metaはデータセンター戦略における大規模な変革を示唆しました。商用GPUプロバイダーへの強い依存から脱却し、同社は最近、独自開発した「Meta Training and Inference Accelerator(MTIA)」チップの4つの世代(300、400、450、500シリーズ)を発表しました。Broadcom(ブロードコム)との戦略的な共同開発により生まれたこの強力なロードマップは、大規模AI推論(Inference)特有の電力消費の激しい課題に対処するために明示的に設計されており、今後数年間でMetaがギガワット規模の展開と特徴づけるものを目指しています。
2026年3月に行われたこの発表は、単なるエンジニアリング上の成果以上のものを意味します。それはMetaのAI運用における独立宣言です。業界が長らく学習(Training)と推論の両方で汎用GPUに固執してきた一方で、Metaは「ビスポーク(注文仕立て)シリコン」の未来に賭けています。ハードウェアを主にPyTorchやvLLMといった自社の内部ソフトウェアスタックに最適化することで、同社は生成AI(Generative AI)モデル、レコメンデーションエンジン、および広告ランキングアルゴリズムにおいて、大幅に高い効率を引き出すことを目指しています。
Metaの新しいチップラインナップは、モジュール性と迅速なイテレーションによって定義されます。チップレットベースのアーキテクチャを採用することで、Metaは400、450、500モデルの基盤となるシャーシ、ラック、ネットワークインフラストラクチャを標準化することに成功し、ハードウェア全体のフットプリントを置き換えることなく「ドロップイン」でのアップグレードを可能にしました。このモジュール性は、従来の数年にわたるハードウェア開発サイクルを打破する、6ヶ月ごとの積極的なリリース頻度を促進する重要な機能です。
以下の表は、公開された4つのMTIA世代の主要な仕様をまとめたものであり、300シリーズから500シリーズにかけての演算性能とメモリ性能の急激な向上を示しています。
| MTIAモデル | ワークロードの焦点 | TDP | HBM帯域幅 | 主な特徴 |
|---|---|---|---|---|
| MTIA 300 | R&R 学習 | 800 W | 6.1 TB/s | エントリーレベルの演算ユニットグリッド |
| MTIA 400 | 汎用AI/推論 | 1,200 W | 9.2 TB/s | 競争力のある性能を持つ初のユニット |
| MTIA 450 | 生成AI推論 | 1,400 W | 18.4 TB/s | 帯域幅に最適化された設計 |
| MTIA 500 | 生成AI推論 | 1,700 W | 27.6 TB/s | 高容量展開のスケーリング |
生のスループット数値を超えて、Meta-Broadcomチームによる重要な設計上の選択は、HBM(High Bandwidth Memory:広帯域メモリ)を重視したことです。大規模トランスフォーマーモデル推論の「デコードフェーズ」では、生の演算FLOPS(フロップス)よりもメモリ帯域幅がボトルネックになることが多々あります。MTIA 450および500モデルは、以前のイテレーションと比較して帯域幅を劇的に増加させました。400から450で帯域幅を2倍にし、500ではさらに50%追加しました。これにより、現代の生成AIアプリケーションの高速かつ高需要な要件に対処できるよう特別に位置づけられています。
歴史的に、業界は大規模モデルの学習に優れたチップを優先してきました。これらの高性能GPUは非常に強力ですが、事前学習(Pre-training)向けに構築されたアーキテクチャ上のオーバーヘッドは、推論専用として再利用された際に電力とコストの非効率を招く可能性があります。Metaのアプローチはこの「画一的(One-size-fits-all)」な考え方を拒絶しています。
「推論ファースト」戦略へと転換することで、Metaは展開に必要のない大規模な並列学習に最適化された機能を削ぎ落としました。その代わりに、チップは以下に焦点を当てています。
この特化は孤立して存在するわけではありません。摩擦のない導入を確実にするため、Metaは自社のハードウェアスタックをPyTorchおよびTriton(トライトン)とネイティブに互換性を持つように構築しました。これにより、Metaのソフトウェアエンジニアはモデルをゼロから書き直す必要がなく、ワークロードを単にMTIAデバイスへ移行させることができます。このソフトウェア互換性を維持することで、Metaは既存の商用ハードウェアを独自のチップに入れ替える際の運用コストを大幅に削減し、現在のAIインフラに蔓延しているベンダーロックイン(Vendor lock-in)に直接挑戦しています。
この発表における特筆すべき要素は、開発のペースです。通常、カスタムシリコンの設計サイクルは2年以上に及びます。「再利用と洗練」によるモジュール設計アプローチを活用することで、Metaは1イテレーションあたり約6ヶ月という開発周期を定着させました。
このレベルのスピードは、パートナーであるBroadcomが提供する統合およびサプライチェーン能力なしには不可能です。多くのテック大手が内部ハードウェアの構築を熱望していますが、アーキテクチャの設計図から、数百万個の動作可能で熱的に安定し信頼性の高いチップへと移行する「実行のギャップ」で多くの企業が失敗します。Broadcomとの提携はこのギャップを埋めるものであり、Metaが述べたような大規模なチップ群を実現するために必要な、業界で実証済みのパッケージングおよび相互接続の専門知識を提供しているようです。
MTIA 500シリーズの公開は、既存の半導体リーダーたちに対する強いメッセージとなります。MetaがAMD(エーエムディー)との長期的な1,000億ドルのAIインフラ合意と並行してこれらのチップを導入することで、同社はポートフォリオを多様化し、依存度を最小限に抑えています。
私たちは、特化したデータセンターコンポーネントの新しい層の成熟を目撃しています。生成AI推論に最適化されたメモリ制約型のパフォーマンスを重視し、生のFLOPSを軽視することで、MetaはAIの展開方法を変えるだけでなく、大規模インターネットサービスプロバイダーがシリコンパートナーに求める要件の基準を定める可能性があります。他のハイパースケーラーが同様の垂直統合ルートを辿るのか、あるいはカスタマイズが進む既存の商用代替品に固執するのかが、2027年に向けたAIインフラ市場における中心的な問いとなります。
「汎用」AIデータセンターの時代は去り、Metaが最前線に持ち出したような、外科的でタスク特定型の、急速に進化するシリコンアーキテクチャに取って代わられるかもしれません。Creati.aiにとって、これは来年度を通じて追跡すべきハードウェアエンジニアリングにおける最も重要なトレンドの一つであり続けます。