AIチップの販売停滞と輸出規制の中、Nvidia最高経営責任者ジェンセン・フアンが中国を訪問
NvidiaのCEOジェンセン・フアンは、AIチップの販売減少に対処し、旧正月(春節)を前に複雑な米国の輸出規制に対応するため、中国への戦略的訪問を計画している。

人工知能(artificial intelligence、AI)の革命が次の段階へ成熟するにつれ、注目はモデルを訓練するプロセッサーから、それらを支えるメモリへと移りつつあります。2026年1月28日水曜日、Morgan StanleyとI/O Fundの主要な金融アナリストは、Micron Technologyを今年のトップAIチップ銘柄に公式に選定しました。発表は、Micronの2026会計年度第1四半期の決算を受けたもので、その決算は前年比57%という驚異的な売上成長を示し、「メモリのボトルネック」が半導体市場価値の主要因になったことを示唆しています。
長らくAIインフラの王座を占めてきたのはNvidiaですが、Morgan StanleyのJoseph Moore氏とI/O FundのBeth Kindig氏は、2026年が転換点であると主張しています。GPUクラスタが広く配備された今、AIワークロード、特に大規模言語モデル(Large Language Models、LLMs)や生成エージェント(generative agents)のスケーリングにとっての重要な制約は、下流側のメモリとストレージ容量へと移動しました。Micronの、高帯域幅メモリ(High Bandwidth Memory、HBM)への積極的な転換は、この移行において同社を主導的立場に置いています。
Micronの業績はアナリストの強気の見方を裏付けています。2026会計年度第1四半期の報告で、同社は**$13.6 billionの売上高**を計上し、前年同期比で57%の増加となりました。この成長はほぼ完全にAI向け専用メモリソリューション、特にHBM3eおよび新たに立ち上がったHBM4アーキテクチャへの飽くなき需要に起因しています。
この急増の原動力は、AIコンピュートが十分なメモリ帯域幅なしには無意味であるという業界全体の認識です。データセンターが兆単位のパラメータを持つモデルに対応するためにスケールするにつれ、メモリ対コンピュートの比率は上昇しています。決算発表の電話会議でMicronの幹部は、同社のハイエンドAI用メモリチップの全供給分が「2026年残り期間を通じておよび2027年にかけて売り切れ」であると確認しました。
Morgan StanleyとI/O Fundが提示した最も説得力のある議論の一つは、MicronとそのAI関連銘柄との間にある評価ギャップです。最も成長が速いAIインフラ銘柄と同程度のスピードで収益を伸ばしているにもかかわらず、Micronは大幅に割安で取引されています。
I/O FundのBeth Kindig氏は、より広範な半導体セクターが先行P/E倍率で30倍超で取引されているのに対し、Micronは約11.6xで推移していると強調しました。これは市場が過去にMicronを重要なAIインフラ銘柄というよりは循環的なコモディティハードウェア提供者と見なしてきたことを示唆しています。2026年の「トップピック」という指定は、その時代遅れのナラティブへの直接的な挑戦です。
下の表は、Micronのファンダメンタルと業界ピアに比した現在の市場評価との顕著な対比を示しています。
Micron vs. Industry Peers: Financial Metrics Comparison
| Metric | Micron Technology (2026 Est.) | Sector Median / Peers |
|---|---|---|
| Revenue Growth (YoY) | 57% | ~25-30% |
| Forward P/E Ratio | 11.6x | 31.1x |
| HBM Market Status | Sold Out thru 2026 | Supply Constrained |
| Primary Growth Driver | AI Infrastructure (Memory) | Varied (Auto, Consumer, AI) |
Micronの2026年の成功は偶然ではなく、数年前に開始された戦略的な刷新の結果です。同社は標準的なPCやスマートフォン向けDRAMのようなレガシーのコンシューマ市場から、マージンの高いAI、データセンター、自動車向けアプリケーションへと積極的に設備投資(CapEx)を再配分してきました。
このピボットは極めて重要です。なぜなら「エッジAI(edge AI)」市場も拡大し始めているからです。データセンターを越えて、AI対応のスマートフォンやノートパソコンは、ローカル推論モデルを実行するために大幅に多くのRAMを必要とします。Micronのポジショニングは、中央集約型のトレーニングクラスター(HBMを介して)と分散型の推論デバイス(LPDDR5Xを介して)の両方から価値を取り込むことを可能にし、AIエコシステム全体に渡ってリスクをヘッジしています。
2024年と2025年の「AIブーム」はGPUを獲得するレースによって定義されました。2026年のナラティブは、それらをいかに効率的に活用するかによって定義されます。Morgan StanleyのJoseph Moore氏が指摘したように、ボトルネックは移動しました。高速メモリがなければ、世界最速のGPUでさえアイドリング状態に置かれ、データを待つことになります。この現実はMicronを周辺部品の供給者から、主要なテック企業にとってのミッションクリティカルなパートナーへと変えます。
さらに、今年のHBM4技術の導入はゲームチェンジャーです。HBM4はロジックをメモリスタックに直接統合することを可能にし、「コンピュート」と「メモリ」の境界をさらに曖昧にします。特にこのアーキテクチャにおけるMicronの早期リーダーシップは、歩留まりの安定性や熱管理でSK Hynixのような競合を上回る重要な理由として挙げられています。
ウォール街の「目利き」投資家たちの合意は明確です:GPUトレードでのイージーマネーはすでに稼がれた可能性がありますが、メモリのスーパーサイクルはまだ始まったばかりです。57%の売上増、受注残が売り切れであること、そして成長に対して「バーゲン」を叫ぶような評価を伴い、Micron Technologyは2026年のトップAIチップ銘柄として正当にその称号を得ました。投資家や業界のウォッチャーにとってのメッセージは明白です:AI革新の心臓はこれまでになく速く鼓動しており、現在その鼓動はメモリによって支えられています。