GoogleがAIチップを「分割」した本当の理由——NVIDIA支配脱却への大胆な設計戦略

GoogleがAIチップを「分割」した本当の理由——NVIDIA支配脱却への大胆な設計戦略

テクノロジーGoogleTPUAIチップ半導体クラウドコンピューティング

Googleは、クラウドカンファレンス「Google Cloud Next 2026」にて、第7世代TPU「Ironwood」の一般提供開始を発表しました。さらに、同社は次世代となる第8世代アーキテクチャの全貌を明らかにしました。特筆すべきは、これまで単一の設計であったTPUを、学習用と推論用という全く異なる2つの役割を持つチップへと分割した点にあります。この戦略転換は、増大し続けるAIインフラコストを制御し、効率的な運用を実現するための極めて重要な一手と言えます。

Ironwoodと次世代TPUの概要

第7世代TPU「Ironwood」の登場

Ironwoodは、前身であるTrilliumと比較して約4倍の計算能力(FP8で4.6ペタフロップス)を誇り、大規模言語モデルの推論に最適化された最新チップです。9,216個のチップを連結したスーパーポッドは、世界最高峰のスパコンを凌駕する計算リソースを提供し、現在すでに多くの顧客への提供が始まっています。

学習と推論の完全分割(SunfishとZebrafish)

第8世代では、Broadcomが設計する学習用チップ「TPU 8t(Sunfish)」と、MediaTekが設計する推論用チップ「TPU 8i(Zebrafish)」に分離されます。これにより、それぞれ最適化されたコスト構造とパフォーマンスを実現し、2027年後半の投入に向けて準備が進められています。

強固なパートナーシップによるサプライチェーンの構築

Googleは特定の企業に依存しないマルチサプライヤー体制を強化しており、Broadcom、MediaTek、Marvell、Intelといった複数のパートナーと連携しています。これにより、供給リスクの分散と各社が持つ強みを活用したチップ開発を可能にしています。

アンソロピック社の存在感

AIスタートアップであるアンソロピック社は、これらの次世代チップの主力顧客として位置づけられています。2027年には3.5ギガワットもの計算能力を利用する契約を結んでおり、Googleのチップ開発の進展とともに彼らの事業規模も急速に拡大しています。

「万能チップ」から「専用チップ」へ:AIインフラ競争の今後の展望

AIの経済学における「推論」の重要性

これまでのAI開発競争は、いかに強力なモデルを「作るか(学習)」に焦点が当てられてきました。しかし、現在その中心は、実際にモデルを「動かし続ける(推論)」ための運用コストへと移っています。推論は一度限りの学習とは異なり、無数のユーザーからのリクエストに応じ続ける継続的なコストです。Googleが今回チップを分割したのは、この推論コストを最小化することこそが、長期的なAIビジネスの利益率(マージン)を左右する鍵であると判断したからに他なりません。

NVIDIA支配への決定的な挑戦

これまで、NVIDIAのGPUは汎用性と強力なエコシステムにより圧倒的なシェアを誇ってきました。しかし、Googleのような巨大テック企業(ハイパースケーラー)にとって、NVIDIAからハードウェアを購入することは利益を外部に流出させることを意味します。推論特化型のカスタムシリコンを自社で最適化して構築する方針は、NVIDIAの支配に対する最も強力な対抗策です。この「設計哲学の転換」は、今後のAI市場において、汎用GPUから特定のワークロードに特化したASIC(特定用途向け集積回路)へとトレンドが大きく動く可能性を示唆しています。

画像: AIによる生成