
NVIDIAを追うAI界の「黒船」Cerebrasが再上場へ:OpenAIとの2兆円契約が意味するもの
生成AIブームが加速する中、独自の超巨大AIチップで注目を集めるCerebras Systemsが、再度のIPO(新規株式公開)申請を行いました。かつての申請を取り下げた同社は、現在、売上の急成長とOpenAIなどの大手企業との巨額契約を追い風に、再びNASDAQへの上場を目指します。AIハードウェア市場におけるNVIDIAの圧倒的な独走態勢に、真の「競合」が名乗りを上げたといえる今回の動向を詳細に解説します。
急成長するCerebrasの財務と技術的優位性
収益の劇的な回復と黒字化
2024年時点では4億8,500万ドルの損失を計上していたCerebrasですが、直近の決算では転換を遂げ、8,790万ドルの利益を確保しました。売上高も前年比76%増の5億1,000万ドルに達しており、ビジネスモデルの健全化と需要の拡大が明確に示されています。
ウェハースケールチップ「WSE-3」の衝撃
同社の核となる技術が「WSE-3」チップです。これは一般的なGPUとは一線を画す、ウェハースケール(ウェハ全体を一つのチップとする)の設計であり、NVIDIAのフラッグシップ機「B200」と比較して58倍のサイズを誇ります。4兆個のトランジスタと90万個のコアを統合し、超高速なメモリ帯域幅を実現することで、AI処理の効率を極限まで高めています。
OpenAIやAWSとの戦略的パートナーシップ
OpenAIとは200億ドル(約2兆円)規模に達する推論インフラの供給契約を締結しました。さらに、AWSが提唱する「分離型アーキテクチャ(disaggregated architecture)」において、特定の計算処理(decodeステージ)をWSE-3が担当する連携も開始。大手テック企業がこぞってCerebrasの技術を不可欠なコンポーネントとして認め始めています。
ハードウェア戦国時代から見る今後の展望
汎用GPU一強時代への挑戦と「分業化」の波
これまでAIインフラはNVIDIAのGPUが独占してきましたが、Cerebrasの「分離型アーキテクチャ」への注力は、業界の勢力図を根本から変える可能性があります。AIモデルの推論において、すべての計算を単一のGPUで行うのではなく、Prefill(事前計算)とDecode(生成)を最適化された異なるチップで分担するという発想は、コストパフォーマンスを追求するクラウドベンダーにとって極めて合理的であり、今後の主流となるかもしれません。
OpenAIの投資が示唆する「インフラの自律化」
今回、OpenAIが巨額のローンや将来的なシェア購入権を通じてCerebrasを支援している点は非常に重要です。これは、特定のハードウェアベンダー(NVIDIA)に依存し続けるリスクを回避し、自社のAIモデルに最適なインフラを独自に確保・育成しようとするOpenAIの戦略の表れです。今後、AI開発企業が自前のコンピューティングリソースを囲い込む動きはより強まり、インフラ提供者側には、特定のニーズに特化した専用ハードウェアの供給能力がこれまで以上に求められることになるでしょう。