Cignal AI が、GoogleのAI構築が光回路スイッチング市場を加速させると予測
期間限定無料公開 有料期間限定無料公開中
Cignal AIは2月2日(ボストン)、GoogleのTPUベースAI導入に関する新たな分析に基づき、光回線スイッチ(OCS)市場の見通しを大幅に引き上げたと発表した。
これは、同社が最近発表した『Optical Circuit Switching Forecast Update Active Insight』レポートで示されている。
今回の修正予測は、主にGoogleによるTPUベースAIクラスタの展開加速を背景に、OCS全体の市場機会が従来の予想よりもはるかに拡大していることを反映している。Cignal AIは現在、2026年の市場規模が従来の推定値の約3倍になると予測しており、2029年の見通しは12月に発表された予測よりも40%以上拡大している。
Cignal AIの主任アナリストであるScott Wilkinson氏は、「GoogleのTPUベースAIアーキテクチャは、当社の予想よりも規模が大きく、かつ集中度の高いOCS市場を生み出している」とし、「全体的な機会は明らかに数十億ドル規模に達しているが、短期的な支出の大部分はGoogleの社内設計に限定され、サードパーティ ベンダが利用できる部分は小規模ながらも急速に増加している」とコメントを出している。
更新のサマリー
・更新された予測には、最新の推定単価、GoogleのTPU導入、および関連するOCS要件が組み込まれており、2025~2026年のOCS需要の見通しが大幅に高まっている。
・2020年代末までのOCS導入の大部分は、GoogleのAI Cluster Reconfigurationアプリケーションに集中したまま、2029年まではAIスケールアップネットワークやGPUベースのアーキテクチャへの採用は限定的になると予想される。
・短期的には、Googleの社内ビルドがOCSポートの大部分を占めるが、Googleが追加のサプライヤを認定するにつれて、需要の増加はあるものの供給が限られている部分は、外部ベンダによって対応可能になる。
・Google以外のOCS展開、特にGPUベースのAIネットワークではOCSへの移行がより複雑であるため、概念実証と初期試験段階にとどまっている。より広範なマルチオペレータの採用は、一度のステップではなく徐々に進むと予測されている。
同レポートでは、OCS技術の定義と比較、主要特性(信頼性、ラジックス、損失、速度)の分析、AIおよびデータセンタ アプリケーションへの技術マッピング、20社のサプライヤの製品とロードマップのレビュー、そしてアプリケーションと技術別の定量的な市場モデルと2029年までの予測を提示している。レポートに掲載されているベンダには、Coherent、Lumentum、Huber+Suhner、Telescent、iPronics、DiCon、Triple-Stone、Calient、Drut、そして複数のスタートアップ企業に加え、ステルス企業も含まれている。
編集部備考
■2020年代にAIクラスタで再評価された光回線スイッチ(OCS)。以前は、ラボ用途が主であり、日本では目利きの優れた商社がHPC実験、光バス、光インターコネクト研究の領域に向けて提案をしており、当サイトでも紙媒体の頃から光マトリクススイッチという呼び名で紹介させていただいていた。それが現在、世界最大のAIデータセンタで、実運用ネットワークの中核装置として需要が高まり、本ニュースリリースで示されたように調査会社が予測の上方修正をするほどの勢いに達している。これは、技術史的にも非常に象徴的な出来事だと言えるだろう。そこで今回は、「AIクラスタはなぜEthernetスイッチだけではなくOCSを必要とし始めたのか」を考察したい。
AIクラスタで起きている異変
AIクラスタは黎明期から「400G/800G Ethernet」「Clos (fat-tree / leaf-spine)」「RDMA / RoCE」で設計されてきた。だが、やがてGoogle、Meta、xAI、OpenAI等で見られるようにGPU/TPUクラスタが数万ノード規模になってくると、学習ステップごとにAllReduce、AllGather、パラメータ同期がmsecオーダで全ノード間同期通信として発生する。つまり、通信トラフィックが「ランダム」でも「局所的」でもなく、「全結合・同期型・周期的」になったので、従来DCトラフィックモデル(Web/Storage/VM east-west)と決定的に違う方向に進んでいる。その結果、Ethernet Closファブリックの構造的限界として次の3点が明らかになった。
・Nノードのフルメッシュ同期をClosで支えるには、スイッチ段数 × ポート数 × トランシーバ数が指数的に増える。特に光トランシーバ電力とコストが支配的となる。例えば、GPU 1枚あたりの通信消費電力が、演算電力を侵食し始めるという課題が生じる。
・Ethernetは、バッファ、輻輳制御、再送、ECMPという「確率的遅延モデル」を前提にしている。しかしAI同期通信は、最も遅い1ノードの到着時間で全体が停止するため、テールレイテンシ(p99.999) が深刻になる。
・AI学習における常時フルメッシュ設計は「時間的な無駄」が生じる。例えば、ある時間帯は全結合通信で、別の時間帯はほぼ通信なし(計算フェーズ)にも関わらず、Ethernet Closは常にピーク帯域用トポロジを固定で保持するので、設備効率として極めて悪い。
OCSの価値は「帯域」ではなく「決定性」
そこでGoogle等が注目したのが、『長年ラボ用途で使われてきた光回路スイッチ(OCS)』だ。OCSによる接続は1 hop、バッファなし、輻輳なし、再送なしであり、「遅延はほぼ光ファイバ長のみ」となる。これはAI同期通信における「平均遅延」より「最大遅延」が支配的という特性に合致する。この特性をAIインフラとして活用すると、「学習フェーズでは、フルメッシュ型やドラゴンフライ型」「推論フェーズでは、ツリー型」「I/Oフェーズでは、スター型」といったように、物理ネットワークのトポロジそのものを時間分割で再構成し、各フェーズの最適化が可能になる。これはEthernetアーキテクチャでは構造的に困難だ。
OCS+Ethernetハイブリッド構成
なお、これはAIクラスタがOCSに全面移行するという話ではなく、Ethernetでは処理できない部分だけをOCSに逃がしたいという流れだ。現在主流になりつつあるのは「Top-of-Rack / Pod内 → Ethernet」「Pod間 / SuperPod間 → OCS」という二層構造となる。つまり、Ethernetは、制御、例外通信、バースト吸収。一方のOCSは定常同期通信、高帯域・低遅延・決定的経路、という役割分担になる。
こうしてOCSの歴史を振り返ると、従来は「主にラボ用途の通信装置」として活躍していたが、AI時代には「計算トポロジ構成装置」として再定義されるという劇的な変化を遂げている。これはネットワーク自体が「通信装置」から「計算基盤構成要素」へと役割転換したことをコンポーネント単位で示す先駆けとも言えるだろう。
また、AIインフラは、新しい技術が課題を解決するだけでなく、OCSのような既存の技術アセットが、課題に引き寄せられるように再配置されていく世界にも見える。様々な技術アセットそして新技術、それらが単独で変革を起こすのではなく、製品群として組み合わさりながらAIインフラを前進させていく。そういう意味では、AI時代というのは「過去・現在・未来の光技術者たちの総力戦」なのかもしれない。




