戦略的分析:Google Ironwoodと AI Hypercomputer
1.1. エグゼクティブ・サマリー: システムレベルの優位性へのシフト
Google の Ironwood (TPU v7) は、AI インフラストラクチャにおける競争の焦点を、個々のチップの性能から、システム全体で協調設計された優位性へと移行させる戦略的な転換点となるものです。この第6世代 Tensor Processing Unit (TPU) は、Google の「AI Hypercomputer」アーキテクチャのフラッグシップ・コンポーネントとして機能します 1。これは、AI ワークロードのトレーニングと推論の両方の要求に応えるために設計された、強力なデュアルユース・アクセラレータです 1。
Ironwood は、単一の「スーパーポッド」内で最大 9,216 チップまでスケールアップする能力によって、従来のカテゴライズを覆します 2。この構成では、42.5 エクサフロップス (FP8) を超える総演算性能を実現し、競合する Nvidia の NVL72 システムの 100 倍以上の規模を持つ単一のコンピュート・ドメインを形成します 4。
このハードウェアは、カスタムシリコン (TPU と Axion CPU) 4、独自の光ネットワークファブリック (OCS) 2、ギガワット規模の液体冷却 2、そして最適化されたソフトウェアスタック (Pathways、GKE) 2 を統合した、AI Hypercomputer という垂直統合型スタックの基盤に過ぎません。このアプローチは、構造的なコストおよびパフォーマンス上の「堀」を形成します。
このプラットフォームの能力は、Anthropic との「数百億ドル」規模の契約によって市場で検証されています 6。この契約は、Google が Nvidia の支配的な地位に対する、主要かつ信頼できる代替手段として浮上したことを示しています。Ironwood は、Google の内部(Gemini、Search)7 と外部(GCP 顧客)9 の両方において、次世代のフロンティア AI モデルを支える基盤となります。
1.2. 進化する使命:「推論の時代」からフルスタックの覇権へ
Ironwood の戦略的ポジショニングは、2025年4月の初期発表から 2025年11月の一般提供 (GA) 開始までの間に、顕著な進化を遂げました。このメッセージングの変化は、Google の AI 市場における野心と戦略の成熟を反映しています。
初期ポジショニング (2025年4月):
Google Cloud Next ’25 での Ironwood の最初の発表は、明確に「推論」に焦点を当てていました。Ironwood は「推論のために特別に設計された最初の Google TPU」であり、「推論の時代」を支えるために構築されたと繰り返し強調されました 10。このメッセージングは、AI モデルのトレーニングコストから、モデルを大規模に提供する(推論)コストへと市場の関心が移り始めていた時期と一致します 8。企業が推論の運用コストとレイテンシに悩み始める中、Google は Ironwood をその特定の、差し迫った課題に対するソリューションとして提示しました。
一般提供時のポジショニング (2025年11月):
2025年11月の GA 発表までに、そのメッセージは大幅に拡大しました。Ironwood は、「大規模モデルのトレーニング… 複雑な強化学習 (RL)… そして大容量・低レイテンシの AI 推論とモデルサービング」のために専用設計された、包括的なソリューションとして再定義されました 2。このシステムは、「トレーニングとサービングの両方のワークロード」をサポートするものとして明確に位置づけられました 1。
ポジショニング分析:
このメッセージングの進化は、計算された戦略の結果であると考えられます。9,216 チップ、42.5 エクサフロップスのシステム 4 は、推論だけを目的とするには明らかに過剰な設計です。このようなスーパーコンピュータ級のインフラは、本質的にフロンティアモデルのトレーニングという最も要求の厳しいタスクのために構築されます 4。
したがって、初期の「推論ファースト」というメッセージは、市場参入のための戦略的な「ウェッジ(楔)」として機能したと分析できます。当時、Nvidia に対してトレーニング性能で真っ向から勝負を挑むよりも、市場が直面していた「推論コスト」という具体的な課題 8 に焦点を当てる方が、顧客の関心を引きやすかったのです。
Google は、この推論という「トロイの木馬」を使って Ironwood を市場に導入しました。そして 11月までに、Anthropic という巨大なアンカーテナントを確保しました 8。Anthropic は、トレーニングとサービングの両方における Ironwood の価格性能比を明確に評価しました 2。この重要な市場検証を得たことで、Google は Ironwood の真の能力、すなわち AI パイプライン全体(トレーニング、ファインチューニング、推論)にわたる Nvidia への全面的な挑戦者としての役割を、自信を持って公表できるようになったのです。
2. Ironwood (TPU v7) 技術アーキテクチャ:デュアルレイヤー・ディープダイブ
Ironwood の競争力は、チップ単体の仕様と、それを大規模に接続するシステムレベルのアーキテクチャという2つの層で分析する必要があります。
2.1. チップ:アクセラレータごとの仕様
Ironwood スーパーポッドの基本構成要素は、TPU v7 チップ自体です。このチップは、競合他社と互角以上に渡り合える第一級のアクセラレータとしての地位を確立しています 16。
- 演算性能: 各 Ironwood チップは、4,614 テラフロップス (4.6 ペタフロップス) の高密度 FP8 性能を誇ります 4。この性能は、Google TPU の特徴であるシストリックアレイ・アーキテクチャによって実現されています 21。また、BF16 精度もサポートしています 22。
- メモリ容量と種類: チップあたり 192 GB の HBM3e メモリを搭載しています 4。これは、以前の世代である Trillium (TPU v6) と比較して 6 倍の大幅な増加です 23。
- メモリ帯域幅: メモリ帯域幅はチップあたり約 7.4 TB/s に達します 16。これは Trillium の 4.5 倍であり 23、膨大な計算ユニットにデータを供給し続けるために不可欠です。
- 製造と設計: Ironwood は TSMC の N3P (3nm) プロセスノードで製造されていると報告されています 24。競合する Nvidia B200 が 2 つのダイを使用するチップレット構成であるのとは対照的に、Ironwood は約 700mm² の大規模なモノリシック(単一)コンピュート・ダイを採用しているとみられています 25。このアプローチは、歩留まりのリスクを伴いますが、Google のような垂直統合型の自社顧客にとっては、製造コスト面での利点をもたらします 25。
- 特殊ハードウェア: 強化された SparseCore: Ironwood は「強化された SparseCore」を搭載しています 10。これは、主要なテンソルコアとは別に存在する専用アクセラレータであり、「超巨大な埋め込み」の処理に特化して設計されています 10。
LLM(高密度ワークロード)が注目を集める一方で、Google の中核的な収益源(検索、広告、YouTube)は、レコメンデーションやランキングモデル(低密度ワークロード)に大きく依存しています 28。これらのモデルは、巨大でスパース(疎)な埋め込みテーブルの処理が中心となります。強化された SparseCore 26 は、Google の最も収益性の高い内部サービスのために、この特定のワークロードをハードウェアレベルで加速させるための「協調設計」2 の産物です。これは、汎用 GPU では最適化されにくいタスクであり、Google の内部的な「堀」として機能します。
表 1: Google Ironwood (TPU v7) チップごとの仕様
| メトリック | 仕様 | ソース |
| アクセラレータ | Google Ironwood (TPU v7) | |
| ピーク演算性能 (FP8) | 4,614 TFLOPS (4.6 PFLOPS) | 16 |
| ピーク演算性能 (BF16) | 2,307 TFLOPS (2.3 PFLOPS) | 22 |
| HBM 容量 | 192 GB | 16 |
| HBM タイプ | HBM3e | 16 |
| HBM 帯域幅 | 約 7.4 TB/s | 4 |
| チップ間相互接続 (ICI) | 9.6 Tbps (双方向合計) / 1.2 TB/s | 16 |
| プロセスノード | TSMC N3P (3nm) | 25 |
| ダイ・アーキテクチャ | モノリシック (単一コンピュート・ダイ) | 25 |
| 特殊機能 | 強化された SparseCore、液体冷却 | 10 |
2.2. スーパーポッド: システムレベルのアーキテクチャとスケール
Ironwood の真の力は、Google の主要な競争優位性であるシステムレベルのアーキテクチャによって発揮されます。
- 最大スケール構成: Ironwood は「スーパーポッド」と呼ばれる構成で展開され、最大 9,216 チップ構成をサポートします 2。
- 総演算性能: 単一の 9,216 チップスーパーポッドは、42.5 エクサフロップス (FP8) の総演算性能を、単一のコンピュート・ドメインとして提供します 2。
- 総メモリ容量: このポッドは、合計 1.77 ペタバイト (PB) の HBM メモリ (9,216 チップ $\times$ 192 GB/チップ) を搭載しています 2。
ここで重要なのは、この 1.77 PB が「共有 HBM メモリ」として記述されている点です 2。これは単なる 9,216 個のメモリの集合体ではありません。高帯域幅の ICI ファブリック 8 と Pathways ソフトウェア 10 により、チップ群は「単一の AI アクセラレータの脳のように考え、動作する」ことが可能になります 8。
このアーキテクチャは、9,216 個のチップを事実上 1 つの「メガ・アクセラレータ」として仮想化するように設計されています。これにより、モデル並列処理やデータ並列処理の複雑さを大幅に軽減し、数兆パラメータ規模のモデル 15 の開発を計算上可能にすることを目指しています。
2.3. ファブリック: Optical Circuit Switching (OCS) と 3D トーラス
9,216 チップのスーパーポッドを現実のものにしているのが、Google 独自のネットワーキングおよびスイッチング技術です。
- 相互接続トポロジ (ICI): チップ間は、Google 独自の Inter-Chip Interconnect (ICI) によって接続されています 2。このファブリックは TPU の過去の世代から使用されており 30、Ironwood では 3D トーラス・トポロジを採用しています 16。このメッシュ・トポロジは、機械学習ワークロードで一般的な近傍通信パターン 30 に対して、予測可能で低レイテンシ、かつ高帯域幅のパスを提供します。
- システムファブリック (OCS): スーパーポッドの「秘密兵器」は、Optical Circuit Switching (OCS) です 2。これは「動的で再構成可能なファブリック」2 です。
OCS は、この巨大なスケールにおいて2つの極めて重要な役割を果たします。
第一に、**前例のない回復力(レジリエンス)**です。9,216 チップ、10 メガワット 10 もの電力を消費するシステムでは、ハードウェアの障害は「可能性」ではなく、「常時発生するもの」として扱わなければなりません。OCS は、この問題に対するシステムレベルの解決策です。障害を検知すると「即座に中断箇所を迂回してワークロードを復旧」させます 2。OCS は「故障したノードを切り離し」11、他のノードを使用するように「スライス」を再構成することで、ジョブの実行を継続させます。これは、従来の静的に配線された HPC クラスターでは不可能だったレベルのフォールト・トレランスであり、商用クラウド製品としては不可欠な機能です。
第二に、商業的な柔軟性と効率性です。OCS は信頼性のためだけの機能ではありません。これはビジネスのための機能でもあります。OCS によって、Google は「TPU ポッドを様々な形状やサイズにスライス・アンド・ダイス(切り分け)」16 し、「異なるサイズの直方体に構成」11 することができます。これこそが、マルチテナンシーを実現する鍵です。Google Cloud は Ironwood を 256 チップ構成と 9,216 チップ構成で提供しています 10。OCS は、単一の 9,216 チップの物理ポッドを、顧客向けの小規模で分離された多数の「仮想ポッド」に動的に分割することを可能にする、ソフトウェア定義のファブリックです。これにより、フリート全体の稼働率とラックあたりの収益を最大化することができます。
3. 世代間の飛躍と競争環境の分析
3.1. 内部進捗のベンチマーク: Ironwood 対 歴代 TPU
Ironwood は、Google の TPU 開発ペースが加速していることを示す、性能面での飛躍的な向上を実現しています。
- 対 TPU v5p (2023): Ironwood は、TPU v5p と比較して 10 倍のピーク性能向上を実現しました 2。
- 対 TPU v6e “Trillium” (2024): Ironwood は、Trillium と比較して、トレーニングと推論の両方のワークロードにおいて、チップあたり 4 倍以上の優れた性能を達成しました 2。
- 対 TPU v1 (2018): Ironwood は、2018 年の最初の Cloud TPU と比較して、「30 倍近く電力効率が高い」とされています 10。
v5p に対する 10 倍という驚異的な性能向上は、単なるクロック速度の向上によるものではありません。この飛躍の大きな要因は、アーキテクチャと精度の進歩にあります。TPU v4 と v5p では FP8 精度はエミュレートされていましたが、Ironwood では FP8 がネイティブでサポートされています 10。現在 AI のトレーニングと推論の標準となっている 8 ビット浮動小数点 (FP8) 演算に対するこのネイティブなハードウェアサポートが、性能の飛躍に大きく貢献しており、ハードウェアとソフトウェア(モデルにおける FP8 の採用)がいかに協調して進化しているか 2 を示しています。
表 2: Google TPU 世代間パフォーマンス比較
| メトリック | TPU v5p (2023) | TPU v6e ‘Trillium’ (2024) | TPU v7 ‘Ironwood’ (2025) |
| ピーク性能 (v5p比) | 1.0x | N/A | 10x 9 |
| チップあたり性能 (v6e比) | N/A | 1.0x | >4x 9 |
| 電力あたり性能 (Trillium比) | N/A | 1.0x | 2x 11 |
| チップあたり HBM 容量 | 96 GB | 32 GB 23 | 192 GB (Trillium の 6 倍) 23 |
| 最大ポッドサイズ (チップ数) | 8,960 16 | 256 33 | 9,216 16 |
3.2. チップ対決: Ironwood 対 Nvidia B200 対 AMD MI300X
Ironwood のチップごとの仕様を市場の主要なライバル製品と直接比較すると、Google が性能面で同等レベルに達したことがわかります。
- Google Ironwood vs. Nvidia B200:
- 演算性能: Ironwood (4.6 PFLOPS FP8) 16 に対し、B200 (4.5 PFLOPS FP8) 16。性能は「ごくわずかな差」16 です。
- メモリ: どちらも 192 GB の HBM3e を搭載しています 16。
- 帯域幅: Ironwood (約 7.4 TB/s) 16 に対し、B200 (8 TB/s) 16。ここでもほぼ同等です。
- Google Ironwood vs. AMD MI300 シリーズ:
- 演算性能: Ironwood (4.6 PFLOPS FP8) に対し、AMD MI300A (1.96 PFLOPS FP8) 20。これは、Ironwood が MI300A に対して明確な性能的優位性を持っていることを示しています。
この比較において見落とされがちな重要な差別化要因は、Ironwood のダイ・アーキテクチャです。Nvidia の B200 は、2 つのダイを組み合わせた複雑なチップレット構成です 25。一方、Ironwood は単一のモノリシック・コンピュート・ダイを採用していると報告されています 25。Google は自社が最大の顧客であるため、この(歩留まりは難しいが)よりシンプルな設計は、高度なチップレット・パッケージングの複雑さを回避し、そしてさらに重要なことに、Nvidia の 70% を超える粗利益 36 を支払う必要がないため、「固有のコスト優位性」25 をもたらします。
表 3: 競合アクセラレータ分析:チップごとの仕様 (2025年第4四半期)
| メトリック | Google Ironwood (TPU v7) | Nvidia Blackwell B200 | AMD Instinct MI300A |
| ピーク演算性能 (FP8) | 4.6 PFLOPS 16 | 4.5 PFLOPS 16 | 1.96 PFLOPS 20 |
| HBM 容量 | 192 GB 16 | 192 GB 16 | 128 GB (Unified) 20 |
| HBM タイプ | HBM3e 16 | HBM3e 16 | HBM3 20 |
| HBM 帯域幅 | 約 7.4 TB/s 16 | 8.0 TB/s 16 | 5.3 TB/s 20 |
| チップ間相互接続 | 9.6 Tbps (ICI) 16 | 14.4 Tbps (NVLink) 16 | 4th Gen Infinity Fabric 20 |
3.3. システム対決: スーパーポッド 対 NVL72
前項 3.2 でのチップレベルの比較は、ある意味「目くらまし」です。AI インフラにおける真の戦いはシステム/ポッドレベルで起こっており、そこでは Google が圧倒的な優位性を持っています。
- Nvidia のシステム: Nvidia の GB300 NVL72 システムは、「スケールアウトの構成要素」です。72 基のアクセラレータを単一のコンピュート・ドメインに接続し 16、0.36 エクサフロップス (FP8) の性能を提供します 4。
- Google のシステム: Ironwood スーパーポッドは、9,216 基のアクセラレータを単一のドメインに接続し 2、42.5 エクサフロップス (FP8) の性能を提供します 4。
この単純な計算、すなわち 42.5 EF (Google) $\div$ 0.36 EF (Nvidia) は、アドレス可能な単一のコンピュート・ドメインにおいて、Google が 118 倍という圧倒的な性能アドバンテージを持つことを示しています 9。
これは単なる量的な違いではなく、質的な違いです。Nvidia は顧客が自らネットワークで接続しなければならない「レンガ」(NVL72)を販売しています(スケールアウト)。Google の AI Hypercomputer は、あらかじめ構築された「超高層ビル」(スケールアップ)を提供します 16。
Anthropic や Google DeepMind のようなフロンティアスケールの顧客にとって、9,216 個のチップと 1.77 PB のメモリ 2 を単一のマシンとして扱える 15 ことは、AI 開発の問題そのものを根本的に変えます。これにより、大規模なスケールアウト型クラスターで常に問題となるネットワークのボトルネックが解消されます。
表 4: システムレベルの競争分析: 単一コンピュート・ドメイン
| メトリック | Google Ironwood スーパーポッド | Nvidia GB300 NVL72 システム |
| 最大アクセラレータ数 (単一ドメイン) | 9,216 2 | 72 16 |
| システム演算性能 (FP8 ExaFLOPS) | 42.5 EF 4 | 0.36 EF 4 |
| システム HBM 総容量 | 1.77 PB 2 | 13.8 TB (72 $\times$ 192 GB) [派生] |
| スケール・アドバンテージ (演算性能) | 約 118 倍 9 | 1x |
4. AI Hypercomputer ソフトウェアスタック: 実践における協調設計
Ironwood ハードウェアは、それ自体が強力ですが、その真価は、チップの集合体を「AI Hypercomputer」と呼ばれる単一のシステムとして機能させる、協調設計されたソフトウェアスタック 2 によって初めて引き出されます 2。
4.1. オーケストレーションとランタイム: GKE、Cluster Director、Pathways
- オーケストレーション: Google Kubernetes Engine (GKE) が管理レイヤーとして機能します 28。Google は、TPU 向けの「GKE の Cluster Director 機能」を発表しました 2。これにより、GKE はこれらの巨大なポッドスライスのライフサイクル管理とスケジューリングを行うことができます 37。
- ランタイム: Pathways は「Google DeepMind によって開発された ML ランタイム」です 10。これは、「複数の TPU チップにわたる効率的な分散コンピューティング」を可能にする「ソフトウェアレイヤー」です 10。
このアーキテクチャでは、GKE が「インフラストラクチャ・マネージャー」として機能し、OCS ファブリックのスライス(例:「256 個の TPU を確保」)をプロビジョニングし、スケジューリングします 37。その後、Pathways が「ジョブ・マネージャー」として、そのスライス内で ML モデル自体の複雑なマルチホスト 39 並列処理を実行します 26。これは、Nvidia の Megatron-LM や NeMo といった独自フレームワークに相当する、Google 内部で実戦投入されてきたシステムです 40。
4.2. オープンフレームワークの統合: MaxText と vLLM のサポート
このセクションでは、Google が自社ハードウェアの「参入障壁」を下げるために用いている、極めて重要な戦略について詳述します。
- MaxText: Google 独自の高性能オープンソース LLM フレームワークであり、JAX で記述され、TPU に最適化されています 2。Ironwood 上で SFT (Supervised Fine-Tuning) や GRPO (Generative Reinforcement Policy Optimization) といった新しいトレーニング手法をサポートするよう強化されています 2。
- vLLM のサポート: Google は「vLLM における TPU のサポート強化」を発表しました 2。vLLM は「最も人気のあるオープンソース LLM 推論エンジン」です 44。
この vLLM のサポートは、Google のソフトウェア戦略において最も重要な発表と言えるかもしれません。Nvidia の最も強力な競争優位性、すなわち「堀」は、ハードウェアではなく、CUDA に始まるソフトウェア・エコシステムであり、これが開発者を強力にロックインしています。
vLLM のサポートを有効にすることで、Google は開発者のために「橋」を架けています。これにより、開発チームは「わずかな設定変更で GPU と TPU を切り替える」ことが可能になります 2。これは、Nvidia のソフトウェア・ロックインという牙城を無力化し、アクセラレータの選択を純粋な「価格対性能比」の計算に戻すものです。そして、Ironwood という新しいハードウェアを手にした Google は、今やその計算において勝利する準備ができています。
5. 市場導入、内部展開、および戦略的意義
5.1. アンカーテナント: Anthropic の 100 万 TPU コミットメント
Ironwood の能力は、サードパーティの AI ラボによる採用によって、市場で強力に検証されています。
- 契約: AI フロンティアモデル開発のリーディングカンパニーである Anthropic は、「最大 100 万ユニットの TPU」にアクセスする計画を発表しました 2。これは「数百億ドル」規模のコミットメントであり 6、2026 年には「1 ギガワットをはるかに超える」容量がオンラインになると予想されています 6。
- 他の顧客: 初期の採用企業には、LTX-2 モデルのトレーニングに TPU を使用した Lightricks 4 や、Essential AI 2 なども含まれます。
Anthropic のコミットメントが特に強力なシグナルとなる理由は、彼らが Google 専用の顧客ではない点にあります。Anthropic は、Google TPU、Amazon Trainium、Nvidia GPU にまたがる「多様なコンピュート戦略」を明示的に維持しています 6。
これは、彼らの TPU への「数百億ドル」の投資が、ベンダーロックインの結果ではないことを意味します。むしろ、地球上で唯一、3 つのプラットフォームすべてを大規模に A/B テストできる数少ない組織の 1 つが、純粋な性能とコストに基づいて下した決定なのです。これは、TPU がフロンティアモデル開発のための「実績ある ASIC」7 であることを市場に示す、究極の検証となります 47。
5.2. Google ユニバースの強化: Gemini、Search、YouTube
Google は、自社にとって最大かつ最も重要な顧客であり続けています 48。
- フロンティアモデル: Ironwood は、Gemini、Veo、Imagen といった Google 独自のフラッグシップ AI モデルのトレーニングとサービングに使用されています 7。
- コアサービス: TPU は、Search、YouTube、Photos、Maps といった Google の最も重要でトラフィックの多い製品の基盤となっています 7。
この「ドッグフーディング」(自社製品の利用)2 は、強力で迅速な反復開発のフライホイール(はずみ車)を生み出します。Google DeepMind がより大規模な Gemini モデル 8 のトレーニングを必要とすると、それがハードウェアチームを動かし、9,216 チップのポッドが構築されます。そして、このハードウェアを動かすために、ソフトウェアチーム(Pathways)26 がランタイムを構築します。この緊密な垂直統合 2 こそが Google のイノベーションの中核エンジンであり、単一の目的に向かってスタック全体を協調設計することを可能にしています。これは、他のいかなる企業もこのレベルでは保有していない能力です。
5.3. 結論的分析: 競争上の「堀」としての Google の垂直統合
本レポートの結論として、Ironwood の戦略における最終的な、そして最も重要な側面を指摘します。それは、Ironwood チップが市販されていないという事実です。Ironwood は「Google のクラウドサービスを通じてのみ排他的に利用可能」であり、企業が購入することはできません 18。企業は Ironwood スーパーポッドを所有することはできず、Google Cloud Platform (GCP) 上でそのアクセス権をレンタルすることしかできません。
これは、Google にとって深刻な非対称的な優位性を生み出します。
- コスト: Google のクラウド競合他社(Amazon、Microsoft、Oracle)は、AI ハードウェアを Nvidia から購入し、Nvidia の 70% を超える粗利益を支払わなければなりません 49。Google は、自社チップ(TSMC/Broadcom 経由)を製造する 25 ことで、このマージンの上乗せを回避します。これにより、Google は販売する AI コンピュートのすべてのユニットにおいて、構造的なコスト優位性を持つことになります 25。
- 供給: Google は、Nvidia のチップ割り当て不足の影響を受けません。自社のフラッグシップ・アクセラレータのサプライチェーンを自らコントロールしています。
- パフォーマンス: AI Hypercomputer が示すように、Google はインフラ全体(3nm チップ 25、カスタム Axion CPU 4、OCS ファブリック 2、10MW 液体冷却システム 2、Pathways ソフトウェア 26)を、単一の最適化された目的のために協調設計しています 2。
したがって、Ironwood は単なる製品ではなく、Google の AI 戦略全体を物理的に具現化したものです。それは、コストが管理され、高性能を発揮する、垂直統合された AI の「壁に囲まれた庭(Walled Garden)」36 です。その設計そのものが、競合他社には購入も複製も不可能なものとなっています。Ironwood は、Google(およびその GCP 顧客)に、「購入不可能」な競争上の「堀」を提供しているのです。
引用文献
- Ironwood Tensor Processing Unit (TPU) – Google Cloud https://cloud.google.com/resources/ironwood-tpu-interest
- Ironwood TPUs and new Axion-based VMs for your AI workloads | Google Cloud Blog https://cloud.google.com/blog/products/compute/ironwood-tpus-and-new-axion-based-vms-for-your-ai-workloads
- 11月 7, 2025にアクセス、 https://cloud.google.com/blog/products/compute/ironwood-tpus-and-new-axion-based-vms-for-your-ai-workloads#:~:text=Ironwood%20is%20purpose%2Dbuilt%20for,AI%20inference%20and%20model%20serving.
- Google deploys new Axion CPUs and seventh-gen Ironwood TPU — training and inferencing pods beat Nvidia GB300 and shape ‘AI Hypercomputer’ model https://www.tomshardware.com/tech-industry/artificial-intelligence/google-deploys-new-axion-cpus-and-seventh-gen-ironwood-tpu-training-and-inferencing-pods-beat-nvidia-gb300-and-shape-ai-hypercomputer-model
- Google Cloud’s Ironwood ready for general availability | Constellation Research Inc. https://www.constellationr.com/blog-news/insights/google-clouds-ironwood-ready-general-availability
- Expanding our use of Google Cloud TPUs and Services \ Anthropic https://www.anthropic.com/news/expanding-our-use-of-google-cloud-tpus-and-services
- Google may be Nvidia’s biggest rival in chips – and now it’s upping its game https://www.morningstar.com/news/marketwatch/20251106175/google-may-be-nvidias-biggest-rival-in-chips-and-now-its-upping-its-game
- Google unleashes Ironwood TPUs, new Axion instances as AI inference demand surges https://siliconangle.com/2025/11/06/google-unleashes-ironwood-tpus-new-axion-instances-ai-inference-demand-surges/
- Google Cloud unveils Ironwood TPU and Axion instances https://www.testingcatalog.com/google-cloud-unveils-ironwood-tpu-and-axion-instances/
- Ironwood: The first Google TPU for the age of inference – The Keyword https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/
- Google Ironwood TPU Swings for Reasoning Model Leadership at Hot Chips 2025 https://www.servethehome.com/google-ironwood-tpu-swings-for-reasoning-model-leadership-at-hot-chips-2025/
- Google launches long-awaited Ironwood TPU for AI inferencing https://www.techzine.eu/news/devices/136139/google-launches-long-awaited-ironwood-tpu-for-ai-inferencing/
- [News] Google Unveils 7th-Gen TPU Ironwood with 9,216-Chip Superpod, Taking Aim at NVIDIA https://www.trendforce.com/news/2025/11/07/news-google-unveils-7th-gen-tpu-ironwood-with-9216-chip-superpod-taking-aim-at-nvidia/
- Google Cloud Announces GA of Ironwood TPUs and Axion VMs for AI Inference https://insidehpc.com/2025/11/google-cloud-announces-iga-of-ironwood-tpus-and-axion-vms-for-ai-nference/
- Google is finally rolling out its most powerful Ironwood AI chip, first introduced in April, taking aim at Nvidia in the coming weeks. Its 4x faster than its predecessor, allowing more than 9K TPUs connected in a single pod : r/singularity – Reddit https://www.reddit.com/r/singularity/comments/1oq05wn/google_is_finally_rolling_out_its_most_powerful/
- TPU v7, Google’s answer to Nvidia’s Blackwell is nearly here https://www.theregister.com/2025/11/06/googles_ironwood_tpus_ai/
- Google’s 7th Generation AI Chip ‘Ironwood’ Defeats TPU Ancestors – USAII https://www.usaii.org/ai-insights/googles-7th-generation-ai-chip-ironwood-defeats-tpu-ancestors
- Ironwood: The first Google TPU for the age of inference : r/hardware – Reddit https://www.reddit.com/r/hardware/comments/1jv8180/ironwood_the_first_google_tpu_for_the_age_of/
- Google’s 7th-gen Ironwood TPUs promise 42 AI exaFLOPS pods – The Register https://www.theregister.com/2025/04/10/googles_7thgen_ironwood_tpus_debut/
- All About Google’s Ironwood TPU: Is It Really A Step Up? – TechDogs https://www.techdogs.com/td-articles/trending-stories/google-ironwood-tpu
- Hardware nerds: Ironwood vs Blackwell/Rubin : r/singularity – Reddit https://www.reddit.com/r/singularity/comments/1kevvfa/hardware_nerds_ironwood_vs_blackwellrubin/
- Google Ironwood TPU: A Massive Leap in AI Inference Performance – StorageReview.com https://www.storagereview.com/news/google-ironwood-tpu-a-massive-leap-in-ai-inference-performance
- Google Unveils Seventh-Generation AI Processor: Ironwood | TechPowerUp Forums https://www.techpowerup.com/forums/threads/google-unveils-seventh-generation-ai-processor-ironwood.335253/
- Ironwood TPU: Transforming the Future of AI Performance https://neurom.in/ironwood-tpu/
- Google Cloud Next 2025: Ironwood TPU, Agent Toolkits, and Google’s vertical advantage https://creativestrategies.com/research/google-cloud-next-2025-ironwood-tpu-agent-toolkits-and-googles-vertical-advantage/
- Ironwood: The first Google TPU for the age of inference – SemiWiki https://semiwiki.com/forum/threads/ironwood-the-first-google-tpu-for-the-age-of-inference.22529/
- TPU architecture | Google Cloud Documentation https://docs.cloud.google.com/tpu/docs/system-architecture-tpu-vm
- Tensor Processing Units (TPUs) – Google Cloud https://cloud.google.com/tpu
- Ironwood TPU details show Google’s most powerful supercomputer to date with 1.77PB shared memory across 9216 chips setting a new world record | TechRadar https://www.techradar.com/pro/googles-most-powerful-supercomputer-ever-has-a-combined-memory-of-1-77pb-apparently-a-new-world-record-for-shared-memory-multi-cpu-setups
- [D] Google just released a new generation of TPUs. Who actually uses TPUs in production? : r/MachineLearning – Reddit https://www.reddit.com/r/MachineLearning/comments/1k0fg57/d_google_just_released_a_new_generation_of_tpus/
- Google Provides Detailed Insight on Next-Gen “Ironwood” TPU Superpod: 9216 Chips, 192GB HBM Memory & 4614 TFLOPs Compute Per Chip – Wccftech https://wccftech.com/google-next-gen-ironwood-tpu-superpod-9216-chips-192gb-hbm-4614-tflops-per-chip/
- Google Unveils Ironwood TPUs at Hot Chips 2025: 7th Gen AI Accelerators – GameGPU https://en.gamegpu.com/iron/google-offers-tpu-ironwood-on-hot-chips-2025-7-and-generation-of-uskoritelej-for-ii
- Tensor Processing Unit – Wikipedia https://en.wikipedia.org/wiki/Tensor_Processing_Unit
- Google to offer Ironwood TPU for public use; Anthropic among first major clients https://m.economictimes.com/tech/technology/google-to-offer-ironwood-tpu-for-public-use-anthropic-among-first-major-clients/articleshow/125138348.cms
- Measuring the environmental impact of delivering AI at Google Scale – arXiv https://arxiv.org/html/2508.15734v1
- Google’s Secret Chip Beats Nvidia at Scale, But You Can’t Buy It | by Finomics Edge https://medium.com/@finomicsedge/googles-secret-chip-beats-nvidia-at-scale-but-you-can-t-buy-it-fb0b8661fd99
- About TPUs in GKE | GKE AI/ML – Google Cloud Documentation https://docs.cloud.google.com/kubernetes-engine/docs/concepts/tpus
- AI Hypercomputer and TPU (Tensor) acceleration with Google Cloud – Tech Field Day https://techfieldday.com/video/ai-hypercomputer-and-tpu-tensor-acceleration-with-google-cloud/
- Inside the Ironwood TPU codesigned AI stack | Google Cloud Blog https://cloud.google.com/blog/products/compute/inside-the-ironwood-tpu-codesigned-ai-stack
- AI Hypercomputer | Google Cloud https://cloud.google.com/solutions/ai-hypercomputer
- AI-Hypercomputer/maxtext: A simple, performant and scalable Jax LLM! – GitHub https://github.com/AI-Hypercomputer/maxtext
- MaxText – A high-performance, highly scalable open-source LLM library and reference https://jimmysong.io/en/ai/maxtext/
- What’s new with AI Hypercomputer? | Google Cloud Blog https://cloud.google.com/blog/products/compute/whats-new-with-ai-hypercomputer
- In Q3 2025, AI Hypercomputer adds vLLM TPU and more | Google Cloud Blog https://cloud.google.com/blog/products/compute/in-q3-2025-ai-hypercomputer-adds-vllm-tpu-and-more
- Google’s 7th generation TPU IRONWOOD™ has an absolutely insane hyperbolic stat growth compared to previous gens,built for the age of inference – Reddit https://www.reddit.com/r/accelerate/comments/1jv97x5/googles_7th_generation_tpu_ironwood_has_an/
- Anthropic’s billion-Dollar TPU expansion signals strategic shift in enterprise AI infrastructure https://www.artificialintelligence-news.com/news/anthropic-tpu-expansion-enterprise-ai-infrastructure/
- Google Unleashes Ironwood TPU: 4x Faster AI Chip Challenges Nvidia | The Tech Buzz https://www.techbuzz.ai/articles/google-unleashes-ironwood-tpu-4x-faster-ai-chip-challenges-nvidia
- Google TPU Ironwood: Revolutionizing AI Inference at Scale – CloudOptimo https://www.cloudoptimo.com/blog/google-tpu-ironwood-revolutionizing-ai-inference-at-scale/
- The Dawn of a New Era: Hyperscalers Forge Their Own AI Silicon Revolution https://markets.financialcontent.com/wral/article/tokenring-2025-11-6-the-dawn-of-a-new-era-hyperscalers-forge-their-own-ai-silicon-revolution



