AlphaChip

AI駆動による半導体設計革命

画像クリックでインフォグラフィックサイトに遷移します

序論

本レポートは、Google DeepMindが開発した画期的なAI駆動設計手法であるAlphaChipについて詳細に分析するものである 1。AlphaChipは物理的なチップそのものではなく、半導体設計プロセス、特に「チップフロアプランニング」と呼ばれる工程を自動化・最適化するためのAIシステムである。このシステムは、DeepMindがこれまで囲碁(AlphaGo)やタンパク質構造予測(AlphaFold)といった壮大な課題に強化学習(RL)を適用してきた「Alpha」シリーズの系譜に連なるものである 1。AlphaChipは、60年以上にわたって自動化が困難とされてきた、現実世界の複雑なエンジニアリング問題を深層強化学習が成功裏に解決した最初期の顕著な事例の一つとして位置づけられる 3。本稿では、人工知能とそれを駆動するハードウェアとの間に存在する共生的かつフィードバック駆動型の関係性という中心的なテーマを据える。AlphaChipは、このサイクルを体現し、かつ加速させる存在であり、その技術的基盤、実世界への影響、学術的・産業的文脈、そして将来の展望を包括的に解き明かすことを目的とする。


第1章 チップフロアプランニングへの強化学習アプローチ

本章では、AlphaChipの技術的アーキテクチャを詳細に分解し、いかにして複雑な物理設計タスクを解決可能な機械学習問題へと転換したのかを解説する。

1.1 逐次ゲームとしてのチップ設計:マルコフ決定過程(MDP)

AlphaChipの根幹をなす概念的飛躍は、シリコンダイ上の機能ブロックの戦略的配置であるチップフロアプランニングを、逐次的な意思決定「ゲーム」としてモデル化した点にある 3。この問題構造は、コンポーネントの配置が本質的に逐次的であり、各決定が後続のすべての決定を制約するという性質を持つため、強化学習に自然に適合する 8

プロセスは、空白のチップキャンバス(グリッド)から始まり、RLエージェントがレイアウトが完成するまで一度に一つのマクロ(メモリやロジックブロック)を配置していくというものである 3。このアプローチにより、同時配置がもたらす膨大な組み合わせの複雑さが、管理可能なステップバイステップのプロセスに分解される 8

このプロセスは、マルコフ決定過程(MDP)として正式に定義される。その主要な要素は以下の通りである:

  • 状態(States): チップの部分的な配置状況
  • 行動(Actions): 次のマクロを配置可能なグリッドセルに置くこと
  • 報酬(Rewards): 最終的なレイアウトの品質に関するフィードバック 8

1.2 エージェントの頭脳:エッジベース・グラフニューラルネットワーク(GNN)

AlphaChipの核となるニューラルネットワークアーキテクチャは、チップのネットリスト(コンポーネントとその接続を記述したハイパーグラフ)を主入力とする 10。その革新性は、新規の「エッジベース」グラフ畳み込みニューラルネットワーク(GNN)の採用にある 3。このアーキテクチャは、個々のコンポーネントの特徴だけでなく、コンポーネント間の関係性や接続性に焦点を当てることで、チップ構造の豊かで転移可能な表現を学習するよう特別に設計されている 6

GNNがもたらす汎化能力は、AlphaChipの大きな利点である。あるチップ設計から優れた配置の基本原則を学習することで、その知識を未知の新しい設計に適用できる。これにより、人間の専門家と同様に、経験を積むごとに性能と速度が向上していく 3

1.3 報酬関数:多目的の羅針盤

報酬関数は、RLエージェントの学習プロセスを導く極めて重要なシグナルである 11。AlphaChipの報酬はスパース(疎)であり、すべてのマクロが配置された後、つまり配置エピソードの最後に一度だけ与えられる 8。この設計は、エージェントが短期的な利益に基づく局所最適解に陥るのを防ぎ、最終的なレイアウトの全体的な品質を最適化するよう促す 12

報酬は、チップの現実世界での有効性を決定する主要な物理的指標を、重み付けされた線形和として慎重に設計されている 8。その構成要素は以下の通りである:

  • 代理配線長(Proxy Wirelength): 全コンポーネントを接続するために必要な配線の総長の推定値。配線長を短くすることが主要な目的の一つである 10
  • 配線輻輳(Routing Congestion): 配線チャネルの混雑度を示す指標。高い輻輳は、チップの配線を不可能にしたり、性能を低下させたりする可能性がある 10
  • 電力密度(Power Density): 消費電力の集中度を示す指標。ホットスポットを回避し、製造可能性を確保するために最適化される 9

最終的な報酬は、これらの代理指標の重み付き和の負の値として計算され、最適化問題をRLエージェントにとっての報酬最大化タスクへと変換する 9。学習アルゴリズムには、深層強化学習の標準的な手法であるProximal Policy Optimization(PPO)が使用される 8

1.4 事前学習の決定的な役割

事前学習は、単なるオプションのステップではなく、AlphaChipの成功に不可欠な基本要件であり、後の学術的論争の中心点ともなった 15。事前学習では、ターゲットとなる設計に取り組む前に、RLエージェントを多様な既存のチップブロックで訓練する 3。このプロセスを通じて、モデルは過去の経験から汎用的な配置戦略やヒューリスティクスを学習する 17

技術的な利点は、サンプル効率と最終的な性能の大幅な向上にある。複雑な新しいチップに対してゼロから(tabula rasa)学習するエージェントは困難に直面するが、事前学習済みエージェントはチップ設計原則の基礎的な「理解」を持ってタスクに臨むため、はるかに迅速に高品質な解を見つけ出すことができる 19。この概念の重要性は、現代AIにおける大規模言語モデル(GPTの’P’は’pre-trained’を意味する)との類推によっても理解できる 19

このアプローチは、従来のEDAツールが強力な「ソルバー」として各設計に個別に取り組むのとは対照的である。従来のツールは、解析的ソルバーやシミュレーテッドアニーリングのようなアルゴリズムを用いて、与えられたネットリストを第一原理から解く 8。過去に扱った設計を「記憶」することはない。一方、AlphaChipの事前学習は、過去の設計コーパスでモデルを明示的に訓練する。これにより、モデルの重みには、個々の設計から独立した「良い」配置の一般的なパターンや戦略が符号化される 8。新しいチップに直面したとき、それは知識がゼロの状態からではなく、この符号化された「経験」から開始する。これは、20個のチップを設計した人間のエンジニアが、21個目の設計をより速く、より良く行うための直感を身につけるのと類似している。このように、状態を持たない「ソルバー」から、時間とともに学習し改善する状態を持つ「専門家」への移行は、設計自動化の哲学における根本的な変化を意味する。

1.5 フロアプランニングの物理学:なぜ配線長が重要なのか

AlphaChipの成果を理解するためには、フロアプランニングの指標と最終的なチップ性能(Power, Performance, and Area – PPA)との間の物理的な関係を把握することが不可欠である 22

  • 性能(速度): 配線が短いほど、その抵抗と容量が小さくなる。これによりRC遅延が減少し、コンポーネント間で信号がより速く伝播できるようになる。結果として、より高いクロック周波数が可能となり、全体的な性能が向上する 23
  • 消費電力: 動的電力は、容量とスイッチング周波数に比例する。配線長を短くすると総容量が減少し、動作中に消費される電力が直接的に低下する。また、短い配線はより小さなドライバーセル(バッファ)で済むため、さらなる電力と面積の削減につながる 23
  • 面積とコスト: 配線長と配置を最適化することで実現されるよりコンパクトなレイアウトは、ダイサイズの縮小につながる。これにより、一枚のウェハーから製造できるチップの数が増加し、製造コストが直接的に削減される 22

AlphaChipの真のブレークスルーは、強力なアルゴリズムの適用そのものよりも、物理法則(電磁気学、熱力学)と製造ルールが複雑に絡み合うエンジニアリング問題を、クリーンで学習可能な「ゲーム」へと見事に抽象化したことにある 3。RLは、AlphaGoが示したように、明確なルールと目的を持つ離散的で逐次的な状態空間で優れた性能を発揮する 1。AlphaChipの開発チームは、問題をマクロをグリッド上に配置するタスク(行動空間の離散化)としてモデル化し、最終的な報酬の代理指標(複雑な物理現象を単一のスカラー値に抽象化)を用いるという重要な決定を下した 6。この抽象化は、配置段階で一部の物理的忠実度を犠牲にするが、問題をRLエージェントにとって扱いやすいものにする。最終的なチップの成功は、この抽象化が有効であったことを証明している。汎用的なAI技術を専門的な科学・工学分野に適用する際には、適切な抽象化レベルを見出すことが極めて重要なのである。


第2章 理論からシリコンへ:AlphaChipがGoogleのハードウェアに与えた影響

本章では、AlphaChipが研究プロジェクトから生産に不可欠なツールへと移行したことを示す、具体的な成果と実世界での展開を記録する。

2.1 Tensor Processing Unit(TPU)ロードマップの加速

AlphaChipは、2020年の最初の論文発表以来、GoogleのTPUの全世代においてレイアウト設計のために本番環境で使用されてきた 3。その主な適用先は、Gemini、Imagen、Veoといったモデルの基盤ハードウェアである、これらのカスタムAIアクセラレータである 3

このシステムは、v5e、v5p、そして最新の第6世代Trillium TPUを含む、直近3世代のTPUの設計において重要な役割を果たしてきた 3。世代を重ねるごとに、AlphaChipはフロアプラン全体のより大きな部分の設計を任されるようになっており、これはAIの能力に対する信頼と依存の高まりを示している 3

2.2 「超人的」性能の定量化

Google DeepMindは「超人的(superhuman)」という言葉を、人間の専門家が生み出すレイアウトを主要な指標で上回り、かつ、その成果をわずかな時間(数ヶ月ではなく数時間)で達成するレイアウトを表現するために用いている 3

Table 1: AlphaChipのGoogle TPU世代への定量的影響

TPU世代タスク概要AlphaChipの貢献配線長削減率(vs. 人間の専門家)最終チップの主要性能向上(vs. 前世代)出典
TPU v5e主要機能ブロックの配置10ブロックを配置3.2%Trillium比較のベースライン30
TPU v5p主要機能ブロックの配置「直近3世代」の一部だがブロック数非公開非公開非公開28
Trillium(第6世代)フロアプランのより広範な部分の配置25ブロックを配置6.2%チップあたり4.7倍のピーク演算性能向上、67%以上のエネルギー効率改善4

これらのフロアプランニングの改善は、最終的なチップ全体の性能向上に寄与する要因の一つである。AlphaChipの支援を受けて設計されたTrillium TPUは、前世代のTPU v5eと比較して、チップあたりのピーク演算性能が4.7倍に向上し、エネルギー効率は67%以上改善されている 4。最適化されたレイアウトがこれらの向上を可能にする重要な要素であることは間違いない 31

報告されている配線長の削減率(例:Trilliumで6.2%)は重要だが、より深遠な影響は、AIが人間のチームでは探索不可能な、はるかに広大で複雑な設計空間を探索する能力にある。人間の設計者は、経験、確立されたパターン、ヒューリスティクスに頼ってフロアプランニングの immense な複雑さを管理しており、これが探索する解空間を本質的に制約している 8。報酬関数のみに導かれるRLエージェントは、人間の認知バイアスや「良い」レイアウトがどうあるべきかという先入観から自由である 33。そのため、定量的には優れているが人間が考慮しなかったであろう、新規で「奇妙な」 33 構成を発見することができる。配線長の改善率は最終的な測定結果であるが、その根本原因は、高次元で非凸な探索空間をナビゲートし最適化するAIの優れた能力にある。真の価値は単なる最適化ではなく、発見にあるのだ。

2.3 TPUを超えて:Axionプロセッサと広範な業界採用

AlphaChipの有用性は、特殊なAIアクセラレータにとどまらない。Google初のカスタムArmベースのデータセンター向けCPUであるGoogle Axionプロセッサなど、Alphabetの他の重要なハードウェアのレイアウト生成にも使用されている 3

その方法論とオープンソースフレームワークは、Google外部でも採用が進んでいる。世界的な大手チップ設計企業であるMediaTekは、AlphaChipを拡張し、同社の最先端チップ(Samsung製スマートフォンに搭載されるDimensity 5G SoCなど)の開発を加速させると同時に、電力、性能、面積を改善した 3

オープンソースの circuit_training リポジトリと事前学習済みモデルチェックポイントの公開は、コミュニティにおけるより広範な研究と採用を促進することを明確に意図している 5

Googleのような、AIモデル(Gemini)とそれを実行するハードウェア(TPU)の両方を設計する企業にとって、AlphaChipは強力な戦略的資産である。従来のチップ設計サイクルは長く、AIの革新のボトルネックとなっていた 3。AlphaChipは、このサイクルの物理設計部分を数ヶ月から数時間に劇的に短縮する 3。この加速により、Googleのハードウェアチームとソフトウェアチームは、はるかに迅速に反復作業を行うことができる。将来のAIモデルに合わせた次世代TPUのアーキテクチャアイデアを、より速く物理的に実現し、評価することが可能になる。これにより、ハードウェアとソフトウェアの緊密な協調設計ループが生まれ 8、既製品のハードウェアや長い設計サイクルに依存する競合他社に対して、Googleに大きな優位性をもたらす。したがって、AlphaChipは単なる技術ツールではなく、Googleの垂直統合型AI戦略全体を可能にする重要な要素なのである。


第3章 EDAの現状と性能論争

本章では、確立された業界に対するAlphaChipの位置づけと、その有効性を巡る議論について、学術的に厳密かつバランスの取れた視点から検証する。

3.1 既存のパラダイム:EDAの複占(CadenceとSynopsys)

電子設計自動化(EDA)業界は、主にCadenceとSynopsysという少数の主要企業によって支配されている 36。これらの企業は、チップ設計フロー全体を扱う包括的で高度に洗練されたソフトウェアスイートを提供している。彼らのツールは、物理ベースのシミュレーションとアルゴリズム的最適化に関する数十年の研究開発に基づいて構築された業界標準である 37

これらの企業も自社ツールにAI/MLを組み込んでいるが(例:Synopsys DSO.ai)、AlphaChipは、AI支援型の従来フローではなく、学習を第一とする根本的に異なるアプローチを代表している 33

3.2 批判:ISPD 2023と有効性への疑問

AlphaChipの性能主張に対する主な批判は、主にISPD 2023カンファレンスで発表された査読なしの招待論文とその後の分析に端を発している 16

主な批判点:

  • 非競争性: 批判者たちは、最新の商用ツール(Cadence製など)や他の学術的な配置ツールと比較した場合、AlphaChipの手法(Circuit TrainingまたはCTと呼ばれる)は、結果の質(QoR)と実行時間の両方で劣っていると主張した 41
  • 極端な計算コスト: RLアプローチは、事前学習に16基以上のGPUと512個のコレクターを使用するなど、膨大な計算リソースを必要とする。これは、従来のツールと比較して、多くの学術機関や小規模な産業チームにとっては非現実的である 13
  • 再現性の欠如と不適切な比較: 批判者たちがGoogleの結果を再現しようと試みたところ、劣った結果しか得られなかった。彼らは、この手法が特定の狭いテストケースでのみ機能するのではないかと示唆し、Googleの主張の妥当性に疑問を呈した 13

3.3 反論:「That Chip Has Sailed」と方法論的完全性の擁護

AlphaChipチームは、「That Chip Has Sailed: A Critique of Unfounded Skepticism Around AI for Chip Design」と題された論文で、詳細な反論を発表した 15

Table 2: AlphaChip性能論争の概要

論点ISPD 2023の批判(Cheng et al.)Googleの反論(”That Chip Has Sailed”)出典
事前学習事前学習を行わず、RLエージェントを各チップに対してゼロから学習させた。これはエージェントが経験から学習する能力を奪う根本的な方法論的誤りであり、比較は無効だと主張。13
計算リソース元のNature論文で指定されたよりも大幅に少ない計算リソース(20分の1のコレクター、半分のGPU)を使用した。大規模RLシステムのリソースを不足させれば性能が低下するのは当然であり、公正な比較ではないと主張。15
訓練プロトコルモデルが収束するまで訓練せず、途中でプロセスを停止した。収束までの訓練を怠ることは標準的なMLの実践に反し、最適でない性能の低いモデルを生み出すと主張。15
ベンチマーク古く、代表的でない技術ノード(例:45nm、12nm)で評価した。これらのベンチマークは、AlphaChipが解決するために構築された現代のサブ10nm設計の課題を代表していないと主張。13
総合結論AlphaChipの手法は、実行時間と結果の質(QoR)において、商用ツールや学術的ベースラインに対して競争力がない。批判者たちの結論は、手法の忠実な再現を妨げる複数の重大な実験設定の欠陥により無効である。15

この論争は、単なるベンチマークを巡る技術的な意見の相違ではなく、潤沢な資金を持つ大規模な産業AIラボと、伝統的な学術EDAコミュニティとの間の、より深い文化的・リソース的なギャップを反映している。Google DeepMindのような産業AIラボは、一つのプロジェクトに数百のGPUを数週間使用することが標準的な規模で運営されている 15。彼らの研究パラダイムは経験的であり、生産レベルの問題で最先端の結果を出すことに重点を置いている。一方、学術的なEDA研究は歴史的にアルゴリズム中心でリソースに制約があり、控えめな計算機で公開ベンチマーク上で実証できるアルゴリズムの優雅さや効率性が重視されることが多い 13。批判者たちのアプローチ(計算量を減らし、事前学習を省略する)は、自分たちのコミュニティの基準と制約を、異なるパラダイムから来た手法に適用したと見なすことができる。Googleの反論は、スケールと適切な訓練の必要性を強調し、彼らのパラダイムの基準を反映している。この結果生じた摩擦(「傲慢さ」対「根拠のない懐疑論」15)は、これら二つの世界の間の方法論、リソース、検証基準における根本的な断絶を浮き彫りにしている。

さらに、従来のEDAアルゴリズムがしばしば決定的で説明可能であるのに対し、深層RLエージェントの振る舞いは創発的で、その「推論」は不透明である。これにより、直接的な一対一の比較や不一致のデバッグが困難になり、論争を煽る一因となっている。従来のアルゴリズムが悪い結果を出した場合、専門家は失敗した特定のヒューリスティックやステップを追跡できることが多い 36。RLエージェントが悪い結果を出した場合、その原因はネットワークアーキテクチャ、報酬関数、ハイパーパラメータ、不十分な訓練、あるいは学習アルゴリズム自体の欠陥など、特定が困難である 15。批判者たちは、AlphaChipの手法の性能が低いのはその本質的な劣等性にあるとした 41。AlphaChipチームは、批判者たちによる訓練プロトコルの不正確な実装に原因があるとした 15。システムの性能が長く複雑な訓練プロセスの創発的な特性であるため、完全に再現されたリソース集約的な実験なしに、どちらの帰属が正しいかを決定的に証明することは難しい。この深層学習システム固有の不透明性が、科学的論争をより伝統的なアルゴリズム領域よりも解決困難にしている。


第4章 将来の軌跡:設計スタック全体の自動化

本章では、AlphaChipの長期的なビジョンと、それが半導体産業を再構築する可能性について探る。

4.1 フロアプランニングを超えて:エンドツーエンドのビジョン

Google DeepMindが公言している野心は、AlphaChipに触発されたAI手法を、高レベルのアーキテクチャ探査から最終的な製造準備完了レイアウトに至るまで、チップ設計プロセス全体を自動化するために適用することである 3

これには、方法論を設計フローの他の重要な段階に拡張することが含まれる:

  • 論理合成: 高レベルのハードウェア記述を最適化されたゲートレベルのネットリストに変換する。
  • タイミング最適化: すべての信号がタイミングのデッドラインを満たすように保証する。
  • マクロ選択: 設計に最適なメモリおよびIPブロックを選択する 3

最終的な目標は、ハードウェア、ソフトウェア、そしてMLモデル自体のエンドツーエンドの協調最適化を実行できるシステムであり、意図されたワークロードに完全にカスタマイズされたチップを作成することである 7

4.2 AIとハードウェアの好循環

本節では、AlphaChipが創出し、また象徴する強力なフィードバックループについて詳述する 4

そのサイクルは以下の通りである:

  1. より強力なAIモデル(AlphaChipなど)が、より良く、より速く、より効率的なチップ(Trillium TPUなど)を設計する。
  2. これらの優れたチップが、さらに大規模で高性能なAIモデルを訓練するための計算能力を提供する。
  3. これらの次世代AIモデルが、さらに高度なハードウェアを設計するために応用される。

この自己強化サイクルは、AIとハードウェアの両方における進歩のペースを劇的に加速させ、非線形的、場合によっては指数関数的な技術進歩率を生み出す可能性を秘めている 4

当初はGoogleのようなハイパースケーラー向けのツールであるが、完全に自動化された設計フローが長期的に意味するのは、カスタムチップ設計の民主化の可能性である。現在、カスタムチップの設計は法外な費用がかかり、高度に専門化された人間のエンジニアからなる大規模なチームを必要とするため、大企業に限られている 6。完全に自動化されたAIベースのEDAツールは、必要とされる人的労力と専門知識を劇的に削減するだろう 6。もしそのようなツールが(おそらくクラウドプラットフォームを通じて)広く利用可能になれば、斬新なアイデアを持つ小規模なスタートアップや研究グループでさえ、特定の応用(例:医療機器、農業センサー)のためのカスタムチップを設計できるようになる可能性がある 3。これは、汎用CPU/GPUの世界から、ユビキタスで高度に専門化されたカスタムハードウェアの世界へのパラダイムシフトを意味し、数え切れない分野でイノベーションを解き放つだろう。

エンドツーエンドの自動化というビジョンは、必ずしも人間のチップ設計者の陳腐化を意味するわけではない。むしろ、彼らの役割が根本的に変化することを示唆している。つまり、骨の折れる実装作業から、高レベルのアーキテクチャ目標と制約を定義し、AIが生成した設計の監督者および検証者として行動する役割への移行である。AlphaChipは現在、数ヶ月の人的労力を要したフロアプランニングを自動化し、人間のエンジニアの時間を解放している 3。将来のビジョンは、設計スタックのさらなる自動化である 3。しかし、AIは依然として導かれる必要がある。人間は、目的(報酬関数)、アーキテクチャ仕様、そしてチップの最終目標を定義しなければならない 14。AIが低レベルの「どのように」をより多く扱うようになるにつれて、人間の役割は高レベルの「何を」そして「なぜ」に焦点を当てるように昇華する。エンジニアは製図者というよりは、建築家やシステム思想家となり、AIを、以前は想像もできなかった設計の可能性を探るための信じられないほど強力なツールとして活用することになるだろう。


結論

本レポートは、Google DeepMindのAlphaChipに関する分析結果を統合する。AlphaChipは、現代のAIを物理科学および工学における難問解決に応用する概念実証として、その重要性が確認された。Googleのハードウェアロードマップおよびより広範な産業への実証された影響、それが引き起こした学術的論争の微妙な文脈、そして将来への深遠な示唆を要約した。

結論として、本稿はAIとハードウェアの好循環という中心テーマに立ち返る。AlphaGoの勝利がAIの知的能力にとって分水嶺となる瞬間であったとすれば、AlphaChipの成功は、計算と知能そのものの未来を形作るツールを直接鍛え上げるという点で、さらに重大な結果をもたらす可能性があると結論付けられる 4。AlphaChipは単なる設計ツールではなく、技術進歩のペースそのものを再定義する、自己増殖的なイノベーションエンジンの触媒なのである。

引用文献

  1. Google DeepMind – Wikipedia https://en.wikipedia.org/wiki/Google_DeepMind
  2. Google DeepMind Releases AlphaChip: AI Accelerated Chip https://news.aibase.com/news/12106
  3. How AlphaChip transformed computer chip design – Google DeepMind https://deepmind.google/discover/blog/how-alphachip-transformed-computer-chip-design/
  4. Google Alphachip Redefines How Computer Chips Work – First Movers AI https://firstmovers.ai/googles-alphachip/
  5. How Google DeepMind’s AlphaChip is Transforming Chip Design https://www.ainews.com/p/how-google-deepmind-s-alphachip-is-transforming-chip-design
  6. A graph placement methodology for fast chip design – PubMed https://pubmed.ncbi.nlm.nih.gov/34108699/
  7. Google Deepmind’s Alphachip AI creates three generations of TPUs – The Stack https://www.thestack.technology/google-deepminds-alphachip-ai-creates-three-generations-of-tpus/
  8. How Google Improves Computing Chip Design with Reinforcement Learning | by Devansh https://machine-learning-made-simple.medium.com/how-google-improves-computing-chip-design-with-reinforcement-learning-d59fa5fb0f73
  9. Mirhoseini Et Al. – 2021 – A Graph Placement Methodology For Fast Chip Design – Scribd https://www.scribd.com/document/838297340/Mirhoseini-et-al-2021-A-graph-placement-methodology-for-fast-chip-design
  10. A graph placement methodology for fast chip design – Gwern.net https://gwern.net/doc/reinforcement-learning/model/2021-mirhoseini.pdf
  11. Comprehensive Overview of Reward Engineering and Shaping in Advancing Reinforcement Learning Applications – arXiv https://arxiv.org/html/2408.10215v1
  12. Reward Function in Reinforcement Learning | by Amit Yadav | Biased-Algorithms | Medium https://medium.com/biased-algorithms/reward-function-in-reinforcement-learning-c9ee04cabe7d
  13. How AlphaChip transformed computer chip design – Hacker News https://news.ycombinator.com/item?id=41672110
  14. Google DeepMind’s AlphaChip Revolutionizes Chip Design With AI https://alltechmagazine.com/google-deepminds-alphachip-revolutionizes-chip-design-with-ai/
  15. [Literature Review] That Chip Has Sailed: A Critique of Unfounded … https://www.themoonlight.io/en/review/that-chip-has-sailed-a-critique-of-unfounded-skepticism-around-ai-for-chip-design
  16. That Chip Has Sailed: A Critique of Unfounded Skepticism Around AI for Chip Design https://www.researchgate.net/publication/385899763_That_Chip_Has_Sailed_A_Critique_of_Unfounded_Skepticism_Around_AI_for_Chip_Design
  17. RLP: Reinforcement as a Pretraining Objective – NVIDIA ADLR https://research.nvidia.com/labs/adlr/RLP/
  18. Reinforcement Pre-Training – arXiv https://arxiv.org/pdf/2506.08007
  19. Goldie Et Al. – 2024 – Addendum A Graph Placement Methodology … https://www.scribd.com/document/839181447/Goldie-et-al-2024-Addendum-A-graph-placement-methodology-for-fast-chip-design
  20. [2211.03959] Pretraining in Deep Reinforcement Learning: A Survey – arXiv https://arxiv.org/abs/2211.03959
  21. Pre-training Agents for Design Optimization and Control – UC Berkeley EECS https://www2.eecs.berkeley.edu/Pubs/TechRpts/2022/EECS-2022-35.pdf
  22. Power Performance & Area in VLSI: Chip Design’s Golden Triangle – MOSart Labs https://mosartlabs.com/understanding-power-performance-area-ppa-in-vlsi-the-golden-triangle-of-chip-design/
  23. Floorplanning in VLSI Design: A Comprehensive Guide | by VLSI … https://medium.com/@ifrit057/floorplanning-in-vlsi-design-a-comprehensive-guide-85a12c097ea9
  24. How Can Physical Design Optimize VLSI Performance? – InSemi Technology https://insemitech.com/blogs/how-can-physical-design-optimize-vlsi-performance-2/
  25. How do you decide best Floorplan in Physical Design? http://www.vlsijunction.com/2023/08/how-do-you-decide-best-floorplan-in.html
  26. A Comparative Study of VLSI 3D Placement for power management and wirelength reduction – International Journal of Engineering Research & Technology https://www.ijert.org/a-comparative-study-of-vlsi-3d-placement-for-power-management-and-wirelength-reduction
  27. POWER PLANNING – VLSI- Physical Design For Freshers https://www.physicaldesign4u.com/2020/01/power-planning.html
  28. Google DeepMind’s AlphaChip Has Secretly Transformed Microchip Design with AI https://www.maginative.com/article/google-deepminds-alphachip-has-secretly-transformed-microchip-design-with-ai/
  29. Google Reveals Its Secret Weapon TPU, AlphaChip Appears in https://hyper.ai/en/news/34745
  30. AlphaChip: How AI is Revolutionizing Chip Design – Birow https://www.birow.com/ai-chipgyartasban
  31. Introducing Trillium, sixth-generation TPUs | Google Cloud Blog https://cloud.google.com/blog/products/compute/introducing-trillium-6th-gen-tpus
  32. Google Cloud announces Trillium TPUs now available https://blog.google/feed/trillium-tpus/
  33. AI is now designing chips for AI – Freethink https://www.freethink.com/artificial-intelligence/ai-designing-chips-for-ai
  34. AlphaChip: An open-source framework for generating chip floorplans with distributed deep reinforcement learning. – GitHub https://github.com/google-research/circuit_training
  35. 2024: A year of extraordinary progress and advancement in AI – Google Blog https://blog.google/technology/ai/2024-ai-extraordinary-progress-advancement/
  36. Is Synopsys more user friendly to beginners compared to Cadence? : r/chipdesign – Reddit https://www.reddit.com/r/chipdesign/comments/1ica16y/is_synopsys_more_user_friendly_to_beginners/
  37. How Synopsys and Cadence are fueling the semiconductor industry’s growth engine https://www.wing.vc/content/how-synopsys-and-cadence-are-fueling-the-semiconductor-industrys-growth-engine
  38. How AlphaChip transformed computer chip design : r/chipdesign – Reddit https://www.reddit.com/r/chipdesign/comments/1fqqst0/how_alphachip_transformed_computer_chip_design/
  39. AI in Real-World Chip Design Workflows: A Technical Overview – BITSILICA https://bitsilica.com/ai-in-real-world-chip-design-workflows-a-technical-overview/
  40. That Chip Has Sailed: A Critique of Unfounded Skepticism Around AI for Chip Design – arXiv https://arxiv.org/abs/2411.10053
  41. Jeff Dean responds to EDA industry about AlphaChip | Hacker News https://news.ycombinator.com/item?id=42285128
  42. Google’s new AlphaChip model builds AI chips faster – The Rundown AI https://www.therundown.ai/p/google-alphachip-model-builds-ai-chips
  43. Google’s AlphaChip Can Design AI Chips Now: Did We Hit Matrix-Level? – YouTube https://www.youtube.com/watch?v=IAcmXplu5qs