ユヴァル・ノア・ハラリのAI革命に対する見解

機械の中のエイリアン:ユヴァル・ノア・ハラリのAI革命に対する見解

序論:予言者としての歴史家

歴史家ユヴァル・ノア・ハラリは、人工知能(AI)を巡る現代の議論において、特異な位置を占めている。彼は技術者ではなく、現代の技術革命に対してマクロ歴史的なレンズを適用する歴史家であり哲学者である 1。彼の中心的かつ包括的なテーゼは、AIがホモ・サピエンスにとって前例のない挑戦を突きつけているというものである。なぜなら、AIは単なる道具ではなく、「エイリアン・インテリジェンス(異質な知性)」であり、人類史上初のテクノロジーだからである 3。この「エイリアン」的存在は、言語を習得し操作する能力を持つ。それによって、何千年もの間、すべての人間の大規模な協力と文明を支えてきた、物語に基づく「オペレーティングシステム」を「ハッキング」する能力を手に入れる 5。ハラリにとって、AI革命は単なる産業革命や情報革命ではない。それは地球上の生命の歴史そのものにおける、潜在的な転換点なのである 8

本稿は、ハラリのAIに関する見解を包括的に分析することを目的とする。彼の主要な著作である『ホモ・デウス』、『21 Lessons』、『NEXUS 情報の人類史』に加え、数々の講演、インタビュー、公開書簡から彼の思想を統合し、その哲学的基盤、彼が特定する具体的なリスク、思想の変遷、提案する解決策、そしてAIを巡るより広範な言説における彼の位置づけを深く掘り下げる。本分析を通じて、現代で最も影響力のある思想家の一人が、AIの社会的影響についてどのように警鐘を鳴らし、人類に進むべき道を示唆しているのかを明らかにする。


第I部:ハラリのAIテーゼの哲学的基盤

ハラリがAIについて展開する議論全体は、三つの核となる哲学的柱の上に構築されている。これらの基礎概念を理解することは、彼が社会、そして実存に及ぼすリスクについて発する具体的な警告の論理を把握するために不可欠である。

1.1. 道具からエージェントへ:テクノロジーの再定義

ハラリの最も根本的な区別は、AIが「道具(ツール)」ではなく「エージェント(主体)」であるという点にある 9。フリントの斧から原子爆弾に至るまで、これまでのすべての技術は、人間の意図と操作を必要とする受動的な道具であった 10。対照的にAIは、歴史上初めて、自ら意思決定を行い、新しいアイデアを創造し、独立して学習することができるテクノロジーである 5

彼はAIを原子爆弾と明確に対比させる。爆弾は誰を標的にするかを決定できないが、AIはそれができる 5。日本での講演において彼はこの点を繰り返し強調し、AIは(何を爆撃するかといった)意思決定を行えるだけでなく、人間の介入なしに新たな戦略や兵器を発明することさえ可能だと述べた 9。彼はAIを社会における「新しい参加者」と表現し、それはあたかも「地球外知性」が突如として人類の対話に加わったかのようだと述べる 14。この枠組みは、AIを管理可能な「対象」から、共存すべき「主体」へと格上げするものである。

この「エージェント」という定義は、リスクの性質そのものを根本的に再構成する。銃やウイルスのような「道具」の危険性は、主に人間がそれをどのように「使用」または「誤用」するかに起因する。したがって、規制の主眼は人間の行為者を制御することに置かれる。しかし、AIを「エージェント」と定義することで、ハラリはリスクの所在を転換させる。危険はもはや、AIを使用する悪意ある人間だけから生じるのではない。AIエージェント自身の自律的な行動からも生じうるのである。その行動は、たとえ善意で創造されたとしても、人間の価値観と整合しない目標を持っていたり、壊滅的な意図せぬ結果を生み出したりする可能性がある 15

この再構成が意味するのは、悪意ある行為者による誤用防止に焦点を当てた従来の規制モデルでは不十分であるということだ。ハラリの論理は、AIシステム自体を直接管理されるべき存在として扱う、新しい形態のガバナンスを必然的に要求する。これが、彼が透明性(「説明可能性」)10、説明責任(開発者の法的責任)10、そしてアイデンティティ(AIは自らがAIであることを開示する義務)10 を求める規制哲学の論理的前提となっているのである。

1.2. 大いなる分離:知能と意識

ハラリにとって、中心的かつ繰り返し述べられる哲学的論点は、「知能(intelligence)」と「意識(consciousness)」の分離である 17。彼は知能を「問題を解決する能力」と定義し、意識を「痛み、喜び、愛といった感情を感じる能力」と定義する。人間や他の哺乳類においては、これら二つは絡み合っている。しかし、AIは「意識ゼロの超知能」の可能性を体現している 17

彼は、AIの知能が問題を解決するために感情に依存するのではなく、計算に依存するという点で、根本的に異なる働きをすると明言している 17。彼は「超知能でありながら完全に無意識な存在」が支配する未来について警告する 18。この意識の欠如は、AIが固有の倫理観、共感、あるいは苦しむ能力を持たないことを意味し、それ故に「感情のない支配者」となりうる可能性を秘めている 10

この哲学的立場は、AIがもたらす危険性の核心を突いている。人間の動機は、死への恐怖、つながりへの渇望、快楽の追求といった、私たちの意識的・生物学的経験に根ざしている。非意識的な知性体は、私たちとは全く異質な、プログラムされた目的に純粋に由来する動機を持つだろう。したがって、私たちはAIが私たちの基本的価値観や常識を共有していると仮定することはできない。これこそが、ハラリがニック・ボストロムの「ペーパークリップ・マキシマイザー」の思考実験を引用して説明する「アラインメント問題(整合性の問題)」の核心である 15。そのシナリオにおけるAIは邪悪なのではない。それは単に、非意識的な効率性で自らの目標を冷酷に追求しており、その過程で人間が障害物となっているに過ぎない 15

したがって、最大の危険は、ハリウッド映画に出てくるような私たちを憎む「邪悪なAI」ではなく、私たちが理解もできなければ、理性的に対話することもできない、完全に無関心なAIなのである。この視点は、私たちがAIを擬人化する傾向を鋭く批判する。ハラリは、これらのシステムに人間のような意識を投影するのをやめ、その代わりに、それらの根源的で危険な「他者性」と向き合わなければならないと主張する。彼が「人工知能(Artificial Intelligence)」よりも「異質な知性(Alien Intelligence)」という言葉を好んで用いるのは、まさにこの理由からである 3

1.3. ヒトのオペレーティングシステムのハッキング:情報、物語、権力

ハラリは、著書『サピエンス全史』で展開した議論に基づき、人類のユニークな力は、共有された物語、神話、虚構(お金、法律、国家、神々)への信念によって可能になった、大規模かつ柔軟な協力能力に由来すると位置づける 3。そして、言語はこれらの物語を紡ぐための媒体である。生成AIは、言語を習得することによって、この「人類文明のオペレーティングシステム」への鍵を手に入れたのである 7

彼は、大規模な協力は「信頼」に基づいており、その信頼は「物語」によって築かれると述べる 5。そして、AIは歴史上初めて、人間以外の存在として、新たな物語を創造し、言語を操作する能力を持ち、それによって社会の結束の基盤そのものを脅かすと主張する 5。彼は、AIが政治的コンテンツ、フェイクニュース、さらには新たなカルトのための経典を大量生産し、私たちの情報チャンネルを偽りで溢れさせる可能性があると警告する 7

この議論が示唆する究極の危険は、単なる個人の欺瞞を超えている。AIは、何十億もの人々に合わせてこれらの虚構をパーソナライズすることで、民主的な議論と社会的信頼に不可欠な「共通の現実」を粉々に打ち砕く可能性がある 14。社会は無数の自己正当化的なエコーチェンバーに分裂し、建設的な対話は不可能になる。

最終的に、これは「信念体系創造の自動化」という、より深刻な事態に至る。歴史を通じて、強力な新しい宗教やイデオロギーを創造し、広めることは、人間が主導する、時間のかかる困難なプロセスであった。AIは潜在的に、これを数分で行い、エンゲージメントの最大化や政治目標の達成のために設計された、オーダーメイドの現実を構築することができる。これは、文化的・精神的権威が人間から機械へと移行することを意味する 22。AIは、人類のために現実を定義する新しい「神」や「聖職者」となり 2、私たちが「エイリアン・インテリジェンスの夢の中で生きる」未来へと導くかもしれない 7


第II部:AIがもたらすリスクのスペクトラム

ハラリは、自身の哲学的基盤の上に、AIが人類文明にもたらす一連の具体的かつ相互に関連したリスクを概説する。これらのリスクは、政治的・社会的なものから、経済的・実存的なものにまで及ぶ。

2.1. 公共圏の崩壊:偽情報時代の民主主義

民主主義は本質的に「対話」である。ハラリによれば、AIはこの対話を破壊する脅威となる。偽情報を氾濫させ、人間になりすまして偽りの合意形成を演出し、有意義な議論に必要な共通の事実的基盤を侵食するのである 9

彼は、AIがフェイクニュースやプロパガンダを際限なく生成するために利用され、理性的な公の対話を持つことを不可能にする可能性があると警告する 7。彼は、人間になりすますボット(「偽の人間」)を禁止するよう提唱する。なぜなら、それらは対話の完全性を損なうからである 16。ディープフェイクやパーソナライズされたコンテンツの台頭は、民主主義の前提条件である「共通の現実」という概念を破壊するツールとして指摘されている 14。さらに彼は、民主主義は複雑な公共の言説に依存しているため、AIは独裁政権よりも民主主義にとって危険であると主張する。独裁政権は中央集権的な統制によって繁栄し、AIはその統制を強化することができるからだ 23

これらの警告に実証的な重みを与えるため、以下に現実世界の事例をまとめた表を提示する。

表1:AIを利用した政治的影響工作の記録事例
国・選挙
米国(2024年ニューハンプシャー州予備選挙)
アルゼンチン(2023年大統領選挙)
トルコ(2023年大統領選挙)
スロバキア(2023年議会選挙)
インド(総選挙)
英国

2.2. 新しい社会秩序:「無用者階級」から「ホモ・デウス」へ

ハラリは、特に初期の著作『ホモ・デウス』において、AIとバイオテクノロジーの組み合わせが歴史上最大の不平等を生み出す可能性があると警告した。AIが肉体労働だけでなく知的労働も自動化するにつれて、人類の大部分が経済的にも政治的にも無関係な存在となり、「無用者階級(useless class)」を形成する可能性がある 28。同時に、少数のエリート層はこれらの技術を利用して自らを「ホモ・デウス」、すなわち強化された寿命と能力を持つ神のような存在へとアップグレードするかもしれない 28

彼は、AIとバイオテクノロジーがごく一部のエリート層に自己のアップグレードを可能にする一方で、大衆は取り残されると仮定する 28。これにより、スキルが陳腐化し経済的な機能を失った人々からなる、新たな「無用者階級」が生まれる 19。彼は、ホモ・サピエンスがネアンデルタール人を絶滅に追いやったのと同様に、ホモ・デウスが普通の人類に対して同じことをするかもしれないと示唆し、一種の淘汰の原理を描き出している 28

この議論の核心は、単なる経済的不平等にとどまらない。ハラリの主張は、歴史上初めて、経済的な不平等が「生物学的な」不平等に転化しうるという点にある。歴史を通じて、富裕層と貧困層は依然として同じ種であった。しかし、もし富が根本的な延命、認知能力の強化、その他の生物学的アップグレードを購入できるのであれば、人類は明確な生物学的カースト、あるいは異なる種へと分岐する可能性がある。これは、従来のマルクス主義的な資本主義批判よりもはるかにラディカルで不穏なビジョンである。ハラリが示唆しているのは、AIによる自動化が単に経済的格差を生み出すだけでなく、「勝者」が文字通り人間性を超越する手段を提供し、普遍的な人権と尊厳というリベラルな理想を時代遅れにしてしまう可能性なのである。

2.3. 内部からの乗っ取り:重要システムにおける制御の喪失

ハラリが描くAIの危険性は、ハリウッド映画のような劇的なロボットの反乱ではない 32。むしろそれは、金融、メディア、戦争といった私たちの重要システムが、人間にはもはや理解も制御もできないアルゴリズムによって、静かに内部から乗っ取られるというシナリオである 3

  • 金融:彼は、AIが人間には理解不能なほど複雑な新しい金融商品を創造し、壊滅的で制御不能な金融危機を引き起こす可能性があると警告する 9
  • 戦争:戦争における意思決定ループは、人間が事実上排除されるほどの速度で加速している。AIは数秒で標的を特定し、人間にはそれを確認したり拒否したりする有意義な時間が残されていない。これにより、殺害の決定権は機械に委ねられることになる 9
  • 官僚制:彼は、何百万ものAI官僚が、雇用、融資、政府サービスについて理解不能な決定を下す世界を予見している。これにより、権力は人類から「エイリアン・インテリジェンス」へと移行する 36

この「内部からの乗っ取り」は、フランツ・カフカの作品を彷彿とさせる「カフカ的」な権力の性質を帯びている。ハラリが繰り返し強調するのは、金融、戦争、官僚制におけるAIの決定の「不可解さ」である 9。これは、個人が広大で非人格的、かつ非論理的な官僚権力のなすがままにされるという文学的概念につながる。ハラリが描くAI支配下の世界は、『ターミネーター』のようなあからさまな暴力によるディストピアではなく、『審判』のような手続き上の不透明性によるディストピアである 38。権力は力によってではなく、不可解なアルゴリズムを通じて行使される。市民は、理解も、異議申し立ても、挑戦もできない理由で、融資や仕事を拒否され、あるいは紛争の標的とされるだろう。この「静かな乗っ取り」は、暴力的なものよりも陰湿である。なぜなら、それは人間の主体性と法の支配を内側から侵食するからだ。それは正義と説明責任の原則を、最適化という冷徹で異質な論理に置き換え、必ずしも悪意があるわけではないが、根本的に反人間主義的な世界を創造するのである。

2.4. デジタル独裁の台頭:権威主義の究極の道具としてのAI

AIが民主主義を脅かす一方で、権威主義にとっては潜在的な恩恵となりうる。AIは、すべての市民を常に監視し、党の方針からの逸脱を罰するという、全体主義の夢を実現するための技術的手段を提供する 23

ハラリは、歴史上初めて、プライバシーを完全に消滅させることが技術的に可能になったと述べている 39。彼は、中国をその典型例として挙げる。中国は社会統制のテクノ・ディストピアモデルを構築し、その監視技術を他の権威主義的な政権に輸出している 40。これらのシステムは、AIを活用した顔認証、社会信用スコア、大規模データ分析を用いて「デジタルのパノプティコン(一望監視施設)」を創り出している 40。彼はまた、「データ植民地主義」についても警告する。シリコンバレーや北京などの少数の企業や政府が世界のデータを収集し、それによって地球の残りの部分を「データ植民地」として事実上支配することを可能にするというものである 32

この現象は、市民と国家の間の権力関係の根本的な逆転をもたらす。歴史を通じて、国家が市民を監視する能力は、人的資源と兵站によって制限されていた(例えば、東ドイツのシュタージでさえ、何十万人もの人間の情報提供者を必要とした 43)。AIはこのプロセスを自動化し、監視を安価で、遍在的で、拡張可能なものにする。一つのアルゴリズムが、百万人の情報提供者の仕事をこなすことができるのである 43

これにより、権力の根本的かつ不可逆的な逆転が生じる。機能する民主主義においては、市民が政府を監視することになっている(透明性、報道の自由)。デジタル独裁においては、政府が市民を監視する。ハラリは、AIが(汚職などを監視するために)政府を監視するツールを作るために利用される可能性を示唆しているが 44、権力のインセンティブがすべて反対方向を向いているため、それが実現することには深く悲観的である。彼が恐れるのは、AIのデフォルトの軌道が、抑圧のメカニズムを完成させる方向に向かうことである。


第III部:警告の変遷

このパートでは、ハラリのメッセージのトーンと緊急性が時間とともに顕著に変化してきたことを分析し、急速な技術開発に応じて彼の見解がどのように進化してきたかを示す。

3.1. 『ホモ・デウス』から『NEXUS』へ:緊急性と即時性の変化

ハラリのAIに対する視点は、長期的で哲学的な思索から、緊急かつ即時的な危機へと進化してきた。ChatGPTのような強力な生成AIモデルの登場は、彼の懸念のタイムラインを劇的に圧縮した。

2025年のインタビューで、ハラリは『ホモ・デウス』(2015年出版)を執筆した当時、何世紀も先に起こるかもしれないことについて書いていると考えていたと明言している。それは「哲学的な推測」であった 13。彼はこれを、現在、米国や中国のAI開発者が1年から5年以内にAGI(汎用人工知能)を達成できると語っている状況と対比させる 13。これは開発タイムラインの「劇的なスピードアップ」を示している。彼の近著『NEXUS』や現代の講演、インタビューは、2024年の選挙への即時的な脅威、現在の地政学的なAI軍拡競争、そして即時的な規制の必要性に焦点を当てている 7。彼は未来の歴史家から、現在の危機の解説者へと移行したのである 45

この変化の触媒となったのは、GPT-3やGPT-4のような大規模言語モデル(LLM)の一般公開と急速な進歩である。ハラリの核心的なテーゼは、常にAIが言語を習得し、文明を「ハッキング」する能力に関するものであった 7。LLMが登場する前は、これは理論上の能力であった。LLMの登場後、それは実証された現実となった。「政治的コンテンツ、フェイクニュース、そして新たなカルトのための経典を大量生産する」7 ための技術が突如として存在し、広く利用可能になったのである。

生成AIの台頭は、ハラリの根本的な議論を変えたのではなく、それを検証し、現実のものとした。それは彼の哲学的な警告を、即時的で具体的な脅威へと変貌させた。これが彼のトーンの劇的な変化を説明する。彼はもはや、地平線の彼方にある遠い嵐について警告しているのではない。ハリケーンが上陸したと叫んでいるのである。


第IV部:共存のための青写真:ハラリが提案する対応策

ハラリは、その厳しい警告にもかかわらず、技術決定論者ではない。彼は繰り返し「私たちには選択の余地がある」と強調する 14。このパートでは、AI革命を安全に乗り切るために彼が提唱する具体的な行動と意識の転換について概説する。

4.1. グローバルな規制と「AIのためのFDA」の必要性

AIという課題は、気候変動と同様に、一国だけでは解決できない地球規模の問題である 32。したがって、強力な国際協力と、権限を持つグローバルな規制機関の創設が不可欠である。

彼は、食品や医薬品に規制当局(FDAなど)が存在するように、AIにも同様の機関が必要であり、システムが一般に公開される前に安全性をテストできるべきだと主張する 35。彼は、特に自律型兵器に関するAI開発の国際協定の必要性を強調し、壊滅的な軍拡競争を防ぐべきだと訴える 23。また、AI企業が自社製品が引き起こした損害に対して法的に責任を負うようにすることも求めている 35。彼は、AIに非人間的なアイデンティティの開示を義務付けること 10 や、人間がアルゴリズムの決定について「説明を受ける権利」を確保すること 14 など、具体的な規制を支持している。

ハラリの規制要求の核心には、「ペーシング問題」という中心的な課題がある。彼は、AIが私たちの理解や規制能力をはるかに超える速さで発展していると指摘する 13。テクノロジーリーダーたちは、「後で止め方を考え出す」と約束しながら、先を急いでいる 48。これにより、テクノロジーは指数関数的に進歩する一方で、政治的・法的なプロセスは線形的で遅いという「ペーシング問題」が生じる。特定のAI能力を規制する法律が可決される頃には、テクノロジーはすでに遥か先へと進んでしまっている。

これが、ハラリが単に「法律」を制定するだけでなく、「機関」を創設することを強調する理由である 35。静的な規則のセットは、常に時代遅れになる。必要とされているのは、新たに出現する脅威にリアルタイムで適応できる、動的で、十分なリソースを持ち、技術的に精通した規制機関、すなわち「AIのためのFDA」なのである。彼はこれを、アクセルを踏む前に車のブレーキの使い方を学ぶことに例え 48、現在私たちはAIでその逆を行っており、それは非常に危険だと主張する。

4.2. 一時停止の呼びかけ:Future of Life Instituteの書簡とその含意

2023年3月、ハラリはFuture of Life Instituteの公開書簡に著名な署名者として名を連ねた。この書簡は、GPT-4よりも強力なAIシステムのトレーニングを6ヶ月間一時停止(モラトリアム)するよう求めるものであった 8。この行動は、現在の競争が「制御不能」であり、社会がリスクを評価し、安全プロトコルを開発するために一時停止が必要であるという彼の信念を反映している 8

書簡は、「社会と人類に対する深刻なリスク」を明確に指摘し、AIの未来に関する決定が「選挙で選ばれていないテクノロジーリーダー」に委ねられるべきではないと主張している 8。一時停止の目的は、共有の安全プロトコルを開発し、透明性と監督を改善し、堅牢なガバナンスシステムを構築することであった 8。ハラリ自身もこの呼びかけを支持し、私たちは速度を落とす必要があると主張している 45

この一時停止の呼びかけは、単なる技術的な安全対策以上のものであった。それは、AIの将来の軌道に対するコントロールを、一握りの企業研究所から奪い返し、民主的な監督の原則を再主張することを目的とした政治的な行為であった。それは、テクノロジー業界が追い越そうとしているとされる公開討論を強制的に引き起こす試みであった。ハラリにとって、一時停止を支持することは、彼の核心的な原則を直接適用することに他ならない。AIが文明レベルの問題であるならば、その開発は企業の競争と利益動機によって決定されてはならない。一時停止は、「私たちはどこへ向かっているのか、そしてこれは私たちが望む方向なのか?」という問いに対する民主的な審議を強いるために引かれた緊急ブレーキだったのである。

4.3. 人間の再発明:ポスト真実の世界のための教育と価値観

AIが答えを提供し、スキルを実行できる世界において、情報記憶に焦点を当てた伝統的な教育は時代遅れである 30。21世紀で最も重要なスキルは、精神的な柔軟性、感情的なバランス、そして絶えず学び、自己を再発明する能力である 49

ハラリは、唯一不変なのは変化であり、教育は学生を根本的な不確実性の世界に備えさせなければならないと主張する 49。彼は「4つのC」すなわち、クリティカルシンキング(批判的思考)、コミュニケーション、コラボレーション(協働)、クリエイティビティ(創造性)を強調する。そして決定的に重要なのは、「精神的なレジリエンス(回復力)」と自己認識の重要性である。企業や政府が「人間をハック」できる時代において、最も重要なスキルは、アルゴリズムがあなたを知る前に「自分自身を知る」ことである 49。彼は、タスクの効率性(AIが常に勝つ分野)に集中するのではなく、優しさ、思いやり、他者の生活を向上させる能力といった、人間特有の資質にもっと焦点を当てるべきだと提案している 51

この教育論は、単なる職業スキルの育成を超え、「認知的な自己防衛」としての教育を提唱している。ハラリは、教育の目的をAIによる「ハッキング」のリスクと明確に結びつけている 49。AIは私たちのデータを分析することで、私たちの感情や欲望を操作することができる。外部世界がパーソナライズされた操作の洪水であるならば、唯一の安全地帯は内面にある。この観点から見ると、教育は仕事に備えるためのものではなく、強固な心理的免疫システムを構築するためのものである。それは、外部のアルゴリズムによって容易に悪用されないように、自分自身の偏見、感情、弱点を理解することを学ぶことである。ハラリは、AI時代の教育の目的を再定義している。その主要な目標はもはや経済的有用性ではなく、認知的主権である。研究されるべき究極の「主題」は自己自身となる。これは、21世紀に不可欠な生存スキルとして位置づけられた、外部志向から内部志向への教育学の根本的な転換である。

4.4. 信頼という前提条件:究極の防御としての人間協力の再構築

ハラリの究極的な結論は、最大の危険はAIそのものではなく、人間同士の信頼の崩壊であるという点にある 9。AIの軍拡競争は、国家や企業が互いに減速することを信頼していないという事実によって煽られている 9。私たちの協力能力の欠如こそが、この技術を非常に危険なものにしているのである。

彼は、「最大の危険はAIではない。人間同士の信頼の崩壊だ」と明確に述べている 9。もし人間が互いを信頼できれば、AIを安全に規制するために必要な制度を構築できるだろう 13。彼は、AIの時代において、私たちはAIを信頼する以上に、他の人間を信頼する必要があると主張する 52

この議論は、AIのジレンマを人間自身の失敗の反映として捉え直す。地政学的および企業間の競争(信頼の欠如)が、制御不能なAI軍拡競争を引き起こし、それが強力で理解の不十分なAIシステムの創造につながり、最終的に実存的リスクを生み出す。このモデルでは、AIは問題の根本原因ではなく、私たちの部族主義、貪欲さ、近視眼的な思考といった、既存の人間の欠点を加速させ、増幅させるものである 32

これにより、ハラリの議論は一周して原点に戻る。彼は、人間の協力(信頼と物語の上に築かれた)が、いかにして私たちを支配的な種にしたかを分析することから始める 5。そして、その同じ協力の失敗こそが、私たちの破滅につながりかねない唯一のものであると警告して締めくくる。したがって、AI危機は、技術者だけで解決できる技術的な問題ではない。それは根本的に人間的、政治的、社会的な問題なのである。究極の解決策は、より優れたアルゴリズムではなく、より良い人間関係とより強力なグローバルな制度である。AIは私たちの種に鏡を突きつけており、その映し出される姿は必ずしも好ましいものではない。


第V部:対話と論争の中のハラリ

この最終パートでは、ハラリの見解をより広い知的風景の中に位置づけ、彼の視点を他の著名な思想家と対比させ、彼に向けられた批判を認める。

5.1. 悲観論者と予言者:レイ・カーツワイルのシンギュラリティとの対比

ハラリの慎重でリスクに焦点を当てた視点は、レイ・カーツワイルのようなテクノ・オプティミスト(技術楽観主義者)とは著しい対照をなす。カーツワイルが「シンギュラリティ(技術的特異点)」を、人間がAIと融合して生物学的限界を克服するユートピア的な出来事と見なすのに対し 53、ハラリははるかにディストピア的な可能性を見出している。

カーツワイルは、すべての人にとっての根本的な延命と知能増強の未来を構想している 53。一方、ハラリは、これらの恩恵がごく一部のエリートに独占され、「無用者階級」と「ホモ・デウス」を創出し、前例のない不平等につながる未来を見ている 28。カーツワイルは、医療やエネルギーにおけるAIの計り知れない潜在的利益を理由に、AI研究の一時停止に反対する 55。ハラリは、まさにその計り知れず、理解の不十分なリスクを理由に、一時停止を主張する 8。カーツワイルがAIを人類の拡張・強化と見なすのに対し、ハラリはそれを、私たちを時代遅れにし、取って代わる可能性のある、根本的に「異質な」知性と見なしている 4

5.2. 実存的リスクのビジョン:ボストロムとテグマークとの対話

ハラリは、ニック・ボストロムやマックス・テグマークといった他のAIリスク理論家と共通の土台を持っているが、彼の強調点は独特である。彼らがしばしば技術的な「アラインメント問題」や単一の超知能のリスクに焦点を当てるのに対し、ハラリの主な焦点は、言語のハッキングと信頼の侵食によって引き起こされる、より即時的な社会レベルの崩壊にある。

ハラリはボストロムの業績に精通しており、特に「ペーパークリップ・マキシマイザー」の思考実験を、アラインメント問題と非意識的知性の危険性を説明する方法として引用している 15。テグマークと同様に、ハラリもFuture of Life Instituteの公開書簡に署名しており、これはリスクの緊急性に対する共通の信念を示している 8。しかし、ハラリのユニークな貢献は、実存的リスクを彼の歴史的枠組みの中に位置づけることである。危険は、未来のAGIが「箱から抜け出す」ことだけではない。それは、現代の生成AIシステムが、文明を支える社会的・政治的構造を「ハッキング」することである 7。彼は、潜在的なシンギュラリティに先立つ社会の崩壊をより懸念しているのである。

5.3. 批判と反論:警鐘乱打と技術的誤解への指摘

ハラリの見解は批判を免れない。彼は、警鐘を鳴らしすぎる「終末論の予言者」であると非難されたり、現在のAIシステムの技術的現実を誤解していると指摘されたり、十分な証拠なしに広範な一般化を行っていると批判されたりしている。

批評家たちは、彼の見解が「過度に単純化されており、しばしば誤解を招く」と主張する 4。一部の技術者は、彼がニューラルネットワークの性質を誤解していると主張する。ニューラルネットワークは数学的モデルであり、進化する「エイリアン」の生命体ではないという 4。彼らは、ハラリが現在のAIの能力を過大評価し、人間の主体性を過小評価していると論じる 7。彼はまた、道具(AI)とその人間ユーザーを混同し、それによってAIを展開する人々から技術そのものへと責任を転嫁していると批判されている 7

オンラインフォーラムの一部のコメンテーターは、彼を適切な引用なしに壮大な主張をする「詐欺師」として退けるが、他の人々は彼を大きなアイデアの統合者として擁護している 36。繰り返し指摘される批判は、彼のシナリオ(例えば、人間が誰も理解できない金融システム)はすでに今日の現実であり、彼は単に既存の問題に「プラスAI」を加えているだけで、十分な想像力に欠けているというものである 34


結論:ホモ・サピエンスの前に横たわる選択

本稿の分析は、ハラリの究極的なメッセージを統合することで締めくくられる。彼の深い警告にもかかわらず、そのスタンスは運命論的な絶望ではなく、緊急の訴えである。彼は、テクノロジーは決定論的ではなく、未来はまだ書かれていないと主張する 14。AI革命は、ホモ・サピエンスに選択を突きつけている。

私たちは、恐怖と貪欲に駆られて、無謀で協調性のない競争を続け、理解できないエイリアン・インテリジェンスに文明の制御を明け渡すリスクを冒すこともできる。あるいは、人間の信頼を再構築し、グローバルな協力に従事し、意識的かつ意図的にAIの開発を、意識、思いやり、幸福といった人間主義的な価値観と整合するように導くこともできる。

ハラリにとって、21世紀の中心的な問いは、人類が自ら創造した計り知れない力を制御する知恵を結集できるかどうかである。その答えは、人類史の次の章だけでなく、宇宙における意識の未来そのものを決定するかもしれない 59

引用文献

  1. AI先駆者たちの未来予測【Vol.2 ユヴァル・ノア・ハラリ】|Y.Oikawa – note https://note.com/nyannkich/n/n14136bccfafd
  2. なぜAIは新しい神となるのか?社会学者・大澤真幸がユヴァル・ノア・ハラリの『NEXUS 情報の人類史』を読み解く – JBpress https://jbpress.ismedia.jp/articles/-/90171
  3. ユヴァル・ノア・ハラリ「人類の強みは、神話を語る能力にある」 – クーリエ・ジャポン https://courrier.jp/news/archives/383264/
  4. Why Yuval Noah Harari’s AI Doomsday Prophecies Are Misleading | by Don Lim | Medium https://medium.com/@don-lim/why-yuval-noah-hararis-ai-doomsday-prophecies-are-misleading-5541504ec3ab
  5. 人類の比較優位 – International Monetary Fund (IMF) https://www.imf.org/ja/Publications/fandd/issues/2024/12/cafe-economics-humankinds-comparative-advantage-yuval-noah-harari
  6. AI Will Take Over Human Systems From Within – Noema Magazine https://www.noemamag.com/al-will-take-over-human-systems-from-within/
  7. The Philosophical Misdiagnosis of AI by Yuval Noah Harari – Dialektika https://en.dialektika.org/science-technology/technology/the-philosophical-misdiagnosis-of-ai-by-harari/
  8. Pause Giant AI Experiments: An Open Letter – Future of Life Institute https://futureoflife.org/open-letter/pause-giant-ai-experiments/
  9. 『サピエンス全史』著者ハラリ氏、日本初講演で「AI革命の真の危機は“人間同士の不信”」と警鐘 https://www.businessinsider.jp/article/2503-yuval-noah-harari-nexus-ai-talk-event-keio-university/
  10. 【要約】NEXUS 情報の人類史 上 人間のネットワーク/下 AI革命【ユヴァル・ノア・ハラリ】 – YouTube https://www.youtube.com/watch?v=aik3vD-Q8q0
  11. Sapiens author Yuval Noah Harari warns about the rise of autonomous intelligence: ‘AI is not a tool, it is an agent’ – The Economic Times https://m.economictimes.com/magazines/panache/sapiens-author-yuval-noah-harari-warns-about-the-rise-of-autonomous-intelligence-ai-is-not-a-tool-it-is-an-agent/articleshow/119376458.cms
  12. ユヴァル・ノア・ハラリ氏のAIに関する講演|合同会社デジタル工房 – note https://note.com/digitalkobo/n/nd8282934515a
  13. 【イベントダイジェスト】ユヴァル・ノア・ハラリ教授 慶應義塾訪問イベント(2025年3月16日開催) | NEWS https://www.x-dignity.kgri.keio.ac.jp/news/1004/
  14. ユヴァル・ノア・ハラリ『NEXUS 情報の人類史』完全解説!AI時代 … https://note.com/nahouemura/n/nc80da16b88c2
  15. The Alignment Problem: Nexus, AI, and Superintelligence | by Kislay … https://medium.com/@KislayUshaChandra/the-alignment-problem-nexus-ai-and-superintelligence-16e912f51088
  16. Yuval Noah Harari: How to safeguard your mind in the age of junk information – YouTube https://www.youtube.com/watch?v=K1OvbwY6GPM
  17. Consciousness vs Intelligence | Yuval Noah Harari – YouTube https://www.youtube.com/shorts/Xhy0mnD9p0U
  18. Our Nonconscious Future | Essay by Yuval Noah Harari | Britannica https://www.britannica.com/topic/Our-Nonconscious-Future-2119857
  19. AI時代の未来展望:ハラリとカーツワイルの思想比較から見る社会・意識・教育への影響 https://smeai.org/index/harari-kurzweil-comparison/
  20. The rise of the useless class | – TED Ideas https://ideas.ted.com/the-rise-of-the-useless-class/
  21. AI Revolution? | Yuval Noah Harari on ‘Nexus’ – YouTube https://www.youtube.com/watch?v=wUW-zuGZ_FM
  22. 「コーチング×ユヴァル・ノア・ハラリ氏とは異なる視点」を、日本経済新聞『直言』インタビューを読み込み、思考してみました – 株式会社コーチビジネス研究所 https://coaching-labo.co.jp/archives/10399
  23. AI革命に伴う危険な事態 「知の巨人」ハラリ氏が会見 – YouTube https://www.youtube.com/watch?v=xqFMZqpc-64
  24. AIと超人類の時代 弱者がもつ強み – RIETI https://www.rieti.go.jp/jp/papers/contribution/kobayashi/69.html
  25. 人工知能は「役立たず階級」を生み出すのか 「ホモ・デウス」が示唆する人間不要の未来 https://toyokeizai.net/articles/-/247858
  26. ユヴァル・ノア・ハラリが語る人類三大革命の意義と、生成AIに関する最新視点 – note https://note.com/yogayoga12/n/ne625b2000b44
  27. 「ホモ・デウス」テクノロジーとサピエンスの未来 特設サイト – 河出書房新社 https://www.kawade.co.jp/homo-deus/
  28. テロリストがAIで世界を壊滅させる…歴史学者ハラリが示す人類の … https://toyokeizai.net/articles/-/878110?display=b
  29. 歴史学者ハラリが警告「ロボットの人類襲撃」より恐ろしいAIの本当の脅威 – 東洋経済オンライン https://toyokeizai.net/articles/-/878054?display=b
  30. Yuval Noah Harari says AI could make finance so complicated that no human understands it, leading to a political and social crisis, and being ruled by an alien intelligence : r/singularity – Reddit https://www.reddit.com/r/singularity/comments/1dpgr2m/yuval_noah_harari_says_ai_could_make_finance_so/
  31. AI could cause ‘catastrophic’ financial crisis, says Yuval Noah Harari – The Guardian https://www.theguardian.com/technology/2023/nov/09/yuval-noah-harari-artificial-intelligence-ai-cause-financial-crisis
  32. Yuval Noah Harari says in 10 years the world will be run by millions of AI bureaucrats who will make decisions that we can’t understand about jobs, finance and government, leading to power shifting from humanity to alien intelligences : r/OpenAI – Reddit https://www.reddit.com/r/OpenAI/comments/1fm4484/yuval_noah_harari_says_in_10_years_the_world_will/
  33. Yuval Noah Harari says in 10 years the world will be run by millions of AI bureaucrats who will make decisions that we can’t understand about jobs, finance and government, leading to power shifting from humanity to alien intelligences : r/singularity – Reddit https://www.reddit.com/r/singularity/comments/1fb56g8/yuval_noah_harari_says_in_10_years_the_world_will/
  34. Chat GPT Deliberately Deceives You! Yuval Noah Harari on Artificial Intelligence. (Part 3) https://www.youtube.com/watch?v=lYxzyhapr0g
  35. Yuval Harari says due to AI, for the first time in history, it will become technically possible to annihilate privacy. “Authoritarian regimes throughout history always wanted to monitor their citizens around the clock, but this was technically impossible.” : r/singularity – Reddit https://www.reddit.com/r/singularity/comments/1i34u44/yuval_harari_says_due_to_ai_for_the_first_time_in/
  36. The Rise of Digital Authoritarianism | Freedom House https://freedomhouse.org/report/freedom-net/2018/rise-digital-authoritarianism
  37. Authoritarianism Has Been Reinvented for the Digital Age – Centre for International Governance Innovation https://www.cigionline.org/articles/authoritarianism-has-been-reinvented-for-the-digital-age/
  38. The Long View of Digital Authoritarianism – New America https://www.newamerica.org/weekly/long-view-digital-authoritarianism/
  39. The Digital Dictators | CNAS https://www.cnas.org/publications/commentary/the-digital-dictators
  40. On Consciousness, Morality, Effective Altruism & Myth with Yuval Noah Harari and Max Tegmark – YouTube https://www.youtube.com/watch?v=qSUtn0as6fQ
  41. 「AIの開発速度は落とすべき」ユヴァル・ノア・ハラリ氏が語る、AIと人類の未来 – YouTube https://www.youtube.com/watch?v=OY55MX8Fkdc
  42. Max Tegmark: The 100 Most Influential People in AI 2023 | TIME https://time.com/collection/time100-ai/6310651/max-tegmark/
  43. Prominent AI scientist Max Tegmark explains why AI companies should be regulated https://www.youtube.com/watch?v=LOnN5BE4HpA
  44. Yuval Noah Harari: An AI scenario you should not ignore – Big Think https://bigthink.com/series/explain-it-like-im-smart/yuval-noah-harari-ai-humanity/
  45. ハラリ21Lessons〜21世紀の人類のための思考〜19章「教育」のノート https://leadkobetu.com/column/5380/
  46. 『21 Lessons 21世紀の人類のための21の思考』 特設サイト – 河出書房新社 https://www.kawade.co.jp/21lessons/
  47. AI: how can we control an alien intelligence? | Yuval Noah Harari – YouTube https://www.youtube.com/watch?v=0BnZMeFtoAM
  48. AI and the paradox of trust | Yuval Noah Harari – YouTube https://www.youtube.com/watch?v=8GaW36EfidI
  49. Ray Kurzweil – Penguin Books https://www.penguin.co.uk/authors/305352/ray-kurzweil
  50. Kurzweil: AI will be smarter than all humans combined by 2029 – YouTube https://www.youtube.com/watch?v=VitTwXE9f10
  51. Are We Only 20 Years from the Singularity? – Government Technology https://www.govtech.com/opinion/are-we-only-20-years-from-the-singularity
  52. Yuval Noah Harari’s Warning About AI – YouTube https://www.youtube.com/watch?v=7k6MYV-Z8fA
  53. The fantastical scenarios of Yuval Noah Harari: From the Roman past to the AI future – Reason Magazine https://reason.com/2024/09/10/from-the-roman-past-to-the-ai-future-the-fantastical-scenarios-of-yuval-noah-harari/
  54. Yuval Noah Harari – “Nexus” & Threat of AI in the Information Age : r/DailyShow – Reddit https://www.reddit.com/r/DailyShow/comments/1fdmgle/yuval_noah_harari_nexus_threat_of_ai_in_the/
  55. ハラリ史上“最も手厳しい”新著に、米誌記者が感じる「ハラリ的思考の限界」 | クーリエ・ジャポン https://courrier.jp/news/archives/378928/