フレーム問題

人工知能におけるフレーム問題:論理的起源から認識論的課題、そして現代的再考

画像クリックでインフォグラフィックサイトに遷移します。

I. 序論:AIにおける二重の難問

人工知能(AI)の研究史において、「フレーム問題(The Frame Problem)」ほど長きにわたり、深い誤解と活発な議論を生み出してきた課題は稀である。この問題の核心を理解することは、AIが「知性」を構築する上で直面した、最も根本的な障害の一つを理解することに等しい。

本レポートは、AIにおけるフレーム問題を、ある行動が世界にどのような変化をもたらすかという問題ではなく、逆説的に、「ある行動が世界にどのような変化をもたらさないかを、いかにして効率的かつ論理的に記述し、推論するか」という問題であると定義する。

本レポートの中心的な論旨は、フレーム問題が単一の問題ではなく、歴史的に分岐した二つの異なる、しかし密接に関連する問題群を指しているという点にある。

第一に、1969年にジョン・マッカーシー(John McCarthy)とパトリック・ヘイズ(Patrick J. Hayes)によって初めて定式化された「論理的フレーム問題(The Logical Frame Problem)」である 1。これは、一階述語論理(first-order logic)のような古典論理の枠組みを用いて、エージェント(ロボットなど)の行動を記述する際、環境内の「変化しない」という膨大な事実(慣性)を、いかにして明示的に、かつ網羅的に記述するか、という知識表現の技術的課題である 1

第二に、主に哲学者ダニエル・デネット(Daniel Dennett)らによって広められ、認知科学の領域へと拡張された「認識論的フレーム問題(The Epistemological Frame Problem)」である 2。これは、論理的な記述の完全性の問題ではなく、知的エージェント(ロボットや人間)が、ある行動を実行する際に、自身の膨大な知識ベースの中から、いかにして「関連する(relevant)」情報だけを瞬時に、かつ効率的に抽出し、更新の対象とし、その他すべての「無関係な」情報を計算的に「無視」するか、という認知科学的・計算論的課題である 2

AI研究の歴史において、「フレーム問題」をめぐる50年以上の混乱の多くは、この二重性に起因している。論理学者やAI研究者が「論理的フレーム問題」の解決(=論理体系の整合性)を議論している一方で、哲学者や認知科学者が「認識論的フレーム問題」の解決(=知的エージェントの実時間での関連性判断)という、より広範な問題を議論しているという、根本的な「すれ違い」が続いてきた。例えば、一部の研究者は2000年代初頭に「フレーム問題の論理的な章は閉じられた」と結論づけたが 5、現代のAI研究者(ゲイリー・マーカスなど)は、依然としてフレーム問題(関連性の決定)がAIの核心的な課題であると論じている 4。この一見した矛盾は、両者が異なる問題を指していると解釈することでのみ、合理的に説明可能となる。

本レポートは、この二重性を構造的な柱として設定する。まず、この問題の論理的起源を、その技術的文脈(状況計算)と共に解明する。次に、それがデネットらによってどのように哲学的・認識論的な難問へと変貌したかを追跡する。さらに、しばしば混同される関連問題(資格問題、派生問題)との厳密な区別を明確にし、技術的解決の試み(STRIPS、非単調論理)とその限界を分析する。最後に、この古典的な問題が、現代のAI、特に大規模言語モデル(LLM)の文脈において、どのように「再燃」し、新たな形で我々の前に立ち現れているかを考察する。

II. 論理の足枷:技術的フレーム問題の定式化 (1969年)

A. 起源:マッカーシーとヘイズ (1969)

フレーム問題は、AIの創始者の一人であるジョン・マッカーシーと、パトリック・ヘイズによって、1969年に発表された画期的な論文 “Some philosophical problems from the standpoint of artificial intelligence”(人工知能の観点からのいくつかの哲学的問題)において、初めて明確に定式化された 1

彼らの目的は、AI(特にロボット)が世界についての論理的な推論を行うための、厳密な形式的枠組みを構築することであった。彼らがそのために採用したのが、「状況計算(Situation Calculus)」と呼ばれる論理体系である 5

B. 状況計算(Situation Calculus)とは何か

状況計算は、変化する世界を記述するための論理的アプローチである。その基本的なアイデアは以下の通りである 8

  1. 状況(Situation): 世界の状態を、時間のある瞬間の「スナップショット」として捉える。これを「状況」(しばしば $s$ と表記される)と呼ぶ。
  2. 行動(Event / Action): ある状況から別の状況への変化を引き起こすもの。例えば「シーザーの死」や「ライトを点ける」といったイベント(行動 $e$)である 8
  3. 結果関数(Result Function): 行動 $e$ が状況 $s$ で実行された結果、生じる新しい状況 $s’$ を示す関数、$s’ = Result(e, s)$ として定義する 8

この枠組みにより、AIは「もし状況 $s_1$ でAであり、行動 $e$ を実行したら、状況 $s_2$ でBになるか?」といった形式的な推論が可能になるはずだった。

C. 「フレーム公理」の爆発

問題は、この状況計算を、一階述語論理のような古典的な論理体系 1 の上で実行しようとしたときに発生した。

古典論理は厳格であり、明示的に記述されていないことは「真」であるとは仮定できない。ある行動が「何を変更したか」を記述するのは容易である。例えば、2で示されている古典的な例を考えてみる。「オブジェクトAを青く塗る($Paint(A, Blue)$)」という行動 $e$ があるとする。

  • 変更の記述(作用公理):
    $Colour(A, Blue)$ は $Result(Paint(A, Blue), s)$ において真である。

これは簡単である。しかし、古典論理のシステムは、この行動が他のあらゆる事柄に影響を与えなかったことを自動的には理解しない 2。論理体系は、「Aを青く塗ったら、隣にあるオブジェクトBの色(赤)が変わってしまった」あるいは「Aの位置が変わった」「部屋の温度が変わった」という可能性を、明示的に否定されない限り排除できない。

この「変わらなかった」という事実を論理体系に保証させるために必要なのが、「フレーム公理(Frame Axioms)」と呼ばれる、膨大な「非=変化」の記述である 1

  • フレーム公理の例:
    もし状況 $s$ で $Colour(B, Red)$ ならば、
    状況 $Result(Paint(A, Blue), s)$ でも $Colour(B, Red)$ である。
    もし状況 $s$ で $Position(A, Room1)$ ならば、
    状況 $Result(Paint(A, Blue), s)$ でも $Position(A, Room1)$ である。

世界に $M$ 個のアクションと $N$ 個のプロパティ(状況によって変わりうる事柄。「フルーエント(Fluent)」と呼ばれる)がある場合、各アクションが他のプロパティの大部分を変更しないことを保証するために、約 $M \times N$ 個のフレーム公理が必要となる。これは非現実的な「歓迎されざる負担(unwelcome burden)」であり、記述の「爆発」を引き起こす 2

D. 技術的問題の本質:単調性と慣性

マッカーシーらが直面した技術的フレーム問題の本質は、「常識的な慣性の法則(commonsense law of inertia)」 2、すなわち「(特に理由がない限り)物事はそのままの状態を維持する」という極めて自明なデフォルトの仮定を、いかにして形式論理で簡潔に表現するか、という問題であった。

この困難は、古典論理が持つ「単調性(Monotonicity)」という性質に根ざしている 2。単調論理では、一度証明された命題は、新しい公理(事実)が追加されても決して偽にはならない。しかし、「慣性」は本質的に「非単調(Non-monotonic)」である。例えば、「私の車のバッテリーは生きている」という信念は、「キーを回してもエンジンがかからなかった」という新しい事実が追加されれば、即座に覆される(撤回される)べきである。

古典論理という「道具」は、このような柔軟な「デフォルト(既定)」と「例外」の扱いが極めて不得意であった。技術的フレーム問題は、AIの「思考」の欠陥というよりも、AI研究者が世界を記述するために選んだ「言語」(一階述語論理)の表現力の限界を示す、記述上の問題だったのである。

III. 哲学の鏡:デネットとフォーダーによる認識論的転換

AI研究者が「論理的フレーム問題」(いかにして $M \times N$ 個の公理を記述しきるか)に苦心している間に、哲学者たちはこの問題を、より深刻で、知能の本質そのものに関わる難問として再解釈した。この転換の中心人物が、ダニエル・デネットとジェリー・フォーダー(Jerry Fodor)である。彼らによって「認識論的フレーム問題(The Epistemological Frame Problem)」 2 が提示された。

A. デネットの思考実験:ロボットと爆弾

この認識論的問題の核心を、最も鮮やかに、そして痛烈に描き出したのが、デネットが1984年の論文で提示した、ロボットと爆弾の寓話である 9

シナリオ: 博士によって発明されたロボットR1は、地下室に置かれた自らの予備バッテリーを取りに行くという単純な任務を与えられる。だが、そのバッテリーの上には(R1は知らないが)時限爆弾が仕掛けられている 9

  1. R1(初期型):
    R1は「バッテリーを掴む」という行動の「直接的な結果」のみを推論するように設計されていた。R1は地下室に行き、バッテリーを掴む。しかし、バッテリーの上にあった爆弾も一緒に運んできてしまう。博士がそれに気づく前に、爆弾は爆発する。
  • 欠陥: R1は、行動の「副作用」(Ramification)を推論できなかった。
  1. R1-D1(改良型:Deductive):
    博士はR1を改良し、行動がもたらす「全ての」結果を論理的に推論する能力を搭載した。R1-D1は地下室に行き、「バッテリーを掴めば、その上にある爆弾も一緒に動いてしまう」ことを推論する。これは成功である。
  • 欠陥: しかし、R1-D1は「バッテリーを掴んでも、部屋の天井の色は変わらない」「壁の埃の数は変わらない」「1000マイル先の空の色も変わらない」……といった、その行動によって変化しない無数の事柄を、すべて推論し始めた。R1-D1が、フレーム公理(Section II)の論理的推論を愚直に実行している間に、地下室で時限爆弾が爆発する 9
  1. R1-D2(再改良型:Relevance-checker):
    博士はR1を再度改良し、推論する前に「関連性」をチェックするフィルターを搭載した。R1-D2は地下室に行き、推論を開始する。「バッテリーを掴む」という行動……まず、関連する事柄は何か? 「天井の色」は関連するか? No。「壁の埃」は関連するか? No。「爆弾が動くこと」は関連するか? Yes。……R1-D2が、自身の膨大な知識ベースの中のあらゆる事柄が、現在のタスクに「無関係」であることを一つ一つチェックしている間に、時限爆弾が爆発する 3。

B. 認識論的問題の本質:関連性(Relevance)

デネットの寓話 9 が暴き出したのは、驚くべきトレードオフである。「論理的フレーム問題」(Section II)を愚直に解決しようとすること、すなわち「変化しないもの」をすべて論理的に推論すること(R1-D1)は、そのまま「計算論的破綻」(認識論的フレーム問題の発生)に直結する。

知的なエージェント(人間を含む)は、論理的に完全な推論など行っていない。我々は、現在のタスクに「関連する(relevant)」信念だけを瞬時に特定し、更新し、その他すべて(文字通り、世界のほぼすべて)を計算リソースを割かずに「無視」している 3

認識論的フレーム問題とは、この「関連性の境界線」を、いかにして計算論的に効率よく(tractably)決定するか、という問題である 2。何が「無関係」かを判断することは、何が「関連」しているかを判断することと、本質的に同じくらい困難である。これは、ある研究者が「ハムレットのジレンマ:いつ思考を停止すべきか」と呼んだ問題と同一である 2

C. フォーダーの挑戦:推論の全体論性(Holism)

哲学者ジェリー・フォーダーは、この問題をさらに先鋭化させた 2。彼は、人間の信念体系や推論は「全体論的(Holistic)」かつ「文脈依存(Context-sensitive)」であると主張した 2。つまり、ある一つの信念がタスクに「関連」するかどうかは、局所的に決めることはできず、原理的にはそのエージェントが持つ他のすべての信念との関係性の中でしか決定できない。

フォーダーにとって、フレーム問題(=関連性をどうやって局所的に限定するか)は、古典的なシンボリックAI(記号論理に基づいたAI) 6 のアプローチでは原理的に解決不可能であり、知能の計算理論そのものに対する根本的な限界を示すものであった。

IV. 関連問題の系譜学:「フレーム問題ファミリー」の解剖

フレーム問題に関する議論が混乱した一因として、AIが常識的な推論を形式化しようとする際に直面する、いくつかの異なる問題が「フレーム問題」という名前、あるいはその「ファミリー」 10 として混同されてきたことが挙げられる。専門的な分析を行うためには、これらの問題を明確に区別する必要がある。

A. 資格問題(The Qualification Problem)

  • 定義: ある行動が意図した結果をもたらすために、あらかじめ満たされていなければならない、潜在的に無限の前提条件(Qualifications)を、どのように扱うかという問題 3
  • 提唱: この問題もまた、マッカーシーによって提起された 3
  • 例: 「車のキーを回せばエンジンがかかる」というルールを考える。このルールが「資格」を得て成功するためには、無数の暗黙の前提条件が満たされている必要がある。「バッテリーが死んでいない」「ガソリンがタンクに入っている」「点火プラグが正常である」「マフラー(排気管)にジャガイモが詰まっていない」「車の近くで反物質爆弾が爆発していない」等々 11
  • フレーム問題との違い:
  • フレーム問題: 行動の「結果」として、「変わらないもの」は何か?
  • 資格問題: 行動の「前提」として、「期待通り(=異常がない)であるべき」条件は何か?

B. 派生問題(The Ramification Problem)

  • 定義: ある行動の「直接的な」結果から、因果連鎖によって生じる「間接的な」あるいは「派生的な」結果(Ramifications)を、どのように推論するかという問題 11
  • 例: 「車のキーを回す」という行動の「直接的」結果は、「イグニッションがONになる」ことかもしれない。しかし、AIはそこから派生する結果も推論できなければならない。静的な法則(例:「イグニッションがON」かつ「バッテリーが正常」ならば「エンジンが始動する」)に基づき、「エンジンが始動する」(派生結果1)、さらに「エンジンが始動」すれば「オルタネーターが回転する」(派生結果2)といった連鎖である 11
  • フレーム問題との違い:
  • フレーム問題: 「変わらないもの」(慣性)を扱う。
  • 派生問題: (直接の操作以外で)「変わってしまうもの」(因果連鎖)を扱う。

これら三者は、世界のダイナミクスをモデル化する上での「コインの裏表」の関係にあり、AIの常識推論における中心的な課題群を形成している。

C. AIにおける常識推論の「三大問題」の比較

問題名 (Problem)提唱者 / 文脈 (Proponent / Context)核心的な問い (The Core Question)古典的な例 (Classic Example)
フレーム問題 (Frame Problem)McCarthy & Hayes (1969)「行動の結果、変わらないものは何か?」「ロボットがペンキを塗っても、部屋の電話番号は変わらない」 2
資格問題 (Qualification Problem)McCarthy (1986)「行動が成功するための前提条件は何か?」「車のキーを回しても、バッテリーが死んでいなければ始動しない」 3
派生問題 (Ramification Problem)(Causal Reasoning Context)「行動の間接的な結果は何か?」「キーを回すとエンジンが始動し、その結果オルタネーターが回る」 11

V. 解決への道:論理的閉鎖と実用的回避

フレーム問題が「論理的」側面と「認識論的」側面という二つの顔を持っていたことに対応するように、その解決へのアプローチも、二つの全く異なる経路をたどった。すなわち、「工学的な回避」と「論理学的な解決」である。

A. 工学的「回避」:シェーキーとSTRIPS

デネットの寓話 9 が示すように、ロボットが実時間で動くためには、計算論的破綻を避けねばならない。この工学的な要求から生まれたのが、AIプランニングシステム「STRIPS」である。

  • シェーキー・プロジェクト(Shakey the Robot): 1960年代末から70年代初頭にかけて、SRI(スタンフォード研究所)で開発された、世界初の自律移動型ロボット 13。シェーキーは、デネットが描いたような哲学的推論を行う代わりに、意図的に簡略化された「おもちゃの世界」(toy world)で動作した 15
  • STRIPS プランナー: シェーキーが目標達成のための行動計画(プランニング)を立てるために使用したシステムがSTRIPS(STanford Research Institute Problem Solver)である 13
  • STRIPS仮説 (The STRIPS Assumption): STRIPSがフレーム問題をどのように「回避」したか、その核心がこの仮説である 18
  1. STRIPSにおいて、アクションは「前提条件(Preconditions)」(行動が可能な条件)と「結果(Effects)」(行動による変化)によって定義される 18
  2. 「結果(Effects)」は、世界の状態記述に追加される「追加リスト(Add list)」と、削除される「削除リスト(Delete list)」のみで記述される。
  3. 仮説: これらのリストに明記されていない世界のすべての事実は、その行動によって変化しないと仮定する 18

STRIPSの意義は大きい。これは、論理的フレーム問題の「解決」ではなかった。なぜなら、慣性(変わらないこと)を論理的に「証明」したのではなく、単に「仮定」したからである 19。しかし、この大胆な仮定により、ロボットは $M \times N$ 個のフレーム公理の爆発的な計算から解放され、実用的なプランニングが可能になった。

本質的に、STRIPSは「認識論的フレーム問題」(関連性は何か?)の負担を、AIから人間のプログラマーに肩代わりさせた。何が「関連」してAdd/Deleteリストに入るべきかを定義するのは、AIではなく、その設計者であった。

B. 論理的「解決」:非単調論理の試み

工学的な「回避」とは別に、論理学者は「論理的フレーム問題」を、論理のレベルで根本的に解決しようと試みた。彼らの武器が「非単調論理(Non-monotonic Logic)」である 5

  • サーカムスクリプション(Circumscription): マッカーシー自身が提案した非単調論理の一つ 5。これは、「異常なこと(例:変化)」は、それが真であると明示的に示されない限り、可能な限り「最小限」しか起こらない、と仮定する論理的枠組みである。これにより、「慣性の法則」を公理として組み込もうとした。
  • イェール射撃問題(The Yale Shooting Problem): しかし、サーカムスクリプションのような初期の非単調論理は、直観に反する異常な結論(アノマリー)を導き出してしまうことが、「イェール射撃問題」 2 によって示された。
  • シナリオ: (1) 銃に装填する (Load)、(2) 少し待つ (Wait)、(3) 射撃する (Shoot) という3つの行動シーケンスを考える。
  • 直観: 装填し、待機し、射撃すれば、標的は死ぬ(Alive が False になる)。
  • 非単調論理の失敗: ところが、単純に「変化」を最小化しようとすると、論理システムは「(1)装填→(2)待機→(3)射撃」の過程で、(2)の「待機」の間に、奇跡的に銃から弾が抜けてしまう(Loaded が False に変化)という異常なモデルを、「(3)射撃」によって「標的が死ぬ」(Alive が False に変化)というモデルと区別できなかった。むしろ、弾が抜ける方が「異常」が少ないと判断し、射撃しても死なない、という直観に反する結論を許容してしまった 2

C. 「論理的」章の終焉

イェール射撃問題は、単純な「慣性(変化の最小化)」の形式化が失敗することを示した。だが、これは研究の終わりではなかった。

解決: Murray Shanahan 5 や Thielscher 5 らによる、より洗練された論理(イベント計算、フルーエント計算など)が開発された。これらのアプローチの鍵は、単なる「慣性」だけでなく、「因果性(Causality)」を適切に形式化することであった 5。「射撃(Shoot)」は「装填されている(Loaded)」場合に「死(Not Alive)」を引き起こすが、「待機(Wait)」は「非装填(Not Loaded)」を引き起こさない、という因果関係を明示的に記述した。

これらのアプローチにより、イェール射撃問題のようなアノマリーは回避され、技術的フレーム問題は(論理学の領域内では)整合的に解決可能であることが示された。KamermansとSchmits (2004) は、ShanahanとThielscherのアプローチによって「フレーム問題の論理的な章は閉じられた」と結論付けている 5

しかし、重要なのは、この「論理的解決」が、デネットの「認識論的解決」を意味しなかったことである。論理的に正しい推論が可能であることと、それを実時間で効率的に実行できることは、全く別の問題であった。

VI. 現代の亡霊:コネクショニズムとフレーム問題の再燃

「論理的」フレーム問題は(アカデミックには)解決された 5 が、デネットが突きつけた「認識論的」フレーム問題(いかにして効率的に関連性を判断するか) 2 は、古典的AIの限界を示す最大の障害として残り続け、現代のAIアーキテクチャをめぐる議論の核心に、今なお亡霊のように存在している。

A. シンボル操作をめぐる論争:マーカス vs. ルカン

現代のAIの主流であるディープラーニング(コネクショニズム)のアプローチが、この認識論的フレーム問題を解決できるか否かは、AI研究における最大の論争の一つである。

  • ゲイリー・マーカス(Gary Marcus): 現代のディープラーニングの著名な批判者であるマーカスは、AIが堅牢な常識推論(フレーム問題を含む)を扱うためには、ディープラーニング(統計的パターン認識)だけでは不十分であると主張する。彼によれば、AIには「シンボル操作(symbol-manipulation)」の機構、豊富な事前知識、そして洗練された推論技術からなる「ハイブリッド・アーキテクチャ」が不可欠である 6。マーカスにとって、フレーム問題(=何が関連しているかの決定 4)は、抽象化を扱うシンボリックな能力なしには解決できない 6
  • ヤン・ルカン(Yann LeCun): ディープラーニングの主導者の一人。彼とマーカスの間の論争 20 は、AIが常識(とそれに関連するフレーム問題)をどのように獲得すべきか(記号論理と推論か、大規模データからの学習か)という、AIの根本的な路線対立を象徴している。

B. 大規模言語モデル(LLM)と「関連性」の幻想

ChatGPT 21 のような大規模言語モデル(LLM)の登場は、この議論に新たな局面をもたらした。LLMは、一見すると驚異的な常識推論能力を発揮し 21、文脈に応じて「関連性」の高い応答を生成するように見える。

では、LLMは認識論的フレーム問題を「解決」したのだろうか?

多くの学者は、この見解に否定的である 21。LLMは、膨大なテキストデータから「何が何と関連しやすいか」という高度な統計的パターンを学習しているにすぎない。LLMが「真の意味で理解」したり、「意図性(intentionality)」を持ったりしているわけではなく、因果関係や真理条件をモデル化しているわけではない 21

C. 新たな症状:「ハルシネーション」としてのフレーム問題

LLMがフレーム問題を解決していないことを示す現代的な証拠が、LLM特有の「ハルシネーション(幻覚)」 23 である。これは、LLMが事実に基づかない、もっともらしい嘘を自信を持って生成する現象である 21

ハルシネーションという現象は、LLMが「文脈的に関連性が高い(統計的に尤もらしい)」情報と、「事実として真である(現実に即した)」情報を区別できないことを示している。

これは、デネットのロボットR1-D2 9 が、論理的に関連するかもしれないが「現実のタスクには無関係」な推論を止められなかった問題の、現代的なアナロジーと捉えることができる。LLMにおけるハルシネーションは、認識論的フレーム問題(関連性の判断)が、古典的AIの別の難問であった「シンボル・グラウンディング問題(Symbol Grounding Problem)」 10、すなわち「AIが扱う記号(トークン)が、現実世界の意味や物理的制約とどう結びつくか」という問題と、不可分であることを示している。

LLMは、閉じたデータセット(=論理体系)の中での「関連性」は学習したが、その関連性が「現実」に接地(グラウンディング)していないために、デネットが危惧したように、現実から乖離した推論(ハルシネーション)を止めることができないのである。

VII. 総括:解決された問題、あるいはAGIの定義そのもの

本レポートは、AIの歴史における「フレーム問題」が、単一の課題ではなく、二重の性質を持つことを明らかにしてきた。この二重性を認識することが、AIの過去と未来を理解する鍵となる。

  1. 技術的フレーム問題(The Logical Frame Problem):
    マッカーシーとヘイズが1969年に提起した 1、状況計算 8 における「慣性の記述」の問題。これは、非単調論理と因果性の洗練された形式化(イベント計算など 5)によって、論理学の領域では概ね解決済みである 5。
  2. 認識論的フレーム問題(The Epistemological Frame Problem):
    デネット 9 とフォーダー 2 によって提起された、「効率的な関連性判断」の問題。これは、計算論的・認知的な課題であり、AIにおける未解決の核心的難問として残存している。

AIの歴史は、この認識論的フレーム問題をいかに「回避」してきたかの歴史でもあった。

  • STRIPS 18 は、この問題を「設計者が関連性を事前に定義する」ことで回避した。
  • 大規模言語モデル(LLM) 21 は、「膨大なデータから関連性の統計的パターンを近似する」ことで、この問題を回避しているように見える。しかし、ハルシネーション 23 という形で、その近似の限界と、現実世界への「接地(グラウンディング)」の欠如を露呈している 10

ゲイリー・マーカスの主張 6 に見られるように、真に常識的な推論を行う(=認識論的フレーム問題を解決する)能力は、依然としてAIの最前線の課題である。

結論として、フレーム問題は、AIの歴史における単なる技術的障害ではなく、知能のアーキテクチャを評価するための「リトマス試験紙」として機能し続けてきた。「何が無関係かを効率的に知る」という認識論的フレーム問題は、もはやAIにおける「一つの問題」ではない。それは、「常識とは何か」「知性とは何か」という問いそのものであり、人工一般知能(AGI)の実現を阻む、最も本質的な壁として今なお存在し続けている。

引用文献

  1. Frame problem – Wikipedia https://en.wikipedia.org/wiki/Frame_problem
  2. The Frame Problem (Stanford Encyclopedia of Philosophy) https://plato.stanford.edu/entries/frame-problem/
  3. The Frame Problem in Artificial Intelligence http://groups.umd.umich.edu/cis/course.des/cis479/projects/frame/welcome.html
  4. Common Sense Is All You Need – arXiv https://arxiv.org/html/2501.06642v1
  5. The History of the Frame Problem https://staff.science.uva.nl/~bredeweg/pdf/BSc/20032004/KamermansSchmits.pdf
  6. Symbolic artificial intelligence – Wikipedia https://en.wikipedia.org/wiki/Symbolic_artificial_intelligence
  7. The Frame Problem in Artificial Intelligence https://api.pageplace.de/preview/DT0400.9781483214436_A23862461/preview-9781483214436_A23862461.pdf
  8. The Frame Problem and Related Problems in Artificial Intelligence – AITopics https://aitopics.org/download/classics:4D2DA166
  9. フレーム問題とは?AIにおける重要な課題について | AI専門ニュース … https://ainow.ai/2021/09/14/258409/
  10. The Frame Problem as a Symptom of the Symbol Grounding Problem – University of Southampton https://www.southampton.ac.uk/~harnad/Papers/Harnad/harnad93.frameproblem.html
  11. Logic and Artificial Intelligence – Stanford Encyclopedia of Philosophy https://plato.stanford.edu/archives/win2004/entries/logic-ai/
  12. The Ramification and Qualification Problems in Temporal Databases – ICS-FORTH https://projects.ics.forth.gr/isl/publications/paperlink/ram-qual.pdf
  13. Reinventing Shakey https://cdn.aaai.org/Symposia/Fall/1998/FS-98-02/FS98-02-017.pdf
  14. (PDF) STRIPS, a retrospective – ResearchGate https://www.researchgate.net/publication/220547571_STRIPS_a_retrospective
  15. COGNITIVE WHEELS: THE FRAME PROBLEM OF AI DANIEL C. DENNETT – Personal webpages at IDI-NTNU https://folk.idi.ntnu.no/gamback/teaching/TDT4138/dennett84.pdf
  16. STRIPS, a retrospective – SciSpace https://scispace.com/pdf/strips-a-retrospective-4mkcdhcxrm.pdf
  17. Robot Research at Stanford Research Institute – DTIC https://apps.dtic.mil/sti/tr/pdf/ADA454875.pdf
  18. Practice Exercise Solutions to STRIPS planning https://www.inf.unibz.it/franconispace/lib/exe/fetch.php?media=teaching:is:ex_strips_sol.pdf
  19. Planning: STRIPS https://people.cs.pitt.edu/~milos/courses/cs1571-Fall07/Lectures/Class19.pdf
  20. Chief scientist of major corporation can’t handle criticism of the work he hypes https://news.ycombinator.com/item?id=33719763
  21. Commonsense Reasoning and Commonsense Knowledge in … https://www.researchgate.net/publication/281666782_Commonsense_Reasoning_and_Commonsense_Knowledge_in_Artificial_Intelligence
  22. Toward understanding natural language directions | Request PDF – ResearchGate https://www.researchgate.net/publication/221473301_Toward_understanding_natural_language_directions
  23. (PDF) Faithful Reasoning Using Large Language Models – ResearchGate https://www.researchgate.net/publication/363128851_Faithful_Reasoning_Using_Large_Language_Models