
第1章 エグゼクティブサマリー
概要
本レポートは、AIエージェントの労働市場への統合に関する画期的な研究、Shao et al.による「Future of Work with AI Agents: Auditing Automation and Augmentation Potential across the U.S. Workforce」について、包括的かつ戦略的な分析を提供する。本研究は、労働者の願望と技術的な実現可能性という2つの視点から、AIの導入がもたらす複雑な力学を体系的に解明するものである。本レポートは、研究の核心的な貢献、主要な発見、そしてテクノロジー、政策、ビジネスに対する戦略的な示唆を詳細に解説し、関係者が情報に基づいた意思決定を行うための指針となることを目的とする。
核心的な問題
AIエージェントの急速な展開は、労働者の実際のニーズや願望を体系的に理解することなく進んでいる 1。この状況は、技術のミスマッチ、投資の浪費、そして労働者の抵抗といった重大なリスクを生み出している。これまでの研究は、特定の職種に限定されていたり、資本側の視点に偏っていたり、あるいは過去のデータに依存していたりするため、未来志向の指針を提供するには不十分であった 3。この知識のギャップを埋めることが、AIの生産的な社会実装を実現する上での喫緊の課題となっている。
主要な貢献
スタンフォード大学が主導した本研究は、このギャップを埋めるために、労働者の願望と専門家の技術評価を統合した、新規性の高い二元的な監査フレームワークを導入した 1。このフレームワークを具体化したものが
WORKBankデータベースである。これは、米国の1,500人の労働者と52人のAI専門家から収集したデータを基に構築された大規模なリソースであり、104の職種にわたる844のタスクを網羅している 1。このデータベースは、AIと労働に関する議論を、憶測からデータに基づいた分析へと移行させるための基礎を提供する。
主な発見
本研究から得られた主要な知見は以下の通りである。
- 願望と能力のミスマッチ: Y Combinatorのような著名なインキュベーターからの投資を含む、現在のAI開発と投資のかなりの部分が、労働者の選好と一致していないことが明らかになった。多くの投資は、労働者が自動化を望まないタスク(「レッドライトゾーン」)や、優先順位の低いタスクに集中している 2。
- ヒューマン・エージェンシーの優位性: 本研究は、人間とAIの協働関係を定量化するための5段階の語彙、**ヒューマン・エージェンシー・スケール(HAS)**を導入した。データは、労働者が完全な自動化よりも協調的なパートナーシップ(H3:「対等なパートナーシップ」)を強く好むことを示しており、コントロール、創造性、そして「人間味」を維持したいという願望を浮き彫りにしている 2。
- スキルの大変革: 本研究は、人間のスキルが根本的に再評価されていることをタスクレベルで実証した。AIエージェントが定型的な情報処理タスクを担うようになるにつれて、経済的な価値は、対人コミュニケーション、メンタリング、戦略的計画、交渉といった、人間特有の能力へとシフトしている 1。
戦略的提言
本レポートの分析に基づき、以下の戦略的提言を行う。テクノロジーリーダーは、投資の方向性を労働者が望むアプリケーション(「グリーンライトゾーン」および「研究開発機会ゾーン」)へと転換する必要がある。政策立案者は、WORKBankのデータを活用して、的を絞った再教育プログラムを設計すべきである。そして、組織のリーダーは、単なる代替ではなく、人間とエージェントの協働を促進するためにワークフローを再設計しなければならない。
第2章 オートメーションのパラドックス:技術的能力と人間の選好の調和
エージェント型AIの台頭
現代の労働市場における変革を理解するためには、まずその主役である「エージェント型AI」の性質を定義する必要がある。これまでの生成AI(例:GPT、Midjourney)が、人間の指示に応じてテキストや画像を生成する「支援ツール」であったのに対し、エージェント型AIは、より高度な自律性を持つ複合システムである 6。これらのエージェントは、複雑な目標を達成するために、自律的に複数ステップのワークフローを計画し、実行する能力を持つ 2。この進化は、AIが単なる受動的なツールから、能動的な「チームメイト」へと変化していることを意味し、仕事の性質と自動化の可能性を根本的に変えつつある 9。
従来の研究の限界
Shaoらの研究が登場する以前、AIと労働に関する研究には、その有効性を制限する3つの重大な欠点が存在した。これらの限界を認識することは、本研究の革新性を理解する上で不可欠である 3。
- 限定的なカバレッジ: 従来の研究は、ソフトウェアエンジニアリングやカスタマーサポートといった、一部の職種に焦点を当てる傾向があった 3。これにより、経済全体の多様な職種におけるAIの影響を包括的に捉えることができず、得られる知見は断片的なものにとどまっていた。
- 資本側の視点への偏り: 多くの分析は、歴史的に資本中心的な視点から行われてきた。つまり、自動化によって収益性が向上するタスク(例:コーディング)に注目が集まる一方で、その影響を直接受ける労働者自身の価値観、懸念、そして願望は軽視されてきた 3。この偏りは、技術導入の際に生じる社会的摩擦や抵抗の要因を過小評価する原因となっていた。
- 過去の指標への依存: ChatGPTの利用ログのような既存の利用状況データに依存する研究は、AIが「現在」どのように使われているかを記述することはできるが、将来、AIが「どのように使われるべきか」という未来志向の問いに答えることはできない 3。このようなアプローチでは、まだ満たされていないニーズや、将来の技術開発が目指すべき方向性を見出すことは困難であった。
中心的な問題
Shaoらが取り組んだ核心的な問題は、AIが「技術的に可能なこと」と、人間が「AIにやってほしいこと」との間に存在する、増大し続けるパラドックスである。本研究は、労働者の願望を無視した技術開発が、雇用の喪失、人間の主体性(エージェンシー)の低下、自動化への過度な依存といった懸念を引き起こし、結果として生産的な技術導入を妨げるという仮説に基づいている 1。したがって、本研究の目的は、単純な「自動化か否か」という二元論を超え、この複雑な状況をよりニュアンス豊かに理解するための枠組みを提供することにある 1。
この研究が持つ深い意義は、AIの社会統合に対するアプローチを根本的に転換させる点にある。これまでの研究の多くは、技術が導入された「後」に、その影響(例えば、雇用の喪失)を測定するという「事後対応的」な姿勢を取っていた。これは、技術の進展を所与のものとし、社会がそれにどう適応するかを分析する、いわば技術決定論的な視点であった。
しかし、Shaoらのフレームワークは、これとは一線を画す。労働者が「何を望んでいるか」と、技術が「何を実現可能か」を事前に監査することで、未来の技術開発の方向性を「能動的」に導くための処方箋を提示している。これは、過去の出来事を分析するのではなく、未来の可能性の地図を描き出す試みである。この地図があれば、技術者、経営者、政策立案者といったステークホルダーは、どのような技術的未来を構築したいかについて、意図的かつ戦略的な選択を行うことが可能になる。このように、本研究は、社会科学やヒューマン・コンピュータ・インタラクション(HCI)研究の役割を、技術進歩の単なる受動的な観察者から、その軌道を形成する能動的な参加者へと変貌させる可能性を秘めている。これは、イノベーションを単に受け入れるのではなく、「舵取り」するための設計図を提供するものと言えるだろう。
第3章 労働力に関する詳細な監査:WORKBankイニシアチブとその方法論的重要性
WORKBankデータベース
本研究の中核をなすのが、新規に構築された大規模データセット「WORKBank」である 1。このデータベースは、AIと労働に関する議論に、かつてないレベルの経験的基盤を提供する。その構造と規模は以下の通りである。
- 基盤: WORKBankは、米国労働省が管理する包括的な職務情報データベースである「Occupational Information Network(O*NET)」を基盤として構築されている 1。これにより、既存の労働市場データとの接続性が確保され、分析の信頼性と拡張性が高められている。
- 規模: 2025年1月から5月にかけて収集されたデータに基づき、WORKBankは104の職種にわたる844の個別タスクをカバーしている 1。これは、米国の労働力のかなりの部分を代表する広範なサンプルであり、これまでの研究には見られなかった網羅性を実現している。
二元的視点による監査フレームワーク
WORKBankの構築を支える方法論的な革新は、2つの異なる視点を体系的に統合した「二元的視点監査フレームワーク」にある。このアプローチにより、AI導入に関する偏りのない、多角的な評価が可能となった 3。
- 労働者の選好: 1,500人の現場労働者に対して調査が行われ、彼らが自身の業務における個々のタスクについて、AIによる自動化または拡張をどの程度望んでいるかが収集された 1。これにより、技術導入の「需要側」の視点が詳細に把握された。
- 専門家による能力評価: 52人のAI専門家が、労働者から収集されたのと同じタスクについて、現在のAIエージェント技術で自動化または拡張することが技術的にどの程度可能かを評価した 1。これにより、技術の「供給側」の現状が客観的に評価された。
ニュアンスの把握:音声付きミニインタビュー
本研究の方法論におけるもう一つの重要な革新は、音声付きの調査手法の採用である。参加者は、定量的な評価尺度に回答するだけでなく、音声録音を通じて、自身の選択の背景にある理由、懸念、期待を自由に語ることができた 1。この定性的なデータは、定量的な評価の「何を」の背後にある「なぜ」を解き明かす上で、極めて重要な役割を果たした。これにより、労働者の複雑な感情や文脈に基づいた判断が、分析に深みと信頼性を与えている。
WORKBankデータベースの真価は、単なる学術的な研究成果にとどまらない。それは、AI時代の労働市場ガバナンスのための新しい公共インフラとして機能する戦略的資産となる可能性を秘めている。労働省のような政府機関は、現在、O*NETや労働統計局(BLS)のデータを用いて労働市場を理解している 13。しかし、これらのデータは、労働市場の「現状」を記述するものであり、技術的破壊という未来志向の次元を欠いている。WORKBankは、既存のO*NETフレームワークに、技術的な実現可能性と人間の願望という、まさにその欠けていた次元をマッピングすることで、この問題を解決する 5。
この強化されたデータセットがもたらす影響は計り知れない。政策立案者は、これを用いて、労働力開発資金をより正確に配分し、コミュニティカレッジや職業訓練校のためのカリキュラムを設計し、産業界に対して責任あるAI導入に関する証拠に基づいたガイダンスを提供することができる。20世紀の労働政策にとって雇用統計が不可欠であったように、WORKBankは21世紀の労働政策にとって基礎的なデータインフラとなる可能性を秘めているのである。
第4章 二元論を超えて:ヒューマン・エージェンシー・スケール(HAS)による協働の新たな語彙
ヒューマン・エージェンシー・スケール(HAS)の定義
本研究は、AIと人間の関係を「自動化か拡張か」という単純な二元論で捉えることの限界を指摘し、その代替案として「ヒューマン・エージェンシー・スケール(Human Agency Scale, HAS)」という概念的なツールを提案した 1。HASは、タスク遂行における人間とAIの関与の度合いを5段階で定量化するものであり、これにより、両者の協働関係をより詳細かつ正確に議論することが可能になる。
表1:ヒューマン・エージェンシー・スケール(HAS)の定義
この表は、HASの中心的な概念を具体化し、開発者、経営者、政策立案者がAIの役割について議論する際に使用できる、標準化された語彙を提供する。曖昧な表現を具体的な尺度に置き換えることで、より生産的な対話を促進する。
| HASレベル | ラベル | 定義 | タスクの文脈例 |
| H1 | 完全自動化 | AIエージェントが単独でタスクを完全に処理する。 | データの転記や定型的なレポートの生成 6。 |
| H2 | 最小限の人間入力 | AIエージェントが最適なパフォーマンスを発揮するために、人間からの最小限の入力や監督を必要とする。 | 人間がレビューするための文書の初稿を生成する。 |
| H3 | 対等なパートナーシップ | AIエージェントと人間が対等なパートナーとして協働し、どちらか一方が単独で行うよりも優れた成果を出す。 | 金融アナリストがAIを用いてシナリオをモデル化しつつ、戦略的な方向性を与える 2。 |
| H4 | 人間主導 | AIエージェントがタスクを成功裏に完了するために、人間からの重要な入力を必要とする。 | デザイナーがAI画像生成ツールを用い、詳細かつ反復的な指示や創造的なガイダンスを与える 4。 |
| H5 | 人間必須 | AIエージェントは人間からの継続的な関与なしには機能せず、人間が主要な行為者となる。 | 後輩社員のメンタリングや、複雑なビジネス交渉を行う 4。 |
HAS分析から得られた主要な発見
HASを用いてWORKBankのデータを分析した結果、いくつかの重要なパターンが明らかになった。
- パートナーシップの優位性: 調査対象となった104の職種全体で、最も頻繁に望まれたのは**H3(対等なパートナーシップ)**であった 2。この結果は、労働者がAIを自律的な代替物としてではなく、自身の能力を補完・強化する協働的なシステムとして捉えていることを強く示唆している。
- エージェンシー・ギャップ: 極めて重要な発見として、労働者は一般的に、AI専門家が「技術的に必要」と判断するレベルよりも高いレベルのヒューマン・エージェンシーを望む傾向があることが分かった 2。この「エージェンシー・ギャップ」の存在は、将来的な摩擦の火種となり得る。技術的には完全自動化(H1/H2)が可能であっても、労働者が自身のコントロールや自律性が損なわれると感じた場合、その技術は抵抗に遭う可能性が高い。
- 職種間の異質性: HASの選好は、職種によって大きく異なることが確認された。編集者やデザイナーといった創造的な役割では、H4やH5といった人間が主導権を握るレベルが一貫して好まれた。一方で、校正者やプログラマーのような、より構造化されたタスクを担う職種では、H1やH2といった高度な自動化に対する受容性が高いことが示された 4。
この「エージェンシー・ギャップ」は、単なる好みの問題として片付けるべきではない。それは、AIに対する「信頼」の欠如を代理的に示す指標と解釈できる。労働者が技術的に必要なレベル以上のコントロールを求める背景には、AIの信頼性、正確性、そして人間の価値観との整合性に対する根本的な不信感が存在する。実際に、自動化に抵抗する理由として最も多く挙げられたのは「AIの正確性や信頼性への不信」(否定的な意見の45%)であり、次いで「人間味の欠如」(16.3%)であった 15。このことから、高いエージェンシーレベル(H4/H5)への要求は、AIの失敗や意図しない挙動に対する安全装置として、「ヒューマン・イン・ザ・ループ」を求める声であると理解できる。
この分析がもたらす戦略的な示唆は明確である。AIの導入を促進し、エージェンシー・ギャップを埋めるためには、開発者はAIの能力向上(H1/H2を技術的に可能にすること)だけに注力するのではなく、信頼を醸成することに重点を置かなければならない。具体的には、透明性、説明可能性、そして堅牢なオーバーライド(人間による介入)メカニズムの設計が不可欠となる。労働者が望むHASレベルに合わせてシステムを設計することは、すなわち信頼のために設計することなのである。
第5章 願望と能力のランドスケープのマッピング:AI統合の4つのゾーンの分析
4つのゾーンのフレームワーク
本研究は、労働者の願望と技術的な実現可能性という2つの軸でタスクをプロットする、強力な可視化ツールを提示した。この2×2のマトリックスは、AIの開発、投資、政策立案のための戦略的な地図として機能する 1。
表2:AIタスク統合のための4つのゾーンのマトリックス
この表は、AI導入を検討するすべてのリーダーにとって、直感的かつ実行可能な戦略的フレームワークを提供する。複雑な調査データを、機会、リスク、研究開発の優先順位、そして避けるべき領域を明確に示すシンプルな地図へと変換する。
| 高い技術的能力 | 低い技術的能力 | |
| 高い労働者の願望 | 自動化「グリーンライト」ゾーン定義: 影響が大きく、抵抗が最小限で済む、AI導入の最有力候補。タスク例: 定型的なデータ入力、スケジュール調整、日常的なレポート作成。 | 研究開発「機会」ゾーン定義: イノベーションの沃野。高い需要が存在するが、技術はまだ未成熟。タスク例: 労働者が手放したいと願う、複雑な推論や創造的な問題解決を要するタスク。 |
| 低い労働者の願望 | 自動化「レッドライト」ゾーン定義: 倫理的に問題があり、強い人間の抵抗に遭う可能性が高い。技術者は慎重に進むべき領域。タスク例: 重大な意思決定、創造的な表現、対人関係の判断を含むタスク。 | 「低優先度」ゾーン定義: AIの介入に最も適さない領域。需要も能力も低い。タスク例: 深い暗黙知や身体的な器用さを必要とするニッチなタスク。 |
深刻なミスマッチ:投資と機会の乖離
この4つのゾーンを用いた分析から明らかになった最も衝撃的な発見は、現在の技術投資と、フレームワークが示す機会との間に存在する深刻なミスマッチである。
- 本研究では、著名なインキュベーターであるY Combinatorが出資する企業のタスクマッピングの41.0%が、「低優先度」ゾーンと「レッドライト」ゾーンに集中していることが判明した 2。これは、ベンチャーキャピタルのかなりの部分が、市場の需要が低いか、あるいは労働者の抵抗が予想される領域に注ぎ込まれていることを示唆している。
- 現在の投資は、ソフトウェア開発やビジネス分析といった領域に偏っており、その一方で「グリーンライト」ゾーンや「研究開発機会」ゾーンに存在する多くの有望なタスクは、十分な注目を集めていない 2。この乖離は、市場機会の損失と、非生産的な技術開発のリスクを示している。
「レッドライト」ゾーンが持つ意味は、単に導入率が低い領域というだけではない。それは、将来の倫理的論争、労働争議、そして規制当局による監視を予測する先行指標として機能する。この領域に投資している企業は、まだ価格に織り込まれていない重大なリスクを蓄積していると言える。
この論理は次のように展開される。「レッドライト」ゾーンは、能力のあるAIが、それを望まない労働力に押し付けられている状況を表している 2。このようなシナリオは、労働者の反発、労働組合の反対運動、そしてネガティブなメディア報道を引き起こす典型的なパターンである。AIに対する規制が強化されるにつれて、採用、業績評価、医療診断といった重要なタスクにおいて人間の主体性を低下させるシステムは、最も厳しい法的監視の対象となる可能性が高い。
したがって、投資家や企業は、「レッドライト」ゾーンを、自社のAIポートフォリオのリスクを事前に評価し、低減させるための予測ツールとして活用できる。このゾーンを避けることは、単に導入を確実にするためだけでなく、将来の法的、倫理的、そして評判に関わる損害を未然に防ぐための、能動的な戦略なのである。
第6章 エージェント時代における人的能力の新たな階層
タスクからスキルへのマッピング
本セクションでは、O*NETで定義された844のタスクを、その根底にあるスキル(本研究では「一般化された職務活動」と呼ぶ)にマッピングし、それらのスキルを2つの異なるレンズを通して分析した方法論を解説する。その2つのレンズとは、スキルの現在の経済的価値(平均賃金)と、そのスキルに要求される人間の主体性のレベル(HAS評価)である 7。この比較分析により、労働市場における価値の源泉がどのように変化しているかが明らかになる。
スキルの大変革:詳細な分析
この分析は、人的能力の価値に関して、明確かつ深刻なシフトが進行中であることを示している。
- 情報処理スキルの価値低下: 現在は高賃金であるが、定型的な認知的タスクを含むスキル、例えば「データや情報の分析」や「関連知識の更新と使用」といった能力は、AIによってますます処理されるようになるため、その重要性が低下しつつある。これらのスキルは、賃金によるランキングでは上位に位置するものの、要求されるヒューマン・エージェンシーのランキングでは下位に甘んじている 4。
- 対人・組織スキルの価値向上: 対照的に、従来の賃金体系では必ずしも高く評価されてこなかったスキルが、将来性のある能力として浮上している。これには、「部下の指導、指示、動機付け」、「コーチングと人材育成」、「対立の解決と他者との交渉」、そして「対人関係の構築と維持」などが含まれる。これらのスキルは、要求されるヒューマン・エージェンシーのランキングで上位を占めている 4。
表3:中核的能力の価値の変化:賃金 vs. エージェンシー
この表は、「スキルの大変革」に関する最も説得力のある、そして容易に理解できる証拠を提供する。価値の古い階層(賃金)と、新たに出現しつつある階層(ヒューマン・エージェンシー)を直接対比させることで、教育者、研修担当者、そして自身のキャリアを計画する個人に対する強力な行動喚起となる。
| スキル(一般化された職務活動) | 平均賃金による順位 | 要求されるヒューマン・エージェンシー(HAS)による順位 | 乖離と示唆 |
| データや情報の分析 | 高位(例:トップ5) | 低位(例:下位20) | マイナス: 高賃金だが自動化可能。価値は低下する可能性。 |
| 関連知識の更新と使用 | 高位(例:トップ10) | 中位以下 | マイナス: AIにオフロードされつつある中核的な認知的タスク。 |
| 指導、指示、動機付け | 中位 | 高位(例:トップ5) | プラス: 中核的な人間のリーダーシップスキル。価値は上昇する。 |
| コーチングと人材育成 | 中位 | 高位(例:トップ10) | プラス: メンターシップは重要な高エージェンシー活動。 |
| 対立の解決と交渉 | 中位 | 高位(例:トップ10) | プラス: 自動化が困難な、典型的な人間的スキル。 |
| 対人関係の構築 | 低位 | 高位(例:トップ15) | プラス: 経済的重要性を増している基礎的な社会的スキル。 |
このデータが示唆するのは、「STEM(科学・技術・工学・数学)至上主義」の終焉と、「リベラルアーツ・エンジニア」の台頭である。長年にわたり、教育界では人文科学や社会科学を犠牲にしてでも、純粋な技術的STEMスキルを重視する傾向が強かった。しかし、本研究のデータは、この戦略がエージェント時代においては時代遅れであることを示唆している。
価値が低下しているスキルは、純粋なSTEM職に関連する典型的な分析的・情報処理的タスクである 7。一方で、価値が上昇しているスキルは、コミュニケーション、批判的思考、倫理的推論、人間システムの理解といった、伝統的にリベラルアーツ、人文科学、社会科学を通じて育成されてきた能力である 4。もちろん、AIエージェントと協働するためには、技術的なリテラシーも依然として必要である。
ここから導き出される結論は、未来の最も価値ある専門家は、純粋なプログラマーでも、純粋な人文学者でもないということだ。それは、AIシステムを構築または指示する能力(技術的な部分)と、共感、戦略的ビジョン、そして強力な対人スキルをもってそれを導く能力(高エージェンシーな部分)を兼ね備えた、「リベラルアーツ・エンジニア」なのである。このことは、より学際的なモデルへと移行する必要がある大学のカリキュラムに対して、深刻な示唆を与えるものである。
第7章 人間中心の未来に向けた戦略的必須事項:産業、政策、労働への提言
テクノロジーリーダーと投資家のために
本研究の発見は、テクノロジー産業に対して明確かつ実行可能なロードマップを提供する 4。
- 投資の方向転換: 資本を「レッドライト」ゾーンおよび「低優先度」ゾーンから引き上げ、「グリーンライト」ゾーンおよび「研究開発機会」ゾーンへと積極的に再配分することが求められる。これは、市場の需要に応え、導入の障壁を低減し、投資対効果を最大化するための論理的な戦略である。
- 拡張の優先: 設計のパラダイムを、代替を目的とした自動化から、協働を目的とした拡張へとシフトさせるべきである。HASレベルH3からH5で労働者を力づけるツールを構築することが、持続的な成功の鍵となる。
- エージェンシーと信頼のための設計: 説明可能性、ユーザーによるコントロール、そしてオーバーライド(介入)メカニズムといった機能は、贅沢品ではなく、導入と信頼を確保するための核心的な要件であると認識する必要がある 4。信頼を欠いた技術は、たとえ能力が高くても、広く受け入れられることはない。
政策立案者と教育者のために
WORKBankのデータは、証拠に基づいた政策立案のための強力なツールとなり得る 5。
- 的を絞った再教育: 第6章で詳述したスキルの価値変化に関する分析を用いて、国および州レベルの労働力開発プログラムを改革すべきである。メンターシップ、交渉、協調性といった高エージェンシースキルを育成するイニシアチブに資金を重点的に配分することが重要である。
- カリキュラム改革: 教育機関と連携し、技術リテラシーと人文社会科学を融合させた学際的なプログラムを創設することが求められる。これにより、未来の労働市場で価値を持つ「リベラルアーツ・エンジニア」を育成することができる。
- 人間中心AIの推進: HASフレームワークを、公共部門や基幹産業で導入されるAIシステムを監査するための基準として用いることを検討すべきである。これにより、新しい技術が人間の主体性を損なうのではなく、強化することを保証できる。
組織のリーダーと労働者のために
企業や労働者がこの変革期を乗り切るための指針は以下の通りである。
- パートナーシップモデルの採用: 人間とエージェントからなるチームを中心に、職務とワークフローを再設計することが不可欠である。AIが定型的なタスクを処理することで、人間がより価値の高い、高エージェンシーな仕事に集中できる環境を構築すべきである 2。
- 人的スキルへの投資: 新たに重要性が増している高エージェンシー能力に焦点を当てた社内研修プログラムを実施し、従業員のスキルセットを未来に適応させる必要がある。
- 共創の文化の醸成: AIツールの選定と導入のプロセスに労働者を関与させることが極めて重要である。これにより、ツールが現場のニーズと整合性を保つことを保証し、根本からの信頼を構築することができる。
第8章 批判的評価と今後の展望
本研究の強み
本研究は、AIと労働に関する議論にいくつかの重要な貢献を果たした。
- 規模と厳密性: 大規模かつ二元的な視点を持つ方法論は、この分野の議論に前例のない経験的基盤を提供した。これにより、議論は憶測から具体的なデータに基づいた分析へと移行した。
- 新規のフレームワーク: HASと4つのゾーンのマトリックスという新しい概念の導入は、すべてのステークホルダーにとって、問題を理解し、戦略を立てるための価値ある新しい語彙とレンズを提供した。
- 労働者中心主義: 資本中心的な自動化の視点が支配的であった中で、本研究が意図的に労働者の願望に焦点を当てたことは、時宜を得た重要な是正措置であった。
限界と注意点
一方で、本研究の境界を認識し、バランスの取れた評価を行うことも重要である。
- 知識労働への焦点: 本研究は、主として認知的なタスクを含む職種を対象としており、物理的な労働やブルーカラーの職種は対象外であった 4。これらの領域では、身体性を持つAIやロボティクスが、異なるものの同様に深刻な影響を及ぼすと考えられる。
- ある一時点のスナップショット: データは2025年初頭に収集されたものである。AI開発の指数関数的なペースを考慮すると、技術的な実現可能性は急速に進化し、4つのゾーンの境界も変化する可能性がある 4。この事実は、継続的かつ縦断的な分析の必要性を強調している。
今後の研究の方向性
本レポートは、今後の研究が探求すべき主要な道筋を提示して締めくくる。
- 縦断的監査: WORKBankデータベースは、拡張可能に設計されている 5。今後の研究では、労働者の願望とAIの能力が時間とともにどのように進化するかを追跡調査する必要がある。
- 地理的・分野的拡大: このフレームワークは、他の経済圏や、今回の研究ではカバーされなかった分野(例:医療、教育、専門技能職)にも適用されるべきである。
- エージェンシーと救済措置の連携: 将来の研究では、人間の主体性を保護するために必要な政策的・法的メカニズムを探求すべきである。例えば、AIによる決定に対して異議を申し立てたり、救済を求めたりする権利は、HASフレームワークを補完する重要な概念である 16。このような権利の確立は、技術と人間の共存における公平性と正義を確保する上で不可欠となるであろう。
引用文献
- [2506.06576] Future of Work with AI Agents: Auditing Automation and Augmentation Potential across the U.S. Workforce – arXiv https://arxiv.org/abs/2506.06576
- Future of Work with AI Agents: Auditing Automation and Augmentation Potential across the U.S. Workforce – arXiv https://arxiv.org/html/2506.06576
- 【論文瞬読】労働者が望むAI自動化と現実のギャップ:米国1,500人 … https://note.com/ainest/n/n6bb6fdea4d22
- Mapping the New Work Frontier: How AI Agents Are Redefining Jobs, Skills, and Human Agency – Jonathan Herrera https://jonathanherreracom.wordpress.com/2025/06/22/mapping-the-new-work-frontier-how-ai-agents-are-redefining-jobs-skills-and-human-agency/
- WORKBank Database – Emergent Mind https://www.emergentmind.com/articles/workbank-database
- New AI Framework Evaluates Where AI Should Automate vs. Augment Jobs, Says Stanford Study – MarkTechPost https://www.marktechpost.com/2025/06/23/new-ai-framework-evaluates-where-ai-should-automate-vs-augment-jobs-says-stanford-study/
- Future of Work with AI Agents https://futureofwork.saltlab.stanford.edu/
- Human-Centric AI Automation: WorkflowGen’s Response to Stanford’s Future of Work Research https://www.workflowgen.com/post/human-centric-ai-automation-workflowgens-response-to-stanfords-future-of-work-research
- Agentic AI: Transforming The Future Of Work With AI Agents – Aquent Australia https://aquent.com.au/blog/agentic-ai-transforming-the-future-of-work-with-ai-agents/
- Meet Your New Digital Coworker | Autonomous AI Agents for Smarter Workflows – Pronix Inc. https://www.pronixinc.com/blog/meet-your-new-digital-coworker-autonomous-ai-agents-for-smarter-workflows
- Erik Brynjolfsson’s research works | Stanford University and other places – ResearchGate https://www.researchgate.net/scientific-contributions/Erik-Brynjolfsson-2126106308
- AI agents win over professionals – but only to do their grunt work, Stanford study finds https://www.zdnet.com/article/ai-agents-win-over-professionals-but-only-to-do-their-grunt-work-stanford-study-finds/
- Future of Work with AI Agents: Auditing Automation and Augmentation Potential across the U.S. Workforce – arXiv https://arxiv.org/html/2506.06576v2
- Macro Roundup Archive – Edward Conard https://www.edwardconard.com/macro-roundup/
- The Future of Work with AI Agents — Insights from a Stanford Study | by Cobus Greyling https://cobusgreyling.medium.com/the-future-of-work-with-ai-agents-insights-from-a-stanford-study-22897d198cf4
- Enhancing human agency through redress in Artificial Intelligence Systems – ResearchGate https://www.researchgate.net/publication/361105668_Enhancing_human_agency_through_redress_in_Artificial_Intelligence_Systems



