この言い方は、半分は正しく、半分は雑である。
たしかに、私たちが日常で触れるチャット型AIは、基本的には問いを待つ。人が入力しない限り、何も始めない。質問されれば答えるが、質問されなければ沈黙している。その意味で、チャット型AIは受動的だと言える。目の前に差し出された文に対して、意味を解釈し、次に続くべき文を返す。これは会話としては自然だが、仕事としては不十分なことが多い。
なぜなら、現実の仕事は、質問に答えることだけで成り立っていないからだ。本当に価値が出るのは、何を聞くべきかを見つけること、足りない情報を取りに行くこと、途中で方針を修正すること、期限や条件に合わせて順序を組み替えることにある。ここに入ってくるのが、AIエージェントという発想だ。
AIエージェントは、単に返答する存在ではない。与えられた目的に向かって、必要な工程を分解し、道具を選び、外部の情報にアクセスし、ときには結果を見て次の一手を変える。つまり、入力された一文に反応するだけではなく、目的達成のための過程を自ら運用する。ここで初めて、AIは会話相手から作業主体へと少しだけ近づく。
この違いは、例えるなら、チャット型AIが優秀な相談役であり、AIエージェントが実務担当者に近いということだ。相談役は、問いが明確であれば鋭い答えを返せる。しかし、問いそのものが曖昧なとき、相談役はしばしば弱い。何を先に確認すべきか、どの資料を探すべきか、誰に連絡すべきか、どこでいったん保留すべきか。そうした判断は、会話の才能だけでは処理しきれない。そこに、能動性が必要になる。
ただし、ここで注意がいる。チャット型AIは本質的に受動的で、AIエージェントは本質的に能動的だ、と単純化しすぎると、重要な点を見落とす。能動性とは、意思のことではない。自発性のように見える挙動も、多くは設計されたループの結果である。目標が与えられ、ツール利用が許可され、途中で再計画する仕組みが埋め込まれているから、能動的に見えるだけだ。言い換えれば、エージェントの能動性は人格ではなく構成の問題である。
ここは誤解されやすい。人は、黙って待つAIより、自分から動くAIに出会うと、つい能力だけでなく主体性まで感じてしまう。しかし実際には、AIエージェントがしていることの多くは、目標に対する探索と実行の自動化にすぎない。そこに意思や責任が発生するわけではない。だから、エージェント化が進むほど、人間の責任は軽くなるのではなく、むしろ重くなる。何を目的として設定したのか。どの情報源を許可したのか。どこまで自動実行を認めたのか。設計者と運用者の判断が、成果の質と事故の大きさを左右するからだ。
それでもなお、AIエージェントが重要なのは、仕事の重心が変わるからである。これまで人は、AIにうまく質問することに意識を向けてきた。だがこれからは、AIに何をさせるか、その仕事をどの粒度で分解するか、どの時点で人間がレビューに入るかを設計する力が問われる。プロンプトが重要でなくなるわけではない。むしろ、プロンプトは会話の命令文から、業務設計の一部へと位置づけが変わる。
この変化は、文章作成にも、調査にも、営業にも、開発にも共通している。チャット型AIを使うとき、人はその都度、次の問いを考え続けなければならない。つまり、人間がワークフローのエンジンであり続ける。だがAIエージェントでは、そのエンジンの一部が外に出る。AIが調べ、まとめ、比較し、抜けを見つけ、必要なら追加の処理を行う。人間は細かな操作から離れ、目的設定と中間評価に比重を移すことになる。
ここで起きるのは、便利さ以上の変化だ。知的作業の単位が、回答生成から、目的達成へと移るのである。チャット型AIが一問一答の効率化だとすれば、AIエージェントは仕事の連鎖そのものの再設計だ。前者は局所最適を積み上げる。後者は流れそのものを組み替える。この差は大きい。
もっとも、能動的であることは、常に優れていることを意味しない。勝手に進めるAIは、勝手に間違えるAIでもある。調査範囲を広げすぎるかもしれない。重要でないタスクに時間を使うかもしれない。誤った前提を守りながら、猛烈に働くかもしれない。受動的なチャット型AIのほうが安全な場面も多い。人間が一手ずつ制御できるからだ。だから実務では、受動と能動の二択ではなく、どこを自動化し、どこを人間の判断に残すかという境界設計こそが本題になる。
結局のところ、チャット型AIは受動的、AIエージェントは能動的、という区分は、入口としては有効である。しかし本質は、会話の違いではない。責任の置き方と、仕事の流れの設計の違いである。
問いに答えるAIから、目的に向かって動くAIへ。
この変化は、単なる機能追加ではない。私たちの仕事のしかたそのものを、静かに書き換え始めている。



