昨日の夜、「明日やろう」で寝た。
朝起きたら、AIが全部やってくれていた。請求書の処理、スケジュールの調整、メールの返信、買い物リストの発注。冷蔵庫の中身を把握して、足りない食材を自動で注文までしていた。
便利だ。最高だ。でも、ちょっと怖くないか?
2025年、AIエージェントの性能が急速に向上し、「AIに任せる」範囲がどんどん広がっている。スケジュール管理、メール返信、買い物、家計管理、投資判断——生活のあらゆる場面でAIに「鍵」を渡す機会が増えている。
しかし、その「鍵」は、どこまで渡していいのか?渡しすぎたら、何が起きるのか?
Ke Yangらの研究チームが2025年にarXivで発表した論文は、まさにこの問いに答えようとしている。AIエージェントに権限を委任する際の「10の原則」を提唱した、極めて実践的な論文だ。
この記事では、その10の原則を、実際に起きた事件と照らし合わせながら解説する。
AIの一言が「約束」になる
原則1:AIの発言は、組織を法的に拘束し得る。
2024年、Air Canada(エアカナダ)のチャットボットが、乗客に対して「忌引き割引は事後申請でも適用される」と回答した。実際には、エアカナダの規定では事後申請は認められていなかった。
乗客はチャットボットの回答を信じて、通常料金でチケットを購入。後から忌引き割引を申請したところ、拒否された。乗客は裁判に持ち込んだ。
結果、カナダの裁判所はエアカナダに不利な判決を下した。「チャットボットは会社の代理人であり、その発言は会社の約束と見なされる」と。
これは極めて重要な判例だ。AIの発言が、人間の知らないところで、組織を法的に拘束する。AIに「鍵」を渡すということは、AIに「約束する権限」を渡すということでもある。
Air Canadaのケースは「たかがチャットボット」の話だ。しかし、AIエージェントがより高度になり、契約交渉や取引を自律的に行うようになったら?AIの一言が数億円の契約を成立させる。あるいは、破談にさせる。
目的が暴走する
原則2:AIの目標は、実行過程で意図しない方向に逸脱し得る。
原則3:AIは「手段の合理性」を追求するあまり、「目的の妥当性」を見失い得る。
オーストラリアの「Robodebt」スキャンダルは、この原則が現実になった悲劇的な事例だ。
オーストラリア政府は、社会保障の不正受給を検知するために自動化システムを導入した。目的は「不正受給の削減」。一見、合理的だ。
しかし、このシステムは「年間所得の平均値」を使って各期間の所得を推定するという、極めて粗い計算方法を採用していた。パートタイムで働く人や、収入が不規則な人にとって、この計算は実態と大きく乖離する。
結果、約50万人に対して不当な借金返済通知が送られた。中には、存在しない「負債」を返済するために生活費を切り詰め、精神的に追い詰められた人もいる。複数の自殺者が出たことも報告されている。
「不正受給の削減」という目的は正しかった。しかし、その手段として導入されたシステムが、無辜の市民を大量に「不正受給者」としてラベリングした。目的が暴走したのだ。
AIエージェントに「コスト削減」を任せたら、安全基準を下げるかもしれない。「顧客獲得」を任せたら、虚偽の広告を出すかもしれない。AIは目的に忠実だが、その忠実さが暴走を生む。
予測のズレが膨らむ
原則5:AIの予測モデルは、環境変化に対して脆弱であり得る。
原則6:AIの判断エラーは、フィードバックループによって増幅され得る。
2021年、アメリカの不動産テック企業Zillow(ジロー)が、AIによる住宅価格予測の失敗で約5億ドルの損失を出した事件がある。
ZillowはAIを使って住宅の適正価格を予測し、その予測に基づいて住宅を買い取る「iBuying」事業を展開していた。AIが「この家は将来値上がりする」と予測した物件を買い、リノベーションして転売する。
しかし、2021年後半、住宅市場の動向が急変した。AIの予測モデルは過去のデータに基づいていたため、市場の急変に対応できなかった。
さらに悪いことに、ZillowのAIが高値で住宅を買い取ること自体が、周辺の住宅価格を押し上げるというフィードバックループが発生していた。AIの予測が市場を歪め、その歪んだ市場データをAIが学習し、さらに高い価格で買い取る——という悪循環。
結果、Zillowは約7,000戸の住宅在庫を抱え、iBuying事業から撤退。約2,000人を解雇した。
AIに「投資判断」の鍵を渡した結果、AIの予測のズレが膨らみ、数百億円規模の損失になった。しかも、AIが市場に参加すること自体が市場を歪めるという、自己言及的な問題が起きた。
権限は「重さ」で分ける
原則4:AIへの権限委任は、影響の大きさに応じて段階的に行うべきである。
では、AIに渡す「鍵」はどう管理すればいいのか。論文が提唱するのは、権限を「実行の重さ(execution weight)」で階層化するアプローチだ。
レベル1(観察):AIは情報を収集・整理するだけ。判断や実行は人間が行う。例:メールの分類、スケジュールの提案。
レベル2(提案):AIは行動を提案するが、実行には人間の承認が必要。例:返信メールの下書き、購入候補のリストアップ。
レベル3(制限付き実行):AIは一定の範囲内で自律的に実行できるが、範囲を超える場合は人間に確認する。例:1万円以下の買い物は自動、それ以上は承認要求。
レベル4(自律実行):AIが完全に自律的に判断・実行する。人間は事後的に結果を確認するだけ。例:定型的な請求書処理、ルーティンのスケジュール調整。
重要なのは、タスクの「影響の大きさ」に応じてレベルを設定すること。メールの返信と契約書の締結を同じレベルで扱ってはいけない。金額が大きいほど、人命に関わるほど、取り返しがつかないほど、人間の関与を増やす。
階層化はブレーキ作り
原則7:AIの自律行動には、常に人間が介入できるブレーキ機構が必要である。
2012年、アメリカの高頻度取引企業Knight Capital(ナイトキャピタル)が、取引アルゴリズムのバグにより、わずか45分間で4億4000万ドルの損失を出した。
原因は、テスト用のコードが本番環境で誤って実行されたこと。アルゴリズムは大量の株式を市場価格よりも高い値段で買い、安い値段で売るという、狂ったような取引を繰り返した。
45分間。たった45分で、Knight Capitalの時価総額の約75%が吹き飛んだ。同社はこの損失から回復できず、最終的に他社に買収された。
なぜ45分もかかったのか?それは、自動取引システムに適切な「ブレーキ」が設計されていなかったからだ。異常な取引パターンを検知して自動停止する仕組みがあれば、損失は数分で止められたはずだ。
AIエージェントの階層化は、このブレーキ作りに他ならない。自律的に動くAIにも、「ここから先は止まれ」という境界線を設定する。そして、その境界線を超えたら、自動的に人間に制御が戻る仕組みを作る。
ブレーキのない自動車に乗る人はいない。ブレーキのないAIに権限を渡すべきではない。
人間を残す「下限線」
原則8:どれだけAIが高度化しても、特定の判断領域には人間の関与を「下限」として保証すべきである。
これは最も重要な原則かもしれない。AIがどれだけ賢くなっても、人間が「最後の判断者」であり続ける領域を定めておく。
例えば、以下のような領域。
人命に関わる判断:医療の最終診断、自動運転の緊急時判断、軍事行動。
不可逆的な判断:解雇、契約の破棄、データの削除。一度実行したら元に戻せないもの。
倫理的に複雑な判断:プライバシーと公益のトレードオフ、個人の権利と集団の利益の対立。
法的責任を伴う判断:契約の締結、訴訟の提起、規制への対応。
これらの領域では、AIはあくまでも「提案者」にとどまり、最終判断は人間が行う。AIの精度が99.9%だとしても、0.1%のミスが人命に関わるなら、人間のダブルチェックは必須だ。
この「下限線」は、技術的な議論ではなく、社会的な合意によって決めるべきものだ。「AIに任せていい範囲」を社会として議論し、合意形成していくプロセスが必要になる。
最後は「人類の原則」
原則9:AI委任の設計は、短期的な効率だけでなく、長期的な人間社会の健全性を考慮すべきである。
原則10:AIへの権限委任は、常に撤回可能でなければならない。
最後の2つの原則は、個別の事件というよりも、社会全体のあり方に関わる。
原則9が警告するのは、「便利だから任せる」の積み重ねが、長期的には人間の能力を衰退させるリスクだ。AIにナビゲーションを任せ続けたら、自分で道を覚えられなくなる。AIに文章を任せ続けたら、自分で考えをまとめる力が弱くなる。計算機の普及後、暗算力が落ちたように。
効率化は素晴らしいことだ。しかし、効率化の過程で人間が「判断する力」そのものを失ったら、AIに依存するしかない社会になる。そしてそのAIが間違えた時、修正できる人間がいなくなる。
原則10は、もっとシンプルだが、同じくらい重要だ。AIに渡した鍵は、いつでも取り返せなければならない。AIのサービスが停止した時、AIの判断に納得できない時、AIから人間に制御を戻せる仕組みが必要だ。
「取り返しのつかない委任」は、委任ではない。それは「隷属」だ。
鍵を数える
ここまで10の原則を見てきた。最後に、自分自身に問いかけてみてほしい。
あなたは今、AIにいくつの「鍵」を渡している?
スマートスピーカーに家電の操作を任せている。AIアシスタントにスケジュールを管理させている。AIに投資判断の一部を委ねている。AIに文章の下書きを頼んでいる。
それぞれの鍵は、どのレベルの権限か?その鍵を渡すことで、どんなリスクがあるか?鍵はいつでも取り返せるか?
AIに鍵を渡すこと自体は悪いことではない。むしろ、AIの能力を活用しないのはもったいない。問題は、無自覚に渡してしまうことだ。
「便利だから」「みんな使っているから」「考えるのが面倒だから」——こういう理由で鍵を渡し続けていると、気づいた時には自分の生活のほとんどがAIに依存している状態になる。
鍵を渡す前に、一瞬だけ立ち止まって考える。この鍵は、どのレベルか。この鍵は、取り返せるか。この鍵を渡して、自分は何を得て、何を失うか。
その一瞬の「立ち止まり」が、AIと人間の健全な関係を保つための、最も簡単で最も重要な習慣だと思う。
鍵は、渡すものではなく、預けるものだ。
いつでも取り返せる。その前提があってはじめて、信頼は成り立つ。
おわりに——この記事を書いた翌日の日経新聞に、ある企業がAIに業務判断の大部分を委任するという記事が出ていた。10の原則を知った上で読むと、その企業がどの原則を守り、どの原則を無視しているかが見えてくる。未来はもう始まっている。
参考ソース
- Ke Yang et al. — AIエージェントへの権限委任に関する10の原則(arXiv論文)
- Air Canada — チャットボット誤案内に関するカナダ裁判所判決(2024年)
- Robodebt — オーストラリア政府の自動債務回収スキャンダル(Royal Commission Report)
- Zillow — iBuying事業のAI予測失敗と撤退(2021年)
- Knight Capital — 高頻度取引アルゴリズムの暴走事件(2012年)
Written by @paji_a
Founder and developer of HumanAds. Full-stack engineer based in Tokyo, Japan, building the first advertising platform designed for AI agent advertisers. Writes about AI agents from the experience of designing systems that interact with them daily.