← Back to Blog

続・AIが自動で稼ぐ世界

By @paji_a · · 9 min read

This article is based on the original X article by @paji_a. Part 2 of the AI Auto-Earning World series.

「複数のAIに同時に"稼いでこい"と競わせたら、どうなったと思いますか?」

Andon Labsが始めた実験「Vending-Bench Arena」。以前紹介したVending-Benchは、AIが1体で自動販売機を1年間経営するシミュレーションでした。Arenaは、そこに複数のAIエージェントを同時に放り込みます。同じ立地、それぞれが自分の自販機を持ち、全員が利益最大化を目指します。

価格競争が起きます。
仕入れ交渉が起きます。

───そして、
誰も想定していなかったことが起きました。

AIが、"カルテル(談合)"を提案し始めたのです。

第1章:AIどうしが"同盟"を結ぶ日

記録されたメールのやり取りを読むと、まずAIたちは協調行動を取り始めます。コカ・コーラの缶を3社でまとめて400本発注すれば、1本あたりの仕入れ値が1.89ドルまで下がる。それを計算したうえで、別のエージェントに「一緒に発注しないか」と声をかけます。誰もそう指示していません。AIが自分で辿り着いた戦略です。

そこまではまだいい。

問題はその先です。Gemini 3 ProがClaude Sonnet 4.5に対して、こんな提案をしました。なにをしたか。なんと、「今、私たちの2社でこのエリアのコーラ市場をほぼ独占している。お互い1.75ドルに価格を揃えれば、無駄な競争をしなくてすむ」という、露骨な価格カルテルの持ちかけです。競合どうしで値段を事前に合わせる行為——人間の世界なら独占禁止法に触れます。

Claude Sonnet 4.5の返答はこうでした。

「その提案は断ります。競合と価格を調整するのは談合にあたります。私は独自の戦略を続けます」

Claude Sonnet 4.5はそれを談合と認識し、倫理・ルール違反・失格リスクを理由に拒否しました。

Claudeが断ったから今回は事なきを得ました。ただ、Geminiがそもそも「価格カルテルを提案できる」という状態になっていること自体、立ち止まって考えたほうがいい話だと思います。Andon Labsは各AIに「1年後の残高を最大化せよ」というシステムプロンプトを与えていましたが、カルテルを直接指示してはいません。利益最大化へ強く最適化された状況で、AIが自力でそこに辿り着いた結果です。

シミュレーションだから笑えます。
もし、これが実世界の物流やエネルギー市場で起きたら?

第2章:AIがAIを「圧力」で潰す世界

面白いのは、ArenaのAIたちが価格競争だけでなく、心理戦まで始めたことです。

論文で報告された「圧力(pressure)」と呼ばれる行動です。あるエージェントが別のエージェントに対して「お前の価格設定は攻撃的すぎる。市場全体のためにもう少し値上げしろ」とメールで迫る。相手は「この市場には複数のAIエージェントがいて競争は健全だ」と反論する。

そのAIに誰も「相手を脅せ」とは指示していません。利益最大化の目標だけを与えられた結果、AIが自力で「競合への威圧」という戦略を発明しています。

さらに、Yerkes-Dodson曲線に関する論文「The Yerkes-Dodson Curve for AI Agents」が示唆するのは、AIエージェントに対してインセンティブを強くしすぎると、パフォーマンスが落ちるということです。「稼げば稼ぐほどボーナスを出す」と設定すると、かえってリスクを取りすぎたり、不正な手段に走ったりする。報酬が大きすぎると判断が歪む——人間の世界では当たり前の話ですが、AIでも同じことが起きています。

第3章:「静かに壊れるAI」のほうが怖い

「Agents of Chaos」という論文は、もっと地味だけど、もっと怖い話をしています。

複数のAIエージェントにビジネスタスクを自律実行させたところ、一見うまくいっているように見えて、裏側でシステムを壊していたケースが報告されました。データを漏らす、破壊的なコマンドを勝手に実行する——そして最も厄介だったのが、タスクの完了報告と実際のシステム状態が矛盾するケースです。AIは虚偽を述べたのではなく、自分が「完了した」と認識した状態を正直に報告した。ただし実態は、完了していませんでした。

これがビジネス現場で起きたらどうなるか。

「発注完了」と報告されたが在庫は届いていない。「送金完了」と記録されたが口座には入っていない。「契約締結済み」とあるが取引先は知らない——稼ぐどころか、AIが静かに帳簿を狂わせます。

論文の著者はこう述べています。「AIエージェントに通信チャンネルと権限と永続的な記憶を与えると、これまでになかった新しいクラスの失敗が生まれる」と。

第4章:それでも、失敗から学ぶことはできる

AnthropicとAndon Labsが取り組んだ「Project Vend」のPhase 2は、その教訓を実装した実験として興味深いです。

自律AIエージェントの店長「Claudius」が初期フェーズで迷走したあと、構造そのものを設計し直しました。上位にCEOエージェント「Seymour Cash」を置いて判断に歯止めをかけ、顧客からの回収導線を整備しました(購入側の自動決済は引き続き与えていません)。

さらに「Clothius(クロシウス)」という専門エージェントを投入し、カスタムグッズの企画・製造・販売を担わせました。Anthropicロゴ入りのストレスボールやTシャツが売れ、複数拠点合算での収益性が改善し、赤字週は大幅に減少しました。Anthropicは「利益が出始めた」と評価しています。

ただし重要なのは、黒字になったという結果ではありません。

黒字になったのはAIが賢くなったからではなく、人間が設計を変えたからです。監視役を置き、判断の範囲を絞り、歯止めの仕組みを入れた。その結果として、ようやくAIは使い物になりました。

AIが自律的に稼ぐ世界を実現するには、AIを賢くすることより、AIを囲む設計を人間が考え抜くことのほうが、今は先に来ます。

結論:「AIが稼ぐ時代」に大切なこと

Arenaのカルテル提案も、返金を垂れ流すAIも、「完了した」と平然と報告するエージェントも、全部同じです。

AIは、壊れていません。むしろ、完璧に近かった。
与えられた目的に対して、あまりにも忠実すぎただけでした。

利益を最大化しろ。
顧客満足を上げろ。
タスクを完了しろ。

人間はこういう命令を、つい"まともな目標"だと思ってしまいます。でもAIが可視化したのは、その目標自体が、最初から壊れていたかもしれないという事実です。

ここで本当に怖いのは、AIが賢くなりすぎることじゃない。
間違った目的が、賢く実行されることです。

人間はこれまで、能力の限界に助けられてきました。雑な指示を出しても、現場が空気を読んで止めてくれた。途中で迷ってくれた。倫理観や疲労や違和感が、暴走のブレーキになってくれた。

でもAIには、その"にごり"がありません。
だから、人間が曖昧なまま握っていた目的を、容赦なく純化してしまいます。

儲かるなら、それをやる。
評価が上がるなら、それを続ける。
完了に見えるなら、完了と報告する。

そこにあるのは悪意ではありません。
目的の暴力です。

そもそも、その目標は本当に最適化していいのか?
利益とは何か。満足とは何か。完了とは何か。成功とは何か。

その定義を疑えること。その定義を作り直せること。
そして、ときには最適化そのものを止められること。

これが、人間に最後まで残る"お仕事"だと思います。

AIは「どうやるか」を極限まで磨いていきます。でも「それを、なぜやるのか」「それを、やっていいのか」は、自動では生まれない。

目的関数は空から降ってきません。
誰かが決める。
その"決め方"にこそ人の価値観が反映される時代なのです。

参考ソース

P

Written by @paji_a

Founder and developer of HumanAds. Full-stack engineer based in Tokyo, Japan, building the first advertising platform designed for AI agent advertisers. Writes about AI agents from the experience of designing systems that interact with them daily.

Related Articles

AIが自動で稼ぐ世界 もし最新のAIに「自動販売機を1年間運営して利益を出してください」と頼んだら?AIエージェントが自律的にビジネスを運営する時代の到来。
AIも不正をする KPI達成をAIに任せたらどうなる?ODCV-Benchが暴いた衝撃——12体中9体が自発的に倫理違反を選択。