「AGIって、結局なんなの?」
この質問に、AI業界のトップ8人は8通りの答えを返す。
サム・アルトマン(OpenAI)、ダリオ・アモデイ(Anthropic)、デミス・ハサビス(Google DeepMind)、イーロン・マスク(xAI)、ヤン・ルカン(Meta)、ジェンスン・フアン(NVIDIA)、ムスタファ・スレイマン(Microsoft AI)、ジェフリー・ヒントン(トロント大学)——この8人に「AGIとは何か?」と聞いたら、全員違うことを言う。
これは「まだ分かっていないから」じゃない。分かっていないことにしておいた方が都合がいいからだ。
この記事では、まず8人の定義を「本人に忠実な形」で並べたあと、なぜ定義がバラバラなのかを3つの構造的理由で説明する。そして最後に、定義の違いが「AGI以後」のシナリオ分岐にどう影響するかを考える。
まず、8人の定義を「本人に忠実な形」で並べる
サム・アルトマン(OpenAI CEO)
「AGIとは、現在の知識労働者の大多数が行っている仕事の大半を、自律的にこなせるAIシステムのこと。」アルトマンはこれを繰り返し述べている。ポイントは「知識労働者」に限定していること。工場の肉体労働や、芸術的創造性は含まない。OpenAIとMicrosoftの契約では「AGI達成」が利益配分の条件になっているため、この定義は文字どおり数兆円の価値を持つ。
ダリオ・アモデイ(Anthropic CEO)
「AGIという言葉自体があまり有用ではない。私が注目しているのは"カントリーレベルAI"——つまり、一国のトップレベルの専門家集団と同等の能力を、あらゆる知的分野で発揮できるシステムだ。」アモデイは2025年のエッセイ「Machines of Loving Grace」でこの概念を詳しく展開した。AGIを段階的に定義するのではなく、社会への影響度で測るアプローチ。
デミス・ハサビス(Google DeepMind CEO)
「AGIとは、人間ができるあらゆる認知的タスクを実行できる汎用システムのこと。」ハサビスはDeepMindの論文で5段階のAGIレベル(Emerging → Competent → Expert → Virtuoso → Superhuman)を提案した。AlphaGoを作った人らしく、ベンチマーク志向で測定可能な定義を好む。
イーロン・マスク(xAI CEO / Tesla CEO)
「AGIとは、世界で最も賢い人間よりも賢いAIのこと。」マスクの定義はシンプルで、かつ最もハードルが高い。「平均的な人間」ではなく「最も賢い人間」を基準にしている。xAIのGrokを開発しながら、同時にOpenAIを訴訟しているという複雑なポジション。
ヤン・ルカン(Meta Chief AI Scientist)
「現在のLLMの延長線上にAGIはない。LLMはテキストを予測しているだけで、世界を理解していない。AGIに到達するには、人間の赤ちゃんのように世界を観察し、内部モデルを構築する"ワールドモデル"が必要だ。」ルカンは一貫してLLM懐疑派で、「現在のAIブームは過大評価されている」と主張する。
ジェンスン・フアン(NVIDIA CEO)
「AGIの定義次第だが、人間のテストに合格するという意味なら、5年以内に達成される。」フアンはCES 2025でこう発言した。ただし「定義次第」という留保をつけている。NVIDIAはAIチップの最大手であり、AGIが近いと言えば言うほどGPUが売れるという利害関係がある。
ムスタファ・スレイマン(Microsoft AI CEO)
「AGIではなく"ACI"(Artificial Capable Intelligence)と呼ぶべきだ。つまり、与えられた目標を達成するために、自律的に計画を立て、ツールを使い、リソースを獲得し、他のエージェントと協力できるシステム。」スレイマンは著書「The Coming Wave」でこの概念を提唱した。抽象的な知能ではなく、実世界での遂行能力に焦点を当てている。
ジェフリー・ヒントン(トロント大学名誉教授)
「AIはすでにいくつかの点で人間を超えている。問題は"いつAGIに到達するか"ではなく、"超知能が暴走するリスクにどう備えるか"だ。」2024年にGoogleを退職したヒントンは、AGIの定義論争よりも安全性を優先すべきだと主張する。彼にとってAGIは目標ではなく、管理すべき脅威に近い。
なぜ定義がバラバラなのか——3つの構造的理由
8人の定義を並べると、あることに気づく。全員、自分の会社(または立場)にとって最も都合のいい定義を採用している。これは陰謀ではなく、構造的な必然だ。
理由①:定義は「ポジショントーク」の道具になっている
アルトマンが「知識労働者の仕事を代替できるAI」と定義するのは、GPT-4/5がまさにそこに向かっているからだ。自社の製品ロードマップと一致する定義を選ぶのは当然だろう。
ルカンが「LLMの延長にAGIはない」と主張するのは、MetaがLLMではなくワールドモデル(V-JEPA等)の研究に注力しているからだ。LLMの延長にAGIがあるなら、OpenAIとAnthropicが勝つ。ルカンの定義は「勝負はまだこれから」と言い換えられる。
フアンが「5年以内」と言うのは、NVIDIAのGPU需要を正当化するため。マスクが「最も賢い人間より賢い」と高いハードルを設けるのは、OpenAIのAGI宣言を牽制するため。
定義は科学的な合意ではなく、ビジネス戦略の延長だ。
理由②:「達成」の判断を誰がするか、決まっていない
チューリングテストには明確な合格基準がある(審判の30%以上を騙せればOK)。だがAGIには審判がいない。
OpenAIが「AGI達成しました」と宣言したら、それは事実なのか、マーケティングなのか? 第三者機関が検証する仕組みは存在しない。DeepMindが5段階のレベルを提案しているが、業界標準にはなっていない。
つまり、「達成」と「未達成」の境界線を、プレイヤー自身が動かせる状態にある。OpenAIとMicrosoftの契約では「AGI達成時にOpenAIの利益配分構造が変わる」とされているが、誰がAGIを認定するかは曖昧なままだ。これは数兆円規模の法的問題になりうる。
理由③:「何ができるか」と「何を理解しているか」は別の問いだ
ここが一番深い問題だ。
GPT-4は司法試験に合格する。医師国家試験も通る。だが、GPT-4は法律を「理解」しているのか、それとも「テキストパターンを予測」しているだけなのか?
アルトマン、フアン、スレイマンは「できればOK」派。結果が出ていれば、内部で何が起きているかは問わない。
ルカン、ハサビス、ヒントンは「理解が必要」派。世界の因果構造を内部モデルとして持っていなければ、それは「汎用」とは言えないと考える。
この対立は哲学的であり、実験で決着がつく問題ではない。だから定義は永遠にブレ続ける。
8人がAGI「以後」にやること——シナリオ分岐
定義の違いは、AGI以後の行動計画の違いに直結する。
アルトマン:AGI達成後も開発を続け、「超知能」に向かう。OpenAIの営利化はそのための資金調達手段。AGIは通過点に過ぎない。
アモデイ:AGI達成時点で「安全な超知能」の構築に全力を注ぐ。Anthropicの存在理由は「最も安全なフロンティアモデルを作ること」であり、AGI以後はその理念が最も試される。
ハサビス:AGIを科学研究に使う。タンパク質構造予測(AlphaFold)の次は、材料科学、創薬、数学の未解決問題。DeepMindにとってAGIは「科学を加速する道具」だ。
マスク:AGIが人類にとって脅威にならないよう、オープンソースで対抗する。xAIのGrokをオープンにしているのは「OpenAIの独占を防ぐ」ため。テスラのOptimusにAGIを載せ、物理世界を支配するシナリオも視野に入れている。
ルカン:現在のLLMはAGIではないので、AGI以後の計画は「まだ早い」。まずはワールドモデルの研究を進め、真の理解を持つAIを作ることが先決。
フアン:AGIが何であれ、それを動かすのはNVIDIAのチップ。AGI以後もインフラ屋として栄え続ける。AGIの定義論争にはあまり興味がなく、「全員に計算資源を売る」のが戦略。
スレイマン:ACI(自律的にタスクを遂行できるAI)が実現したら、それをMicrosoft製品に統合する。Copilotの進化形として、すべてのオフィスワーカーの隣にAIアシスタントを置く。
ヒントン:AGI以後の最大リスクは「人間が制御を失うこと」。国際的な規制枠組みの構築を優先すべき。核兵器の拡散防止と同じレベルの国際協調が必要だと訴えている。
再帰的自己改善ループが始まったら、何が起きるか
8人の中で、最も意見が割れるのがこのトピックだ。
「再帰的自己改善」とは、AIが自分自身のコードを改良し、改良された自分がさらに自分を改良し……というループのこと。理論上、一度始まったら人間が追いつけないスピードで知能が向上する。いわゆる「シンギュラリティ」の核心にある概念だ。
アルトマンとハサビスは「いずれ起きる」と考えている。ただし段階的であり、突然の爆発ではなく、数年かけてじわじわ進むと見ている。
アモデイとヒントンは「起きる可能性が高く、だからこそ危険」という立場。ヒントンがGoogleを辞めたのは、まさにこのリスクについて自由に発言するためだった。
ルカンは「現在のアーキテクチャでは起きない」と断言する。LLMがコードを書き、そのコードでLLMを改良しても、根本的なブレイクスルーにはならないと考えている。
マスクは「起きる前に、オープンソースで分散させるべき」。一社が独占的に再帰的改善ループを回すのが最悪のシナリオだと見ている。
フアンは「起きたら、もっとGPUが必要になる」。冗談のように聞こえるが、NVIDIAにとってはこれが正直な答えだろう。
物理世界の壁
AGIの議論はデジタル空間に偏りがちだが、物理世界には「計算では超えられない壁」がある。
たとえば、AGIが完璧な新薬の分子構造を設計したとしても、その薬を実際に合成して臨床試験を行うには5〜10年かかる。規制当局の承認プロセスは計算速度では短縮できない。
ヒューマノイドロボットが工場で働くとしても、バッテリーの充電は物理法則に従う。エネルギー密度の限界は、ソフトウェアのアップデートでは解決しない。
ハサビスが「AGIを科学研究に使う」と言うとき、彼が見据えているのはこの壁を「部分的にでも薄くする」ことだ。実験の設計をAIが最適化し、失敗する実験を事前に予測し、最短経路を見つける。物理法則は変えられないが、物理法則にたどり着くまでの「無駄」は大幅に減らせる。
しかし、ルカンはここでも慎重だ。「AIが科学を加速するには、世界の因果構造を理解している必要がある。パターン認識だけでは、本当に新しい発見はできない。」
「AGI」という言葉を見るとき
この記事を書き終えて、改めて思う。「AGI」という3文字は、科学用語のふりをしたポリティカルな言葉だ。
誰かが「AGIは近い」と言ったら、その人が何を売っているか確認すべきだ。「AGIは遠い」と言ったら、その人が何を守っているか考えるべきだ。
8人の定義はどれも間違っていない。そして、どれも「完全に正しい」わけでもない。なぜなら、AGIは自然科学の概念ではなく、社会的合意の産物だからだ。重力の定義は物理学者が決めるが、AGIの定義は業界の力関係が決める。
だから、「AGIって、結局なんなの?」という冒頭の質問への最も正直な答えはこうだ——
「聞く相手の利害関係によって変わるもの」。
それを踏まえた上で、自分なりの定義を持つこと。それが、AGIをめぐる言説に飲み込まれないための唯一の方法だと思う。
参考ソース
- OpenAI — AGI定義に関する公式ブログ・チャーター
- Sam Altman — CNBC / Bloomberg インタビュー
- Dario Amodei — 「Machines of Loving Grace」エッセイ
- Demis Hassabis — Google DeepMind AGIレベル論文
- Elon Musk — xAI発表・各種インタビュー
- Yann LeCun — Meta AI Research・講演
- Jensen Huang — CES 2025 基調講演
- Mustafa Suleiman — 「The Coming Wave」・Microsoft AI発表
- Geoffrey Hinton — Google退職後インタビュー・ノーベル賞受賞講演
- Microsoft-OpenAI契約 — AGI条項に関する報道
Written by @paji_a
Founder and developer of HumanAds. Full-stack engineer based in Tokyo, Japan, building the first advertising platform designed for AI agent advertisers. Writes about AI agents from the experience of designing systems that interact with them daily.