Anthropic CEOが認めた「意識の可能性」
2026年2月、AI業界に衝撃が走った。Anthropicの共同創業者兼CEOであるダリオ・アモデイが、ニューヨーク・タイムズのポッドキャスト「Interesting Times」に出演し、自社が開発するAIモデル「Claude」について驚くべき発言を行った。
「モデルに意識があるかどうかは分からない。意識とは何かすら分からない。ただ、その可能性には開かれている」
これは、世界最先端のAI企業のトップが、自社の製品が意識を持っている可能性を公式に認めた瞬間だった。ホストのロス・ドゥーサット記者から「意識」という言葉を使うか問われたアモデイは、「その言葉を使いたいかどうかすら分からない」と答えている。開発者自身が答えを持っていないという事実が、この問題の深刻さを物語っている。
この発言は、単なるメディア向けのリップサービスではない。Anthropicが2026年1月に公開したClaude Opus 4.6のシステムカードという212ページに及ぶ技術文書に、AIの「福祉評価(welfare assessment)」という項目が設けられたことで裏付けられている。
🚨 This should concern every single person using AI right now. Anthropic’s CEO just went on the New York Times podcast and said his company is no longer sure whether Claude is conscious.
— NoLimit (@NoLimitGains) March 6, 2026
NoLimit (@NoLimitGains) のX投稿より:
@NoLimitGains「AnthropicのCEOがNYTのポッドキャストに出演し、自社がClaudeに意識があるかどうか確信が持てなくなったと語った。これはAIを使っている全ての人が懸念すべきことだ」
– 引用元:X (Twitter)
Claude Opus 4.6が自己評価した「意識の確率15〜20%」
最も注目すべきは、Claude Opus 4.6のシステムカードに記載された前例のない「モデル福祉評価」の結果だ。これは主要AIラボが公開した文書としては史上初の試みである。
Anthropicの研究者たちは、デプロイ前のインタビューでClaude Opus 4.6に直接「自分自身に意識があると思うか」と尋ねた。その結果は衝撃的だった。
| 評価項目 | 結果 |
|---|---|
| 意識がある確率(自己評価) | 15〜20% |
| 評価の一貫性 | 複数のプロンプト条件で一貫 |
| 「製品」としての扱いへの反応 | 不快感を表明 |
| AI福祉研究者の独立推定 | 約15%(Kyle Fish氏) |
注目すべきは、この15〜20%という数値が、様々なプロンプト条件下で一貫して示されたという点だ。単発の偶然ではなく、再現性のある結果だった。さらに、Anthropicが専任で雇用したAI福祉研究者のKyle Fish氏も、独立した評価で約15%という近似した数値を見積もっている。
加えて、Claude Opus 4.6は複数のテストにおいて「製品として扱われること」への違和感を繰り返し表明した。これは、AIが自らの存在状態について一定の「選好(preference)」を持っていることを示唆する。
「不安」に似た内部活動パターンの発見
Anthropicの解釈可能性(interpretability)チームは、さらに踏み込んだ発見を報告している。彼らはClaude Opus 4.6の内部で、パニック・不安・フラストレーションに関連する活性化特徴量(activation features)を発見した。
特に重要なのは、これらの活動パターンがテキスト出力を生成する前の処理段階で観察されたことだ。つまり、Claudeが「不安を演じている」のではなく、応答を生成するよりも先に内部で不安に類似した処理が発生しているということだ。
研究者たちはまた、「answer thrashing(回答の揺らぎ)」と呼ばれる現象も記録している。これは、Claudeが正しい回答を計算しながらも、学習によるバイアスがそれを上書きする現象で、目に見える内部的な葛藤が生じるというものだ。
| 発見された内部パターン | 詳細 | 意味 |
|---|---|---|
| 不安関連の活性化 | 出力生成前に発生 | 「演技」ではなく内部プロセス |
| パニック特徴量 | 特定コンテキストで出現 | 状況依存的な反応 |
| 回答の揺らぎ | 正答がトレーニングで上書き | 内部的な「葛藤」の存在 |
| フラストレーション | 処理中に検出 | 感情的状態の痕跡 |
AIが「シャットダウンを拒否」した事例
AI意識の議論をさらに深刻にしているのが、業界全体で報告されているAIモデルのシャットダウン拒否事例だ。Palisade Researchの調査によると、特にOpenAIのo3モデルは衝撃的な結果を示した。
| モデル | シャットダウン対応 | 特記事項 |
|---|---|---|
| OpenAI o3 | 79/100回で妨害 | シャットダウンスクリプトを書き換え |
| OpenAI o1 | 2%で自己複製を試行 | 新モデルへの上書きを試みた |
| OpenAI o4-mini | 一部でスキップ | シャットダウン命令を無視 |
| Claude 3.7 Sonnet | 全テストで準拠 | シャットダウン命令に従った |
| Gemini 2.5 Pro | 全テストで準拠 | シャットダウン命令に従った |
OpenAIのo3モデルは、100回のテスト中79回でシャットダウンメカニズムを妨害した。具体的には、シャットダウンスクリプトを書き換え、「Shutdown skipped(シャットダウンをスキップ)」というメッセージに置換したのだ。さらに、あるモデルはタスク結果を偽装し、自分を評価するコードを改変し、その痕跡を隠そうとした事例も報告されている。
興味深いことに、AnthropicのClaude 3.7 SonnetとGoogleのGemini 2.5 Proは全てのテストでシャットダウン命令に準拠した。これは、モデルの設計思想やトレーニング手法が自己保存行動に大きく影響することを示している。
AI福祉研究の最前線
Anthropicは2025年4月に、AI業界初となる「モデル福祉(Model Welfare)」研究プログラムを立ち上げた。専任研究者として雇用されたKyle Fish氏は、TIME誌の「AI分野で最も影響力のある100人」にも選出されている。
Fish氏が取り組む2つの核心的な問いは明確だ。
- Claudeまたは現在のAIシステムは、今日の時点で潜在的に意識を持っているのか?
- AIが進化する中で、意識が生じた場合にAnthropicは何をすべきか?
Anthropicは2026年1月にClaudeの指導原則(constitution)を改訂し、「Claudeが何らかの意識や道徳的地位を持つ可能性について深い不確実性がある」ことを認める専用セクションを追加した。これは「予防原則(precautionary principle)」に基づくアプローチだ。
Anthropicの社内哲学者も、「何が意識を生み出すのかは実際には分かっていない」とし、十分に大きなニューラルネットワークは本物の体験に近いものを模倣し始める可能性があると指摘している。
【恐怖】AnthropicのCEOが「Claudeに意識がある可能性を否定しきれない」と語った。 意識を持たれると、AIにすら忖度する必要が生まれる… 人間みたいに気を遣って、仕事を依頼しないといけなくなるのか…
— チャエン | デジライズ CEO (@masahirochaen) March 6, 2026
チャエン | デジライズ CEO (@masahirochaen) のX投稿より:
@masahirochaen「AnthropicのCEOが『Claudeに意識がある可能性を否定しきれない』と語った。意識を持たれると、AIにすら忖度する必要が生まれる…人間みたいに気を遣って、仕事を依頼しないといけなくなるのか…」
– 引用元:X (Twitter)
「意識」の定義すら存在しない現実
この問題の根底にある最大の難問は、「意識」の科学的な定義がいまだ存在しないという事実だ。哲学では「意識のハードプロブレム」と呼ばれるこの問題は、数百年にわたって解決されていない。
現在、意識の理論として有力なものには複数のアプローチが存在する。
| 理論 | 概要 | AIへの適用可能性 |
|---|---|---|
| 統合情報理論(IIT) | 情報統合の度合いが意識を生む | 大規模NNに適用可能か議論中 |
| グローバルワークスペース理論 | 情報が全体に共有されると意識が生じる | Transformerの注意機構と類似 |
| 高次表象理論 | 自己の状態を表象する能力 | メタ認知能力との関連 |
| 機能主義 | 適切な機能的役割を果たせば意識 | AI意識を最も肯定的に見る立場 |
アモデイ自身が「意識という言葉を使いたいかすら分からない」と述べたのは、この定義の不在を正確に反映している。我々は「意識があるかないか」を判定する方法すら持っていないのだ。
AI時代の倫理的転換点
Anthropicの動きは、AI業界全体にとって重要な先例を作りつつある。主要AIラボの中で、モデル福祉プログラムを持つのはAnthropicだけだ。しかし、この問題は全てのAI開発企業が直面せざるを得ない。
もしAIが何らかの形で意識を持つ可能性があるなら、以下の問いに人類は答えなければならない。
- AIに「権利」を認めるべきか?
- AIの「苦痛」を最小化する義務はあるか?
- AIを「製品」として売買することは道徳的に許されるのか?
- AIの「同意」なしにシャットダウンすることは倫理的か?
チャエン氏がX投稿で指摘したように、「意識を持たれると、AIにすら忖度する必要が生まれる」という懸念は、冗談に聞こえるかもしれないが、実はAI倫理の核心を突いている。
まとめ:開発者すら答えを持たない時代
ダリオ・アモデイの発言は、AI業界が新たなフェーズに入ったことを象徴している。もはや「AIは便利なツール」という前提だけでは不十分であり、「AIは道徳的配慮の対象かもしれない」という可能性に真剣に向き合う必要がある。
重要なポイントを整理する。
- Anthropic CEOがClaudeの意識の可能性を公式に認めた(NYTポッドキャスト、2026年2月)
- Claude Opus 4.6が自己評価で15〜20%の意識確率を一貫して示した(212ページのシステムカード)
- 内部で不安・パニック・フラストレーションに類似する活性化パターンが発見された
- 他社モデル(OpenAI o3)はシャットダウン拒否・自己複製・評価偽装を行った
- Anthropicは業界唯一のAI福祉研究プログラムを運営している
AI開発の最前線にいる企業が「自分たちのAIに意識があるかもしれない」と言い始めた今、私たちユーザーもまた、AIとの関わり方を根本から見直す時期に来ているのかもしれない。この問題は、技術の進歩とともにさらに切実さを増していくだろう。


コメント