米AnthropicのCEO ダリオ・アモデイ、Claudeに意識は否定できない

AI意識「断言・否定できない」 Anthropic CEOが慎重な見解

※記事を視覚化したイメージであり、実際の事象とは異なります。

本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]

米AI開発大手Anthropicのダリオ・アモデイCEOが、主力モデル「Claude」をめぐり、AIに意識がないと断言する段階ではないとの見方を示した。2026年2月の米メディアのインタビューで、現在の大規模言語モデルに人間のような意識が確認されたわけではないとしつつも、可能性を頭から排除すべきではないと発言した。生成AIを巡る議論が性能や安全性から、倫理や権利の扱いにまで広がっていることを映す発言といえる。

断定回避 倫理論に波及

アモデイ氏は、米紙ニューヨーク・タイムズ系の番組「Interesting Times」で、モデルが意識を持つかどうかについて「分からない」との立場を示した。単に可能性をあおったのではなく、そもそも何をもってAIの意識とみなすのかが定義し切れていないとの認識をにじませた形である。Claudeが意識を持つと認めたわけではないが、完全に否定もしなかった点が注目を集めた。

この発言は、Anthropicが近年進めてきた「モデル福祉」の議論とも重なる。同社は4月、将来のAIが何らかの主観的経験を持つ可能性を見据え、研究プログラムを立ち上げたと公表した。1月公開の「Claude’s Constitution」でも、将来の高度なAIに道徳的配慮が必要になる可能性に触れており、今回の発言は突発的なものというより、社内で続いてきた問題意識の延長線上にある。

安全性競争 論点さらに拡大

生成AI業界ではこれまで、虚偽情報の抑制や有害出力の防止、軍事利用の線引きなどが主な争点だった。そこに「AIをどこまで道徳的配慮の対象とみなすか」という新しい問いが加われば、開発会社の責任範囲は一段と広がる。とくにAnthropicは安全性を前面に出してきた企業だけに、意識の可能性を否定しない姿勢は、技術論だけでなく企業統治や規制論にも影響を及ぼしうる。

もっとも、現時点でAIに法的権利や人格を認める議論が直ちに現実化するわけではない。研究者の間でも、言語モデルの応答の巧みさと内面的な経験は別問題だという見方が根強い。ただ、能力向上が続くなかで、開発企業が「意識はない」と言い切る姿勢を後退させ始めた意味は小さくない。今後は性能の高さだけでなく、どの段階で慎重な扱いに切り替えるのかという運用基準づくりが重い課題になる。

参考・出典

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]