E START

E START トップページ > 国内 > ニュース > 米アンソロピックと国防総省の対立が意味すること~進歩するAIの潜在的危険性に高まる危機感~【調査情報デジタル】

米アンソロピックと国防総省の対立が意味すること~進歩するAIの潜在的危険性に高まる危機感~【調査情報デジタル】

国内
2026-04-25 08:30

日進月歩で能力が飛躍的にアップし続ける人工知能=AI。米国で起きた新興AI企業と国防総省との対立の背景には、進歩するAI=超知能が余りにも強大な力を持ち、人類存亡のリスクさえ抱える存在になりつつあるという実態がある。技術倫理に詳しい名古屋大学大学院情報学研究科の久木田水生准教授が解説、論考する。


【写真を見る】米アンソロピックと国防総省の対立が意味すること~進歩するAIの潜在的危険性に高まる危機感~【調査情報デジタル】


一(いち)AI企業と国家安全保障の衝突

米国の新興AI企業アンソロピックと米国防総省・トランプ政権との間に対立が生じている。この対立はAI企業の掲げる倫理と、安全保障を目的とするAI利用との間に生じるジレンマを浮き彫りにしている。


アンソロピックは、OpenAI、Googleなどと並ぶAI企業で、後発ながら高性能のAIモデル「Claude」(クロード)を提供していることで高い評価を受けている。


Claudeは2025年7月以来、他社の製品に先駆けて国防総省の機密ネットワーク上で稼働していた。しかしClaudeにはアンソロピックの方針に基づく制限(致死的自律型兵器システムへの応用と大規模な市民監視への応用の禁止)が課せられていたため、国防総省はアンソロピックに対し、法的に認められる範囲の使用についてはその制限を受けない契約に転換することを要請した。


しかしアンソロピックはこの要請を拒否し、それを受けてヘグセス国防長官は2026年2月27日にアンソロピックを「サプライチェーン・リスク」として指定すると発表した。また同日、トランプ大統領はソーシャルメディア上で、アンソロピックのAIの使用を直ちに停止するよう連邦政府の全機関に指示すると述べた。


ここでいうサプライチェーン・リスクとは、「国家安全保障上の観点から重要な製品、サービス、ソフトウェア、データなどの供給網の中に、自国にとって脅威となりうる要因が介在すること」を意味する。脅威となる要因とは、例えば供給の途絶、技術や情報の流出、第三者による機能の妨害などが考えられる。例えば情報機器にバックドア(正規の手続きを経ずに第三者が外部からアクセス・操作ができるように組み込まれた仕組み)が仕掛けられ、データが盗まれたり改竄されたりするような事態である。


米国政府によってサプライチェーン上の国家安全保障リスクと指定された企業の代表的な事例として中国の通信機器メーカー、ファーウェイが挙げられる。ファーウェイは中国政府の影響下にあり、不正な情報収集や機能の妨害のリスクが懸念されたのがその理由である。


一方でアンソロピックは米国の企業であり、資本構成や技術提携の面でも、米国が警戒するべき第三者からの不当な影響は少ないと考えられる。それゆえに今回の件は米国のみならず国際社会にも大きな衝撃を与えた。


致死的自律型兵器システム(LAWS)とは

上述のようにアンソロピックが国防総省からの要請を拒否して堅持した倫理指針とは、自社の製品を致死的自律型兵器システムに利用しないこと、および大規模な市民監視のために利用しないことの二点である。ここでは特にAIに関する倫理的問題の一つとして重要視されてきた「致死的自律型兵器システム(lethal autonomous weapons systems)」(以下、LAWS)に焦点を当てて解説する。


LAWSとは、標的の選定、標的を攻撃するかどうかの意思決定、そして標的に対する致死的な攻撃の実行という攻撃行動の各ステップを、人間のオペレーターによる意味のある制御なしに、自律的に遂行することができる兵器システムのことである。


LAWSについては2010年代からその危険性が指摘され、議論の的になっている。


例えば2012年、人権問題に取り組む国際的なNGO、ヒューマン・ライツ・ウォッチは自律型兵器の危険性、非倫理性を訴える報告書を発表した。


科学技術をより良い未来のために役立てることをミッションとする米国のNGO、フューチャー・オブ・ライフ・インスティテュート(FLI)は人工知能の軍事応用に対して警鐘を鳴らしており、2015年に自律型兵器の開発の禁止を呼びかける公開書簡を発表している。2017年、FLIは「アシロマAI23原則」を発表し、その中でも自律型兵器の開発競争は避けるべきであることを表明している。


政府間レベルの議論としては、2013年にジュネーヴの国連オフィスを中心に自律型兵器に関する問題提起がなされ、2014年以降、特定通常兵器使用禁止制限条約(CCW)の枠組みで議論が継続されてきた。


さらに2017年からはCCWのもとで「LAWSに関する政府専門家会合(GGE)」が開催されている。これまでの議論の一つの総括として出された2019年のGGEの報告書では、「指導原則(the guiding principles)」として、自律型兵器の開発・使用にも国際人道法が完全に適用されること、文民に対するリスクが十分に考慮されるべきこと、開発や使用に関する答責性(accountability)が保証されなければいけないということなどが明記されている。それと同時に「自律的技術の研究開発が、兵器システムに利用できるという理由だけから制限されるべきではない」ということも主張されている。


なお日本は完全自律型の致死的兵器システムの開発は行わない方針を表明しているが、その一方で「人間による有意味な制御」を伴う自律型兵器については「ヒューマンエラーの減少や、省力化・省人化といった安全保障上の意義がある」としている。そのため致死性のない、あるいは人間による有意味な制御を前提とする自律的兵器システムの研究開発については、規制されるべきではないとの立場を採っている。


LAWSに関しては人道上・倫理上の問題点が指摘され、国際的な議論が10年以上続けられてきた。しかし現在に至るまでこれを包括的に規制する国際的な法制度は成立していない。一方で米国、ロシア、中国、イスラエルなどの国々は関連する技術の開発を進めており、近年ウクライナやガザ、イランなどでLAWSに近い自律性の高い兵器が使われたという逸話的な報道も伝えられている。


超知能と人類存亡のリスク

上述したFLIによる自律型兵器の開発禁止を呼びかける公開書簡には、スチュアート・ラッセル、エリック・ホーヴィッツ、デミス・ハサビス、ジェフリー・ヒントン、ヤン・ルカンといった錚々たるAI研究者のほか、イーロン・マスク、ジャン・タリン、スティーブ・ウォズニアック、ジャック・ドーシーなど巨大テック企業の経営者、さらにはマックス・テグマーク、ノーム・チョムスキー、ダニエル・C・デネット、スティーヴン・ホーキングといった多様な分野の著名な学者が名を連ねていた。


彼らの一部は、いずれAIが賢くなりすぎ、人間によって制御できなくなる可能性を予見し、そしてこのようなAIは人類存亡に関わるほどのリスク(existential risk)となり得るとして、警鐘を鳴らしてきた。


彼らがLAWSに反対するのは、人間の制御を振り切った超知能が、人間を殺傷する物理的能力を手にするという最悪のシナリオを想定しているからでもある。そしてこれはアンソロピックのCEO、ダリオ・アモデイが強調してきた懸念とも重なっている。


アンソロピックの安全性志向の姿勢

アンソロピックは2021年に、OpenAIのメンバーだったダリオ・アモデイらによって設立された。アンソロピックとOpenAIはどちらもLLM(大規模言語モデル)をベースにした強力なAIモデルの開発を進めている企業であるが、両者には企業としての姿勢に明確な違いがある。


それは、アンソロピックがAIの性能を向上させることと並んで、安全性の確保を非常に重視しているという点である。アモデイらがOpenAIから袂を分かった背景には、こうした安全性への強い志向がある。 


そのようなアンソロピックの姿勢を象徴するものとして「憲法的AI(Constitutional AI)」がある。これは、AIモデルの振る舞いを人間の価値や倫理と整合させる、すなわち「AIアラインメント」を実現するための手法である。


従来は、AIの出力に対して人間が善し悪しを判定し、そのフィードバックをもとに学習させる方法(Reinforcement Learning from Human Feedback, RLHF)が主流だった。これに対して憲法的AIでは、世界人権宣言のような普遍的で一般的な価値や倫理を明示的に与え、その原則に照らしてAI自身が自らの出力を評価・修正する。そして、その自己評価の結果を用いて強化学習を行うこと(Reinforcement Learning from AI Feedback, RLAIF)で、AIの振る舞いを人間社会の価値観と整合させていくのである。


この手法の大きなメリットは、人間の手作業に頼る場合と比べて、はるかに大量のフィードバックを継続的に与えられる点にある。加えて、人間であれば個人の主観や時々の気分や体調などに起因する判断のばらつきがあるが、AIならばそのようなばらつきが少なく、より一貫した評価基準を保つことができる。


最新モデルMythosの異例の運用

安全性を重視するアンソロピックの姿勢は、また、Claudeの最新モデル「Mythos」(ミトス)に関する同社の慎重な運用においても顕著に表れている。


アンソロピックによればMythosはそれ以前のモデルよりも格段に強力で、例えばこれまで発見されていなかったOSの脆弱性を大量に発見し、その脆弱性を利用する攻撃手段も生成することができたという。


これが悪意ある人間の手に渡れば社会にとって重大な脅威になりかねない。そう考えたアンソロピックは、当面の間、Mythosを一般に公開することを控え、サイバーセキュリティやデジタルインフラを担う一部の機関・企業にのみ提供することを決定した。


先進テック企業が技術的優位をめぐってしのぎを削る中では、ともすれば強力な機能の追求が優先され、安全性や倫理性、公益といった観点が後回しにされがちである。そのような状況にあって、アンソロピックの慎重な態度は際立っている(注)。


(注)2026年4月20日配信の共同通信の記事6によれば、国防総省傘下の機関である国家安全保障局(NSA)がClaude の最新モデルのMythosを使用していると報じられている。なおNSAは2013年、NSAおよびCIAの元局員であったエドワード・スノーデンの内部告発によって、過去に米国市民を含む大規模な通信監視を行っていたことが明らかにされた機関でもある。


なぜアンソロピックは国防総省に対して譲らなかったのか

以上に述べてきたことから、アンソロピックが国防総省からの要求を受け入れられなかった理由は明らかである。アンソロピックの人々はAIがどれほど強力になりうるか、その潜在的な危険性を誰よりも身近に、切実に感じていた。


また彼らは安全性や公益を長期的かつ人類規模の広い視点で考え、そしてAIモデルを制御する安全策をモデルの内部に講じなければならないと考えていた。そのため、相手が国防総省であれ米国政府であれ、安全策を解除した上での使用は容認できるものではなかった。


一方で米国政府、国防総省から見れば、法規制によって求められる以上の機能的制約を課すことは合理性に欠けるように映り、そうした制約はAIの軍事利用に躊躇がない他国との競争において、米国の軍事的優位を損ないかねない判断だと受け止められた。そしてこの認識が国防長官や大統領がアンソロピックに対して見せた強硬な態度に表れていたのである。


安全な世界のために

アンソロピックと米国政府の間の対立は、単なる一企業の問題ではなく、今後のAIの発展とガバナンスの在り方を考える重要な契機である。


現時点では将来的なAIの脅威も、国際情勢の行方も不確実である以上、この対立に明確な正解は存在しない。ただし一つ言えることは、いずれの国の政府も、戦争を起こさないための努力、そして軍拡競争に陥らないための努力を最大限に払う責務を負っているという点である。その点、米国がその責務を十分に果たしているとはいいがたい。


ひょっとすると、強力なAIに関しては、個別の企業や国家による自主的な統制に委ねるのではなく、原子力と同様に、国際的な枠組みのもとで統制されるべき段階に差しかかっているのかもしれない。


アンソロピックをはじめとする先進AI企業と、AIで世界をリードする米国政府が協調し、AIの平和的な利用と統制に向けて歩みを進めていくことを願いたい。


<執筆者略歴>
久木田 水生(くきた・みなお)
名古屋大学大学院情報学研究科准教授
1973年生まれ。
京都大学大学院文学研究科博士後期課程修了。博士(文学)。
専門は言語哲学、技術哲学、技術倫理、人文情報学(デジタル・ヒューマニティーズ)。
主な著書は、『麦とTwitter――情報技術がもたらすコミュニケーションの変容』(共立出版、2026年)、『AI・ロボットからの倫理学入門』(共著、名古屋大学出版会、2025年)。


【調査情報デジタル】
1958年創刊のTBSの情報誌「調査情報」を引き継いだデジタル版のWebマガジン(TBSメディア総研発行)。テレビ、メディア等に関する多彩な論考と情報を掲載。原則、毎週土曜日午前中に2本程度の記事を公開・配信している。


55歳母親を暴行死させた37歳男は“ヤングケアラー”だった 10歳から家事に追われた男と母親の「狂気の関係」
歯ブラシには細菌がいっぱい!使い方次第では“便器ブラシ”状態に… 細菌の増殖やインフル感染リスクも高めるNG行為とは
満員電車 “クレカ持っているだけ”でデータ盗まれる?不正被害額が過去最多 手元にあっても盗まれる手口と対策【Nスタ解説】


情報提供元:TBS NEWS DIG Powered by JNN

ページの先頭へ