軍事AIビジネスの台頭と「トリプル・ブラックボックス」の懸念:国防とテクノロジーの融合と課題

はじめに
米国ニューヨーク大学ロースクールに拠点を置く超党派の法と政策の研究所であるブレナン司法センター(The Brennan Center for Justice)は、2026年3月に研究報告書「The Business of Military AI」を発表した。同報告書は、米国防総省(2025年9月より対外的に米戦争省)が急速に推進するAI(人工知能)の軍事導入の実態、それに伴う特定テクノロジー企業への過度な依存、そして規制の空洞化がもたらす致命的なリスクについて詳述している。国防総省の調達プロセスは、国家安全保障、AIアルゴリズムの不透明性、企業の商業機密が重なった「トリプル・ブラックボックス」の状態に陥っており、民主的な監視や説明責任が困難になっていると報告書は指摘している。2026会計年度の米国の国防予算が1兆ドルという前例のない規模に達する中、国防総省は「戦時体制」を敷き、AI導入を急加速させている。本記事では、軍事AI市場の構造、政界への影響力拡大、調達プロセスの課題、そして実戦における危険性と将来に向けた提言を分析する。
”The Business of Military AI”
著者: Amos Toh, Emile Ayoub
公開日: March 11, 2026
URL: https://www.brennancenter.org/our-work/research-reports/business-military-ai
膨張する軍事AI予算と特定企業へのシェア集中
国防総省のAI投資は、主に「監視・分析・標的選定」および「自律型兵器」の分野に集中していると分析されている。
第一の投資分野である監視・分析領域において、その中核を担うのがProject Maven(メイブン・プロジェクト:ドローンや衛星の映像などの膨大なデータを解析し、標的を特定するAI開発プログラム)である。2017年に発足した同プロジェクトは、現在では長期的な予算が確保される正式なプログラムに昇格し、その機能を統合したMSS(Maven Smart System / メイブン・スマート・システム:軍のデータソースを一元化し、処理・分析するAIツール群)への支出は2029年までに約13億ドルに達する計画であると報告書は指摘している。このシステムは、CJADC2(Combined Joint All-Domain Command and Control / 統合全領域指揮統制:軍事や商業のデータを統合し、戦場の全体像をリアルタイムで構築するアプローチ)の基盤となっている。
第二の投資分野である自律型兵器領域では、Replicator(レプリケーター計画:安価で使い捨て可能な無人機群を大量生産する計画)や、Collaborative Combat Aircraft(自律型戦闘機:有人機と連携して任務を遂行するAI搭載無人機の開発プログラム)に莫大な資金が投じられており、後者には2025年から2029年にかけて89億ドルが支出されると予測されている。
こうした投資の恩恵を最も受けているのが、Palantir Technologies(パランティア・テクノロジーズ)とAnduril Industries(アンドゥリル・インダストリーズ)の2社であると報告書は分析している。2016年から2025年にかけての主要防衛請負業者の年間収益成長率の中央値を見ると、アンドゥリルは143%増、パランティアは54%増という突出した数値を記録し、他社を圧倒している。特にパランティアは、2025年に米陸軍の75の契約を最大100億ドル規模の単一契約に統合するなど、軍需市場における支配的な地位を確立しつつあると指摘されている。
防衛テック企業による政界・軍中枢への影響力拡大
新興の防衛テック企業は、単なる技術提供者の枠を超え、政策形成や軍の意思決定プロセスに深く介入し始めていると報告書は指摘している。
第一の要因として、ロビー活動と政治資金による影響力の行使が分析されている。2025年におけるロビー活動への支出額は、パランティアが440万ドル、アンドゥリルが170万ドルであり、これは2020年と比較してそれぞれ約2倍、約3倍に急増している。さらに、2025年8月には、AI投資家や企業が資金を拠出した「Leading the Future(リーディング・ザ・フューチャー:AI導入の減速を目指す候補者に反対するための特別政治活動委員会)」が設立され、業界の利益を政治に直接反映させる動きが活発化していると報告書は指摘している。
第二の要因として、政府や軍の中枢への直接的な人材輩出(回転扉現象)が挙げられている。第2次ドナルド・トランプ(Donald Trump)政権下において、アンドゥリルの元シニアディレクターであるMichael Obadal(マイケル・オバダル)氏が陸軍次官(Undersecretary of the Army)に就任し、軍の調達戦略を監督する立場に就いた。また、パランティアやOpenAI(オープンAI)などの幹部らが陸軍予備役の中佐として特別な部隊に配属され、AI戦略の助言を行うなど、自社の技術採用を有利に進めかねない利益相反の懸念が浮上していると報告書は分析している。
調達プロセスの規制緩和と「トリプル・ブラックボックス」問題
「他国とのAI開発競争におけるスピード」を大義名分として、国防総省の調達プロセスにおける重要な監視メカニズムが次々と撤廃・形骸化させられている状況が分析されている。報告書は、この監視の空洞化をもたらす要因を以下の3点に整理している。
- 第一の課題は、TINA(Truth in Negotiations Act / 真実の交渉法:適切な価格競争がない場合に、請負業者に正確かつ完全なコストおよび価格データの提出を義務付ける法律)の形骸化である。議会は、データ提出が義務付けられる契約の閾値を1962年当時の10万ドルから、2025年には1,000万ドルへと大幅に引き上げた。これにより、契約を意図的に分割して価格開示を免れる手法が横行し、法外な価格設定による税金の浪費を招いていると指摘されている。
- 第二の課題は、Commercial Items Exemption(商用品免除:一般消費者向け製品と同様の扱いと見なすことで、企業側の価格開示を免除する制度)の乱用である。パランティアのMSSソフトウェアライセンスや、アンドゥリルの軍事用自律型無人機など、高度にカスタマイズされた軍事専用のAI技術に対してもこの免除が適用されており、政府による適切な価格査定を困難にしていると分析されている。
- 第三の課題は、OT(Other Transactions / その他の取引:新規参入企業との試作を促す目的で、従来の厳しい調達規則を免除する柔軟な契約枠組み)の急増である。政府説明責任局(GAO)のデータによれば、OT契約への支出は2016年の18億ドルから、2024年には180億ドル以上へと膨れ上がっている。この制度は本来スタートアップ企業を支援するためのものだが、実際には大企業が悪用しており、知的財産権が企業側に留保されるため、軍がシステムを独自に監査・維持する能力を削ぐ結果になっていると報告書は指摘している。
これら規制の空白により、軍事AIは「三重のブラックボックス(Triple Black Box:国家安全保障に関わる機密性、AIアルゴリズム自体の技術的不透明性、そして企業の知的財産権による商業的秘匿性が重なり合った状態)」に陥っており、外部からの民主的な監視を極めて困難にしていると分析されている。
運用上の欠陥と実戦における深刻な民間人被害
強力なセーフガード(安全対策)を欠いたままAI導入を急ぐ姿勢は、システムの信頼性を損ない、戦場において兵士や民間人を重大な危険に晒していると報告書は警告している。
第一の要因として、AIシステム特有の精度の限界と、テスト体制の縮小が分析されている。Pete Hegseth(ピート・ヘグセス)国防長官は、DOT&E(Director of Operational Test and Evaluation / 運用テスト・評価長官室:軍の主要な兵器システムの実戦的なテストを監督する機関)のスタッフを半減させ、検証機能を弱体化させた。その一方で、2024年の報道によれば、Project Mavenの標的識別AIは、ほぼ完璧な条件下でも戦車を正確に識別できたのは約60%に過ぎず、降雪時には30%まで精度が低下したという致命的なデータが示されている。
第二の要因として、Automation Bias(自動化バイアス:人間の操作者がAIの出力を客観的で合理的であると錯覚し、過度に依存してしまう傾向)が挙げられている。複雑な紛争環境下ではこのバイアスが増幅され、AIのエラーがそのまま誤爆に直結する危険性が指摘されている。
第三の要因として、ガザ地区などにおける深刻な民間人被害の事例が分析されている。IDF(イスラエル国防軍)は、Lavender(ラベンダー:信頼性の低い代替指標に基づき、武装グループのメンバーである可能性を示すスコアを個人に割り当てるツール)や、Gospel(ゴスペル:電話傍受や位置情報等を分析し標的を特定するシステム)を活用し、37,000件もの標的を特定したと報告書は指摘している。本来は人間の分析官による厳密な検証が義務付けられているが、実際にはAIの推奨を鵜呑みにして攻撃が行われるケースが散見されたと分析されている。結果として、2023年末までにガザにおいて21,000人のパレスチナ人が死亡し、56,000人以上が負傷するという事態を招いた。軍事行動における過度なAI依存は、対象となる個人の命を単なるデータポイントへと還元し、殺傷行為に対する倫理的感覚を麻痺させるDehumanization(非人間化)を引き起こしていると指摘されている。
おわりに(安全性と説明責任に向けた提言)
ブレナン司法センターの報告書は、AI技術の軍事利用におけるイノベーションの必要性を認めつつも、安全性と説明責任を担保するための強力なガードレールの構築が急務であると結んでいる。報告書が掲げる主要な解決策は以下の通りである。
- 第一に、ホワイトハウスに対する提言として、NSM-25(National Security Memorandum 25 / 国家安全保障覚書第25号:国家安全保障分野におけるAIガバナンスとリスク管理の枠組み)の抜け穴を塞ぐことが求められている。現状では「重大な国家安全保障上の理由」を盾にセーフガードの適用免除が無期限に延長できるため、この免除規定を厳格化し、最長1年間の期限付き措置に限定すべきであると提言している。
- 第二に、国防総省に対する提言として、実戦を想定したテスト体制の再構築が求められている。人員削減されたDOT&Eの機能を再び拡充し、評価と公開報告を徹底させること、さらに軍が独自にAIリスクを監視できるよう、契約を通じて商業システムへのデータアクセス権を確保するべきであると指摘している。
- 第三に、議会に対する提言として、法的な安全網の整備と調達の透明性向上が挙げられている。具体的には、AWARE Act(Artificial Intelligence Weapons Accountability and Risk Evaluation Act / AI兵器説明責任およびリスク評価法)のような年次リスク評価を義務付ける法案を制定すること、TINAに基づくデータ提出の義務化基準を75万ドルまで引き下げること、そして防衛企業からの過剰な政治献金による利益相反を防ぐための選挙資金改革(Campaign finance reforms)を導入することが提言されている。
かつてドワイト・アイゼンハワー(Dwight Eisenhower)大統領が退任演説で「軍産複合体(Military-industrial complex)による不当な影響力」に警鐘を鳴らしたように、今日の軍事AIビジネスにおいても、特定企業への権力集中とブラックボックス化に対する民主的な監視体制の確立が不可欠であると、報告書は訴えている。
