はじめに
本稿では、米国のCBS Newsが2025年10月5日に報じた内容をもとに、アメリカ空軍が進めるAI(人工知能)による自律型戦闘機の開発と、それに伴う技術的・倫理的な問題について解説します。
参考記事
- タイトル: AI in the military: Testing a new kind of air force
- 著者: David Martin
- 発行元: CBS News
- 発行日: 2025年10月5日
- URL: https://www.cbsnews.com/news/ai-in-the-military-testing-a-new-kind-of-air-force/
要点
- アメリカ空軍は、フロリダ州のエグリン空軍基地を拠点に、AIが操縦する無人ドローン「XQ-58」やAI搭載F-16戦闘機を、有人戦闘機と共に運用する試験を進めている。
- この開発の背景には、中国空軍の急速な近代化と戦力拡大への強い危機感がある。シミュレーションでは、現状のままでは米軍が敗北する可能性が示唆されている。
- AIは、人間では処理しきれない大量の戦況データを瞬時に分析し、意思決定できる。また、パイロットを危険に晒すことなく、高リスクな任務を遂行できる点が大きな利点である。
- AI無人機は有人戦闘機に比べてコストが大幅に低く(1機あたり2,000万〜3,000万ドル)、量的な優位性を確保する上でも重要視されている。
- 最大の論点は、AIに「生殺与奪の判断」を委ねるか否かという倫理的な観点である。現時点では、攻撃の最終判断は必ず人間が行う「ヒューマン・イン・ザ・ループ」の原則が堅持されているが、将来的にAIの自律性を高める圧力も存在している。
詳細解説
「トップガンAI」:現実になるAIウィングマン
フロリダ州のエグリン空軍基地では、「トップガンAI」とも呼べる新たな空軍の形が試験されています。ここでは、人間のパイロットがAIによって自律的に飛行する無人ドローン「XQ-58」と編隊を組んで飛行する訓練が行われています。
テストパイロットのトレント・マクマレン少佐によると、AIの操縦は人間のように滑らかではなく、より機敏で急な動きをするため、慣れが必要だといいます。しかし、機内に人間がいないからこそ可能な動きであり、AIは空戦の基本的な動きをすでに学習しています。
この計画は、単にドローンを遠隔操作するのではなく、AIが自ら状況を判断し、有人機の「ウィングマン(僚機)」として機能することを目指すものです。AIを搭載したF-16戦闘機が、熟練パイロットと模擬空戦(ドッグファイト)を行う実験もすでに行われています。
開発を急ぐ戦略的背景:中国の軍事的台頭
なぜアメリカ空軍はこれほどまでにAI戦闘機の開発を急いでいるのでしょうか。その背景には、中国空軍の急速な軍備増強があります。元空軍中将のクリント・ヒノート氏によれば、もし中国と戦闘になった場合、地理的に中国のホームグラウンドで戦うことになり、物量で圧倒的に不利な状況に陥る可能性が高いと指摘します。
同氏によると、そのような状況で米軍が戦いを有利に進めるには、「10対1や20対1といったキルレシオ(撃墜対被撃墜比率)を達成する必要がある」とされています。しかし、現状の戦力でこの数値を達成するのは困難で、ウォーゲーム(軍事シミュレーション)では米軍が敗北する結果が出ているといいます。
この圧倒的な物量の差を埋める切り札として、AI無人機に大きな期待が寄せられているのです。
AIがもたらす空戦の変革
AIは、戦闘において人間をいくつかの側面で上回る能力を発揮します。
1. 高度な情報処理能力:
現代の空戦環境は、レーダーやセンサーから得られる情報が膨大で、一人の人間がすべてを把握し、瞬時に最適な判断を下すことは困難です。AIは、これらの膨大なデータをリアルタイムで処理・分析し、人間が気づかないような脅威を特定したり、最適な攻撃方法を提案したりすることが可能です。
2. コストとリスクの低減:
AIが操縦する無人機「XQ-58」のコストは、1機あたり2,000万〜3,000万ドルとされ、有人戦闘機の約4分の1です。これにより、より多くの機体を配備できます。最も重要なのは、パイロットの命を危険に晒すことなく、敵の防空網が厳重なエリアへの突入など、極めて危険な任務を任せられる点です。
配備計画と倫理的な問い
アメリカ空軍は、2020年代の終わりまでに150機、最終的には最大1,000機のAI操縦航空機を配備する計画を立てています。平時においても、アラスカ沖に飛来するロシアの爆撃機への要撃任務など、様々な活用が考えられています。
しかし、ここで最も重要な倫理的論点が議論されています。それは、AIに兵器の使用、つまり人間の生死に関わる判断を自律的に行わせるかという点です。
空軍戦闘コマンド司令官のエイドリアン・スペイン大将は、この点について「絶対にない」と明確に否定しています。攻撃の引き金を引く最終的な判断は、必ずAIを管理する人間が行うと強調します。その理由として、AIは敵に騙されたり、過剰な情報で混乱したりする可能性があること、また、AIが事実に基づかない情報を生成する「ハルシネーション(幻覚)」を起こす危険性を挙げています。
一方で、元中将のヒノート氏は、将来的に敵対国がAIに自律的な攻撃判断を許した場合、アメリカ軍も対抗上、AIの自律性を高める方向へとプレッシャーを受ける可能性を示唆しています。
現段階では、AIへの信頼を時間をかけて構築していく必要があり、そのためにテスト飛行やシミュレーションが繰り返されています。
まとめ
アメリカ空軍によるAI戦闘機の開発は、単なる技術革新に留まらず、未来の国家安全保障のあり方を大きく左右する戦略的な取り組みです。中国という明確な対抗目標を前に、その開発は加速しています。AIが持つ高度な情報処理能力やリスクを厭わない運用は、空の戦いを一変させる可能性を秘めています。
しかしその一方で、「機械にどこまでの判断を委ねるのか」という根源的な問いは、社会全体で議論されるべき重要な課題です。現時点では「最終判断は人間が行う」という原則が守られているとのことですが、技術の進歩と国際情勢の変化の中で、この原則が将来も維持されるかは不透明です。世界情勢の雲行きが怪しい中、今後の動向に注意が必要となっています。