AIの軍事利用は「核革命に匹敵」、世界の安全保障に高リスク 中共は開発に躍起

2024/10/29
更新: 2024/10/29

2024年8月14日に掲載した記事を再掲載

人工知能(AI)を搭載した最先端兵器が、特に中国共産党(中共)の手中にある場合、世界的な安全保障上の危険として浮上していると、エポックタイムズの取材に応じた複数の専門家が語っている。

中共は米国を軍事的に追随しようと躍起になっており、AI技術に関連するセーフガードに耳を傾ける可能性は低いと専門家は指摘している。

米国の安全保障政策センター(CSP)の上級研究員で、対中戦略の専門家であり、エポックタイムズの寄稿者でもあるブラッドレイ・セイヤー氏は、今後のAIの軍事利用について「革命に匹敵するかもしれない」との見方を示した。

殺人ロボット、避けられないAIの軍事利用

AI開発者であり、AIマーケティング会社「Movable Ink」の共同設立者であるアレクサンダー・デ・リッダー氏によると、AI搭載の自律型兵器の開発は急速に進んでいるという。

デ・リッダー氏は、「まだ人間に取って代わる段階には至っていない」とエポックタイムズに語りつつも、「ロボットは急速に有効的、効率化している」と述べた。

自律型ドローンや戦車、艦船、潜水艦が現実のものとなり、中共軍は機関銃を装備した犬型のロボットなども所有している。

SFホラーに出てくるような、AI搭載のヒューマノイドロボット(人型ロボット)も生産されている。現在、そのような兵器は実戦投入されていないが、将来は戦場に現れるとデ・リッダー氏は語る。

デ・リッダー氏によると、こうしたロボットが市場価値のある有用性と信頼性を獲得すれば、中共は大量生産に向けて動き出す可能性が高いという。

「市場にはヒューマノイドロボットが溢れるだろうが、それがどのように使われるかはプログラミング次第だ」「軍事利用は避けられない問題だ」と語った。

GITリサーチ・インスティテュートの創設者でファイルメーカーの元CTO、ジェームズ・チウ氏によれば、こうしたAI搭載ロボットは光学センサーを使って人間を含む物体を識別するのが非常に得意であり、ロボットは殺人マシンになる可能性があると危惧している。

5月16日、カンボジア・コンポンチュナン州の軍事基地で行われた合同訓練で、ドローンと機関銃を搭載したロボット犬を視察するカンボジア軍の将校(Tang Chhin Sothytang Chhin Sothy/AFP via Getty Images)

AI将軍の登場か

世界的に見れば、複数の国家が戦場での意思決定を通知し調整する能力を持つAIシステムの開発に取り組んでいる。多国籍フォーチュン500企業(一企業が数千社を超える年間収益を記録して世界のトップ 500の企業に名を連ねるということ)のデータリサーチリーダーであるジェイソン・マー氏は、このようなAIは本質的には電子将軍の役割を果たすと述べている。

中共軍は最近、AIが直接指揮を執る軍事訓練を実施しており、米軍もこの分野での研究を進めているとマー氏は語った。

「このことは非常に注目されている研究開発テーマだ」「研究の必要性は明らかだ」と述べた。

戦場での意思決定は、歴史的背景や過去の情報から、ほぼリアルタイムの衛星データ、戦場に投入されたあらゆるカメラやマイク、センサーからのミリ秒単位の入力まで、膨大な量のデータに基づいている。人間がこれほど多種多様な膨大なデータを処理するのは「非常に困難」だとマー氏は語った。

「戦争が複雑化するほど、数秒以内あるいは1秒未満で、いかに素早くこのすべての情報を統合し、ダイジェストし、適切な判断を下すかが重要になる」と語った。

世界情勢をより不安定化

AI兵器はすでに戦争の形態に変革をもたらしつつあるが、エポックタイムズに対し専門家らは、AI兵器の波紋はもっと広範囲に及ぶだろうと述べている。テクノロジーは世界をより一段と不安定な段階に推し進めているとセイヤー氏は語った。

セイヤー氏によれば、AIが搭載された兵器の標的設定によって、大陸間弾道ミサイル(ICBM)の撃墜、潜水艦の探知と破壊、長距離打撃爆撃機の撃墜が非常に容易になる可能性が高い。これによりアメリカの「核の3本柱(トライアド)」が無力化され、敵国が無傷で「核兵器のレベルを超えて」攻撃できるようになる可能性がある。

「冷戦時代には、核保有国同士の通常戦争は不可能だという共通認識があった。AIは核保有国間の通常戦争の可能性をもたらすため、以前の共通認識を揺り動かしている」とセイヤー氏は語った。

2006年11月2日、イラン革命防衛隊は、コム市郊外の砂漠地帯で行われた軍事演習の第一段階で、ミサイル実験を実施した(-/Fars News/AFP via Getty Images)

「AIは戦場に大きな影響を与えているが、まだ決定的な要素ではない」としつつも、AIの能力が「核を使用せずとも、核戦争と同等の破壊力」に達した場合、世界は危険に晒されることになるだろうと述べた。

懸念されるのは殺人ロボットやドローンだけではない。電力網や給水網などの重要インフラの脆弱性を特定するなど、従来とは異なる様々なAI兵器が開発される可能性がある。

AI自体は単なるソフトウェアに過ぎないことを考えると、こうした技術の普及を抑制するのは困難である。最も大きなものでも通常のハードドライブに収まり、小規模なサーバーファームで実行できる。殺人ドローンなど、殺傷能力が増すAI兵器は、容易に出荷・輸出できる。

「AI兵器の『垂直拡散(核保有国が核増強)』と『水平拡散(非核兵器国が新たに核保有)』のリスクは双方とも非常に高い」とセイヤー氏は語った。

中共は、米軍を「非対称紛争(軍事力や戦略が大きく異なる両交戦者間の戦争)」に縛り付けるために、テロリスト集団に自律型兵器を供給することができる。中共政権は部品を供給し、代理人にドローンを組み立てさせることさえもできる。これは、中国の供給業者がメキシコの麻薬カルテルにフェンタニルの前駆物質を提供し、麻薬の製造、出荷、販売を任せているのとよく似ている。

中共はイランの兵器計画を支援してきた長い歴史があり、一方でイランは地域のテロリスト集団に武器を供給している。

「ヒューマン・イン・ザ・ループ」が瓦解

少なくともアメリカなどの間で考えられているAI兵器が大混乱を引き起こすことを防ぐ最も重要な予防策は、重要な決定、特に殺傷力の高い兵器を人間が管理し続けることだ。

「いかなる状況においても、機械が自律的かつ独立的に人間の命を奪うことは決して許されるべきではない」とデ・リッ​​ダー氏は語った。

そのため、人工知能などで自律化されているシステムにおいて人間の判断を介在させる「ヒューマン・イン・ザ・ループ」が必要だとされている。

2022年8月2日、ウクライナのキーウで試験飛行中のポーランドの偵察用ドローンを発射する軍関係者(Sergei Supinsky/AFP via Getty Images)

しかし、一部の専門家は、AIの能力によって戦闘の性質が変わったことで、この原則はすでに崩れつつあると指摘している。

例えばロシアーウクライナ戦争では、ウクライナ軍は通信がロシア軍によって妨害されていたため、ドローンにある程度の自律性を持たせる必要があった。

ドローンに搭載されたコンピューターの能力が限られているため、こうしたドローンは実行能力が単純であるとマー氏は述べた。しかし、AIモデルとコンピューターはともに高速化と効率化が進んでいるため、状況はすぐに変わるかもしれない。

アップルはすでにスマホに実装するAIの開発に取り組んでいる。「将来的には小型チップに搭載できる可能性が高い」とマー氏は語った。

さらに、数百あるいは数千のドローンが同時に投入される大規模な紛争では、ドローンが計算能力を共有して、極めて複雑なタスクを実行することができる。「これはもはやSFの世界ではなく、時間を割いてこれに取り組みたい人々のグループが存在するか否かという問題だ。これは現実の技術なのだ」

米海軍情報局に勤務していいた、中国専門家のジェームズ・ファンネル氏によると、自律型システムにおける人間の判断および制御を介在させることを排除することはケースによってあり得るという。

ファンネル氏は、アメリカのミサイル巡洋艦や駆逐艦に配備されているイージス戦闘システムを例に挙げ、同システムは空中の標的を自動的に探知・追跡し、ミサイルを発射して撃墜する。通常、ミサイル発射は人間のオペレーターが操作するが、標的が多すぎてオペレーターが追跡できない場合などのときには、自動モードに切り替えることもできる。切り替えた後、同システムが自動的に標的を識別し、破壊する。

AIが何千ものドローンを指揮して共同で攻撃する際には、人間が各AIに攻撃命令を出すよりも、AIに自律性を与えて自動的に攻撃をさせる方が速度面で大きな優位性を獲得する。

「すべての決定をそれほど迅速に下すことはできないため、人々はコントロールを放棄しなければならない」とマー氏は語った。

デ・リッダー氏は、ドローンが単独で別のドローンを撃つことはモラル的に許容できると指摘した。しかし、そうすると、人間もいるかもしれない戦場で自律的に大量射撃が起こり、計り知れないほどの巻き添え死傷者が出る可能性が出てくる。

昨年5月25日、韓国北部・抱川の勝進(スンジン)訓練場で行われた米韓合同軍事訓練で、編隊を組んで飛行する韓国軍のドローン(Yelim Lee/AFP via Getty Images)

「守るべき一線を中共が堅持するとは思えない」

どのようなAI安全対策が実行可能であっても、中共がそれに従う可能性は低いと多数の専門家が述べている。

「守るべき一線を中共が堅持するとは思えない」とマー氏は言う。「彼らは可能なことは何でもやるだろう」

「中共が自らその使用を抑制するとは思えない」とファンネル氏は言う。「中共はそれを利用し、我々よりも早くそれを利用しようとするだろう」

AIが状況によっては自ら発砲を始める可能性があることを認めれば、「ヒューマン・イン・ザ・ループ」の原理は堅固ではなくなるとファンネル氏は述べた。

「これはこのような技術の自然な進化であり、それを止めるために何ができるのか私には分からない。戦争においては近代ボクシングのルールを定めた『クイーンズベリー・ルール』のような倫理規定があるわけではない」

デ・リッダー氏は、人間の能力をはるかに超える超知能 AI に関する予測には懐疑的だった。しかし、AIがいくつかの点、特にスピードにおいて人間を超えていると述べた。AI は膨大なデータを処理して、ほぼ瞬時に結論を下すことができる。

マー氏とチウ氏によると、AIがどのようにして結論を​​導き出すのかを正確に把握するのは事実上不可能だという。

デ・リッダー氏は、自分と他の研究者らは、AIの推論の個々のステップがより識別しやすいように、AIを人間のようなワークフローに制限する方法に取り組んでいると述べた。

しかし、「人間のオペレーターが、これがAIがテラバイト単位のデータを処理した後に下された決定であることをはっきりと知っていれば、ほとんどの場合、それを覆す勇気はないだろう。だから、確かにそれは形式的なものになるだろう」とマー氏は語った。

2022年6月16日、バルト海上空でフランス海軍アトランティック2哨戒機で作業するオペレーター(Fred Tanneau/AFP via Getty Images)

世論の圧力

専門家は、少なくともアメリカでは、世論の圧力によりAI兵器の開発と使用が制限される可能性が高いという。

マー氏は、グーグルが従業員の反対を押し切って防衛関連の契約を打ち切った例を挙げた。しかし、中国では同様の情況が起こるとは考えられない。

チウ氏も「中国国内にあるものすべては、中共が活用できる資源だ」との見方を示した。「『これは民間企業だ』とは言えない。中国には、厳密に言えば民間企業は存在しない」と述べた。

しかし、中国においてAIの軍事利用を差し迫った問題とみなしている兆候はない。それどころか、中国の企業や大学は軍事契約を獲得することに熱心であるようだとマー氏は語った。

そのため、デ・リッダー氏は国際的な規制枠組みを制定するよう訴えている。

軍事開発のいかなる制限も拒否してきた中共に対して、このような規制をどのように施行できるのかは明らかではない。アメリカは長い間、核軍縮の交渉に中共を引き入れようとしてきたが、徒労に終わっている。最近、中共は核攻撃の判断にAIを使用しないというアメリカの保証要請を拒否した。

複数の専門家は、アメリカが自国のAI開発を規制すれば、戦略的な脆弱性が生じる可能性があると指摘した。

「これらの規制は中共によって徹底的に研究され、攻撃手段として利用されるだろう」とチウ氏は語った。

セイヤー氏によると、たとえ何らかの合意が成立したとしても、中共は約束を守る実績が乏しいという。「いかなる合意も破られるために作られたパイ皮のようなものだ」と語った。

3月11日、北京の人民大会堂で開かれた第14期全国人民代表大会(全人代)の閉幕式に到着した中共軍の代表団(Wang Zhao/AFP via Getty Images)

AI軍拡競争の解決策は?

デ・リッダー氏は、各国がAIの行き過ぎた軍事利用を控えるよう期待していると述べた。

「殺人ドローンの群衆を互いに派遣し合うことなしに、AIを使用して目的を達成する方法はあまたある」「いざというとき、誰もこうした衝突が起きることを望んでいない」

しかし、中共は勝利への明確な道筋が見えている限り、そのような紛争を厭うことはないだろうと専門家は見ている。

ファンネル氏は「中共の高官は我々のルールに縛られることはない」「彼らは勝利のためなら手段を選ばないだろう」と言う。

膨大なデータを処理し、説得力のある戦闘計画を作成できるAI軍事顧問のささやきに頼ることは、以前は勝利のビジョンが見えなかったところに勝利のビジョンを作り出す可能性がある。

「それが意思決定者、特に中共のような極めて攻撃的な意思決定者にとって非常に魅力的であることがわかるだろう」とセイヤー氏は語った。

そこで、国防省ネット・アセスメント局に勤務していたチャック・デ・カロ氏は最近、アメリカがコンピューターチップを無効化できる電磁兵器を開発するよう呼びかけた。特定の種類のチップを無効化できるエネルギー兵器の開発が可能であるかもれないと述べている。

その上で、「明らかに、機能するチップがなければAIは機能しない」とデ・カロ氏は書いている。

昨年7月19日、中国・南京市で開催された世界半導体会議(WSC)で展示された同福微電子のAIチップ(STR/AFP via Getty Images)

もう一つの解決策としては、AI超兵器を開発することが挙げられる。

「AI版の相互破壊確証を築くことだ」とファンネル氏は語った。

そうなれば、世界は冷戦のような対立状態に陥る可能性がある。決して理想的な状態とは言えないが、中共に軍事的優位性を譲るよりは良いと考えられるだろう。

「どの国も危険だと分かっているが、取り残されるのを恐れて誰も止めることができない」とマー氏は語った。

デ・リッダー氏は、「自律型の殺人AI兵器の使用を禁止するには、人類に甚大な悲劇をもたらす世界大戦のようなものが必要になるかもしれない」との考えを示した。

Petr Svab
ニューヨーク担当記者。以前は政治、経済、教育、法執行機関など国内のトピックを担当。