AI攻撃ドローンが突きつける倫理的課題 

2024/10/19
更新: 2024/10/19

アメリカはいつになったら人間の兵士と並んで致死的な自律型ロボットを配備するのだろうか? 正確な時期は不明だが、この現実は私たちが考えているよりも近いのかもしれない。

技術の進展により実現の可能性が高まっている一方で、人間が致死的な意思決定から排除されることへの倫理的な課題も浮上している。

戦場を変革するドローン技術

2022年のロシア・ウクライナ戦争が勃発して以来、小型ドローンが戦争のあり方を変えている。ウクライナでは、ロシアの航空機を迎撃したり、焼夷弾で樹木を燃やすなど、ドローンを積極的に活用している。また、自動小銃やグレネードランチャー(擲弾発射器・てきだんはっしゃき)を搭載したドローンの運用実験も行われている。これにより、小型爆弾の投下だけでなく、地雷の設置や物資の輸送など、戦場でのドローンの役割が広がっている。戦場は「ドローン戦」へと変化している。

人工知能(AI)技術の進化により、最新の攻撃型および偵察用ドローンは、ほとんど人の手を介さずに複雑な任務を遂行できるようになっている。

自律型ドローン「Bolt」シリーズの発表

アメリカ防衛技術企業アンドゥリル・インダストリーズは、10月10日に垂直離着陸(VTOL)型の自律航空機「Bolt」シリーズを発表した。このドローンは、複雑な戦場任務に対応できる設計である。

基本構成の「Bolt」は情報収集・監視・偵察(ISR)および捜索救助任務に特化した。「Bolt-M」は Bolt の弾薬バリエーションであり、自律的に目標を追跡・攻撃することが可能で、オペレーターは監視、追跡、攻撃の指示を簡単に行えるよう設計されている。

操作性と迅速な展開

従来、操縦者がドローンに搭載されたカメラの映像をリアルタイムで見ながら操作するFPVドローンの操作には専門的な訓練が必要だった。仮想現実(VR)ヘッドセットや特殊な没入型のVRゴーグルの装着など、多くの運用上の制限に直面している。しかし、「Bolt-M」はAIを活用することで、複雑な訓練を不要とし、戦闘での使用を容易にしている。

また、「Bolt-M」は迅速な展開を目的に設計され、携行性を重視している。自律的な航路設定、追跡、攻撃といった機能を備え、40分以上の飛行時間や約12マイル(約19キロ)の制御範囲で、効果的に地上戦を支援する。また弾薬3ポンド(約1360.8グラム)までを搭載可能で、軽車両や歩兵、塹壕への攻撃を行うことができる。

人間の介入と自律性のバランス

アンドゥリル社は、アメリカ海兵隊システム司令部の「有機精密火灯(OPF-L)」プログラムの下で自律型攻撃ドローンの開発契約を結んでいる。技術の核心は、アンドゥリル社のAIプラットフォーム「Lattice」を活用した技術にある。オペレーターは戦場画面でエリアを指定し、ルールを設定するだけでドローンが自律的に任務を遂行する。

Lattice」は、多様なセンサーやデータベースからの情報を統合し、人間が操作する部分を残しながら自律的な動作を可能にする。

AIが目標を特定した場合、オペレーターがエリアを指定すると、目標が視界外にあっても、移動中であっても追跡・照準を合わせることができる。内蔵された視覚と誘導アルゴリズムにより、オペレーターとの通信が途切れても、的確に攻撃を続けられる。

「Bolt-M」は、戦場での状況把握を支援し、指示された目標の追跡や監視、攻撃を行う。たとえば、カモフラージュされた戦車がコンピュータに認識されない場合でも、システムがその情報をオペレーターに伝え、適切な判断を促す。特に注目すべきは、これらの致死的なドローンが、オペレーターとの通信が途切れても、事前に指示された任務を自律的に完了できる点である。

こうした自律攻撃能力は、ロボット兵器が致命的な意思決定に必ず人間を介入させるべきだとする国防総省のAI原則の限界を押し広げるものである。アメリカ国防総省はAI兵器の運用に関し、「適切な人間の判断」が必要であるとの倫理基準を守る方針だ。昨年には基準の見直しを行い、状況に応じて柔軟に調整できるようにした。新しい方針では、自律型システムの安全で倫理的な運用が求められているが、それでも人間による厳重な監視は不可欠である。

ドローン技術が戦場で効果を発揮する中、自律型攻撃ドローンへの需要は高まっている。アンドゥリル社などの企業にとって、技術的な課題はほぼ解決済みであり、今後はこうした致死性のある兵器の自律運用と倫理的制約のバランスが課題となる。業界各社は、政府の方針や交戦ルール、規制、ユーザーの要望を踏まえながら、システムをできるだけ強力にしようとしている。

ウクライナの戦場から得られる重要な教訓の一つは、状況は急速に変化するということだ。同盟国であれ敵国であれ、国によって自律型致死兵器の開発と使用に関する倫理基準は異なる可能性がある。これは戦場で何が起こるかに大きく左右される。

統一された合意がないという問題は深刻である。国防総省は、AIの倫理や致死的な力に対して人間が介入する必要性を強調しているが、敵対勢力が同じ制約を受け入れるとは限らない。この状況は、国防総省にとってかつてないリスクをもたらしている。アメリカ軍や政府、産業界がAIや自律技術、機械学習の運用や兵器開発の最適化に力を入れる理由の一つでもある。

最近、アメリカ陸軍は「100日間」AIリスク評価プログラムを開始し、AIシステムを倫理的な枠内で強化・改善を進めている。こうした取り組みは、人間と機械の連携が重要であることを強調している。

国防総省は致死的な力を行使する際に「人間の介入」を求める原則を堅持しているが、アメリカ軍の技術開発者も、高度なAI技術が道徳や直感、意識、感情といった人間特有の特性を再現できないことを認識している。

これらの特性は意思決定の一部に過ぎないが、戦闘中には極めて重要な役割を果たす。純粋な技術だけでは、倫理的なリスクを伴う可能性があり、戦場での複雑な状況に対処するためには限界があるかもしれない。

この記事で述べられている見解は著者の意見であり、必ずしも大紀元の見解を反映するものではありません。
カナダを拠点とする記者。アジア太平洋ニュース、中国のビジネスと経済、米中関係を専門としている。