AI兵器は『人が殺す重み』を奪うのか
アメリカは対イラン軍事作戦において、AIの活用を急速に進めているようです。
報道を見る限り、現時点では情報分析や目標選定支援、
作戦計画の高速化が中心ですが、将来的にはAIを搭載し、
より自律的に攻撃可能なドローンの開発も現実味を帯びています。
現状、ウクライナ戦争などで運用されているドローンの大きな問題点の一つは、
遠隔操作型である以上、ジャミングを受ければ運用が大きく制限されることです。
その対策として、戦場では光ファイバーを用いた有線式ドローンまで登場しており、
無線妨害を回避するための工夫が急速に進んでいます。
もしAIによる自律性がさらに進めば、
ドローンは人間からの継続的な指令や通信に頼らず行動できるようになるかもしれません。
しかし、そこで生じる最大の問題は、AIが人を殺すことを、どこまで人間が許容するのかという点です。
戦争とは、人を殺し、人が殺される営みです。
だからこそ本来、その決定と責任は人間自身が背負ってきました。
それは核抑止や安全保障条約のような制度とは別に、
戦争を無制限にしないための倫理的なブレーキでもあったはずです。
私がAI搭載兵器に恐れているのは、「人が殺す重み」が薄れることです。
これは単なる感情論ではありません。
ICRC(赤十字国際委員会)や国際社会では、自律兵器が命の判断を数理処理へ押し込み、
責任の所在を曖昧にし、「意味のある人間の統制」を損なう危険が繰り返し指摘されています。
そもそも、AIはどうやって敵味方を識別するのでしょうか。
映像認識による視認なのか、位置情報なのか、IFFのような敵味方識別装置なのか。
いずれにしても、戦場では偽装、故障、妨害、通信断が日常的に起こります。
完全な識別など、現実には極めて難しいはずです。
その結果、敵だけでなく民間人に被害が及ぶ可能性も十分にあります。
そして、民間人と戦闘員を適切に区別できない攻撃や、
過大な付随的被害をもたらす攻撃は、国際人道法上の重大な問題となります。
さらに恐ろしいのは、仮にそのドローンが味方を誤って殺してしまった場合です。
その責任は誰が負うのでしょうか。
現場の指揮官なのか、運用者なのか、設計者なのか、メーカーなのか、それとも国家そのものなのか。
法整備が追いつかなければ、責任は分散し、たらい回しにされるでしょう。
残された遺族は、何を憎み、何に対して悲しめばよいのか。
人ではなく、アルゴリズムか。
バグか。
それとも「システム」か。
本来、人の命を奪うという行為は、誰かがその重みを背負わなければならないはずです。
しかしAI兵器が進めば進むほど、その重みは機械の内部に押し込められ、
人間の責任だけが曖昧になっていく。
法整備で責任の所在が曖昧なままなら近い将来AIドローンを使った
暗殺なども行われるのではないかと思っています。
私はそこに、下手なSFよりも恐ろしい現実を感じます。




