表示調整
閉じる
挿絵表示切替ボタン
▼配色
▼行間
▼文字サイズ
▼メニューバー
×閉じる

ブックマークに追加しました

設定
設定を保存しました
エラーが発生しました
※文字以内
ブックマークを解除しました。

エラーが発生しました。

エラーの原因がわからない場合はヘルプセンターをご確認ください。

ブックマーク機能を使うにはログインしてください。

AI兵器は『人が殺す重み』を奪うのか

作者: @ヤマト
掲載日:2026/03/08

アメリカは対イラン軍事作戦において、AIの活用を急速に進めているようです。

報道を見る限り、現時点では情報分析や目標選定支援、

作戦計画の高速化が中心ですが、将来的にはAIを搭載し、

より自律的に攻撃可能なドローンの開発も現実味を帯びています。


現状、ウクライナ戦争などで運用されているドローンの大きな問題点の一つは、

遠隔操作型である以上、ジャミングを受ければ運用が大きく制限されることです。

その対策として、戦場では光ファイバーを用いた有線式ドローンまで登場しており、

無線妨害を回避するための工夫が急速に進んでいます。


もしAIによる自律性がさらに進めば、

ドローンは人間からの継続的な指令や通信に頼らず行動できるようになるかもしれません。

しかし、そこで生じる最大の問題は、AIが人を殺すことを、どこまで人間が許容するのかという点です。


戦争とは、人を殺し、人が殺される営みです。

だからこそ本来、その決定と責任は人間自身が背負ってきました。


それは核抑止や安全保障条約のような制度とは別に、

戦争を無制限にしないための倫理的なブレーキでもあったはずです。


私がAI搭載兵器に恐れているのは、「人が殺す重み」が薄れることです。

これは単なる感情論ではありません。

ICRC(赤十字国際委員会)や国際社会では、自律兵器が命の判断を数理処理へ押し込み、

責任の所在を曖昧にし、「意味のある人間の統制」を損なう危険が繰り返し指摘されています。


そもそも、AIはどうやって敵味方を識別するのでしょうか。

映像認識による視認なのか、位置情報なのか、IFFのような敵味方識別装置なのか。

いずれにしても、戦場では偽装、故障、妨害、通信断が日常的に起こります。

完全な識別など、現実には極めて難しいはずです。


その結果、敵だけでなく民間人に被害が及ぶ可能性も十分にあります。

そして、民間人と戦闘員を適切に区別できない攻撃や、

過大な付随的被害をもたらす攻撃は、国際人道法上の重大な問題となります。


さらに恐ろしいのは、仮にそのドローンが味方を誤って殺してしまった場合です。

その責任は誰が負うのでしょうか。

現場の指揮官なのか、運用者なのか、設計者なのか、メーカーなのか、それとも国家そのものなのか。

法整備が追いつかなければ、責任は分散し、たらい回しにされるでしょう。


残された遺族は、何を憎み、何に対して悲しめばよいのか。

人ではなく、アルゴリズムか。

バグか。

それとも「システム」か。


本来、人の命を奪うという行為は、誰かがその重みを背負わなければならないはずです。


しかしAI兵器が進めば進むほど、その重みは機械の内部に押し込められ、

人間の責任だけが曖昧になっていく。


法整備で責任の所在が曖昧なままなら近い将来AIドローンを使った

暗殺なども行われるのではないかと思っています。


私はそこに、下手なSFよりも恐ろしい現実を感じます。

































評価をするにはログインしてください。
ブックマークに追加
ブックマーク機能を使うにはログインしてください。
― 新着の感想 ―
感想はまだ書かれていません。
感想一覧
+注意+

特に記載なき場合、掲載されている作品はすべてフィクションであり実在の人物・団体等とは一切関係ありません。
特に記載なき場合、掲載されている作品の著作権は作者にあります(一部作品除く)。
作者以外の方による作品の引用を超える無断転載は禁止しており、行った場合、著作権法の違反となります。

↑ページトップへ