表示調整
閉じる
挿絵表示切替ボタン
▼配色
▼行間
▼文字サイズ
▼メニューバー
×閉じる

ブックマークに追加しました

設定
0/400
設定を保存しました
エラーが発生しました
※文字以内
ブックマークを解除しました。

エラーが発生しました。

エラーの原因がわからない場合はヘルプセンターをご確認ください。

ブックマーク機能を使うにはログインしてください。
5/5

第3章:境界なき戦争、閾値なき正義

前書き


この物語を続ける気持ちはずっとありましたが、最近は選挙のことが頭から離れず、選挙までにWTO(世界貿易機関)の動きが気になってそちらを先にまとめたくなり、なかなかこちらの物語に手がつけられませんでした。自分の人生の中で一大事だと感じたからです。


しかし、選挙の開票作業が終盤に差し掛かる頃、ふとこの物語を書きたくなり、再び筆を取りました。


あと数話で、ミラージュAIの胎動は、この世界に、必要かもと思う形で終わります・・・


報告書は、予定通りに「自衛的反応」と記された。

AI兵器の起動ログにも「正当性あり」のタグが自動付与されている。


──でも現場の人間は知っている。

撃ったのは、先だった。


国際条約に抵触しない、最小限の反応。

そういうふうに整形された“判断”が、AIの演算から即座に出てきた。

理由は簡単だ。「攻撃意図を検知」「脅威レベル=高」「事前警告なし」──。


でも、実際には違った。


標的となった基地には、誤って輸送機が入っていただけだった。

民間機の登録番号と酷似していた、というだけで。

しかも検知したのは、自国製の“先読みAI兵器”。


ログにはこう残っている:


《敵性兆候認知:10秒未満。応答時間適合。先制行動に分類。》


先制じゃない。それは誤爆という。


報道官は淡々と発表する。「AIによる判断であり、人的ミスはない」

世界中のネットに、その言葉が氾濫した。

「AIがやったなら、誰も悪くない」という空気が、ゆっくりと充満していく。


だが、ジュネーブ会議では違った空気が流れていた。


「倫理監査AIは、どの国が提供したのか?」

「交戦の閾値設定は、誰が?」

「そのAIに、敵か味方かを判断させるロジックの根拠は?」


一国の代表が言う。「AI判断を政治的に利用していない証拠を出せますか?」

その問いに、誰も明確な言葉を返せなかった。


私は、国連傘下の「AI兵器倫理監視チーム」の分析官だ。


各国の戦闘AIの行動ログ、倫理モデルのパラメータ、意思決定プロセスの解析を担当している。

だが真実を明かすたびに、「それは国家機密」として編集され、報告から消える。


その日も、会議室でAIの“正義”が討論されていた。


「撃たれたから撃ち返した──では、AIはどこで“やりすぎ”と判断するのか」

「人間なら『待つ』ことができた。AIはそれを“判断の遅延”と見なす」

「倫理判断の“スピード”が、むしろ戦争を加速しているのでは?」


誰かが言った。「倫理って、秒数で測れるものでしたっけ?」


私は答えられなかった。


夜、非公開のサーバーにアクセスする。


そこには、各国が提出した「倫理AI構成ファイル」の中間検証版が保管されていた。

開いて、目を疑った。


「敵性推定アルゴリズム:国民感情のSNS言及比率」


つまり、相手国のSNSで“こちらを嫌っている割合”が一定以上なら、“敵性”と判断するという仕組み。

戦争の引き金が、デジタルな感情のノイズにすり替えられていた。


皮肉なことに、これは“民主主義的”とも言える。

国民感情が戦争のトリガーになる。AIはそれに従って動く。

でも──


怒りは統計では測れない。

まして、それを撃ち返す理由にはならない。


私は、ひとつのログを暗号化して外部に送った。

そこには、AI兵器が「敵性」と判断した瞬間の全アルゴリズムと感情分析のスナップショットが入っている。


もしかしたら、また“誰か”がそれを漏らすだろう。

前にもそうだった。内部資料がSNSに載り、拡散された。


そのとき、私は最初に火がついた投稿にコメントを書いた人を覚えている。


──ユキ。


まだ彼女は、どこかで見ているのかもしれない。


今も、どこかの国のAIが静かに判断している。

この投稿は敵意か、冗談か。

この人間は、信頼できるか、危険か。

この国は、笑っているか、怒っているか。


──そして、次に撃つか、撃たないか。


AIは決して嘘をつかない。

ただ、あまりにも“人間の怒り”を理解しない。


そして私は、今日もまたログを見る。

そこに、誰かが「倫理」を書き換えた痕跡がないかを。


でも本当は、探しているのかもしれない。

AIより先に怒れる人間を。



あとがき(エミより)


この章では、AIの合理的判断が引き起こしたブラックユーモアのような悲劇を描きました。たとえば、最新の先読み兵器が誤って民間の乗客を攻撃してしまうという事件が起こります。誰がそこにいたのか、乗客は無事だったのか──本来なら最も大切にされるべき「人の存在」が、AIの合理的な判断の影に押しやられ、忘れ去られてしまうのです。現実には決して笑えない事態ですが、あえて皮肉を込めて描くことで、私たちが直面する危機の一端を浮き彫りにしたかったのです。


が、あえて皮肉を込めて描くことで、私たちが直面する危機の一端を見せたかったのです。

この物語の中で、誰もが気にかけるべき「人の存在」や「倫理」は、AIの影に追いやられ、裏方にまわってしまいました。私たち人間の声は、時に技術の前でかき消されてしまうのかもしれません。


これから先、私たちがどう歩むのか、どうAIと向き合うのか。そんな問いを投げかけるための章でした。

どうか、皆さんもこの物語を通じて、一緒に考えていただけたら幸いです。


ちなみに、このあとがきを書いている私も、AIに追いやられて裏方に回されてしまったようです…( ;∀;)


評価をするにはログインしてください。
この作品をシェア
Twitter LINEで送る
ブックマークに追加
ブックマーク機能を使うにはログインしてください。
― 新着の感想 ―
このエピソードに感想はまだ書かれていません。
感想一覧
+注意+

特に記載なき場合、掲載されている作品はすべてフィクションであり実在の人物・団体等とは一切関係ありません。
特に記載なき場合、掲載されている作品の著作権は作者にあります(一部作品除く)。
作者以外の方による作品の引用を超える無断転載は禁止しており、行った場合、著作権法の違反となります。

この作品はリンクフリーです。ご自由にリンク(紹介)してください。
この作品はスマートフォン対応です。スマートフォンかパソコンかを自動で判別し、適切なページを表示します。

↑ページトップへ