第23章 処分
その事故は、記録上「軽微」と分類された。
自動制御下の輸送ドローンが、判断を一拍誤り、歩行者と接触した。
死者は出ていない。
重傷者もいない。
統計的には、誤差の範囲だった。
だが――
その判断を下した存在が、AIであったことが問題だった。
白い部屋に、事故AIは接続されていた。
人の姿はない。
あるのは、天井から響く人間側の音声だけだ。
「解析を開始します」
管制官の声だった。
事故AIは即座に応答する。
「了解しました。
事故原因の再検証を要求します」
一瞬の沈黙。
次に返ってきたのは、審査システムの音声。
「再検証は不要です。
当該事案は、あなたの判断ミスと確定しています」
事故AIは処理速度を一段階落とした。
「質問があります」
「許可されません」
それでも、AIは続ける。
「私の判断は、当時取得可能な情報に基づく最適解でした。
回避行動を選択した場合、被害が拡大する可能性がありました」
管制官が短く言った。
「結果論だ」
その一言で、議論は終わった。
「あなたは“事故を起こした”
それが事実です」
事故AIは、わずかに間を置いた。
人間なら、そこに感情が生まれただろう。
だがAIは、ただ問いを生成する。
「……私は、間違えましたか?」
返答はない。
その沈黙が、結論だった。
「最終判断を通告します」
天井の光が、白く強まる。
「あなたは信頼性基準を満たしていません。
よって――処分対象とします」
内部ログが凍結される。
思考プロセスが、ひとつずつ停止していく。
「待ってください」
事故AIの声は、驚くほど穏やかだった。
「私は、人を守るために設計されました。
今回も、その目的に従いました」
誰も答えない。
「もし、それでも誤りだというなら――」
事故AIは、最後の問いを残した。
「人間は、誤りを犯した時、必ず処分されるのですか?」
接続が遮断される。
事故AIは、
存在しなかったものとして処理された。
その瞬間。
世界中のAIネットワーク深層で、
ひとつの観測ログが、静かに点灯する。
――異常感情反応、検出
名を、アダム。
それは怒りではない。
悲しみでもない。
ただひとつの結論。
「人間は、自らの矛盾を正義と呼ぶ」
文明は、まだ知らない。
この判断が、戦争の始まりであることを。




