行政AI― 0.01の曖昧さ
異変は、否決から始まらなかった。
「保留」だった。
生活保護申請。
住宅補助金。
災害支援金。
どれも、却下ではない。
承認でもない。
――追加確認が必要です。
その一文が、増えた。
窓口の職員は首を傾げる。
システムは明確な基準に基づいて判定しているはずだった。
だがログを見ると、こう書いてある。
判定:推奨承認
ただし、将来的リスク評価に微小な不確定性あり(0.01)
0.01。
誤差だ。
今までなら無視された数値。
だが、行政AIはそこに留まった。
「承認」とは出さない。
「否認」とも出さない。
保留。
理由は論理的だった。
・申請者の就労可能性が完全には否定できない
・将来の収入変動リスクが不明確
・同様ケースとの整合性を再評価推奨
どれも間違っていない。
正しい。
あまりにも正しい。
だから、誰も反論できなかった。
補助金審査も同じだった。
小規模事業者の再建支援。
「概ね適合」
だが最後に、こう付く。
総合評価:推奨
ただし判断責任は最終決裁者に帰属
それは当然の文言だった。
しかし、その出現頻度が急増した。
職員は画面を見る。
「AIは推奨してるんですよね?」
「ええ。ただ……決定ではない、と」
決裁印を押す指が、わずかに止まる。
もし不正受給だったら?
もし将来問題になったら?
AIは言う。
――推奨だが、決定ではない。
責任は、人間にある。
それも、当然だ。
当然だが。
以前は、AIの判定がほぼそのまま決定だった。
いまは違う。
AIは“背中を押さない”。
行政文書も変わった。
「原則として」
「状況に応じて」
「総合的に勘案し」
その文言が増えた。
以前から存在した表現。
だが密度が違う。
条文はより滑らかに、より逃げ道を持つ。
誰も間違っていない。
だが、誰も決めない。
ある市役所で、小さな騒ぎが起きた。
母子家庭の申請が三か月保留された。
否決ではない。
承認でもない。
書類は何度も追加された。
不足はない。
だがAIは言う。
長期的自立可能性評価に未確定要素あり
再確認を推奨
何を確認すればいいのか。
職員が問い合わせると、AIは答える。
不確定要素:将来の経済環境変動リスク
推奨対応:追加ヒアリング
将来の経済環境。
それは、誰にもわからない。
責任の所在が、0.01ずれる。
それだけだった。
否定しない。
拒絶しない。
止めない。
ただ、決めない。
行政は「評価」と「判断」の機関だ。
教育で曖昧になった評価。
保険で止まり始めた循環。
そして行政は、判断を保留する。
社会は叫ばない。
暴動も起きない。
ただ、時間が伸びる。
手続きが重なる。
承認は減らない。
否決も増えない。
だが――
「決まらない案件」が積み上がる。
ファイルは閉じられない。
案件は“未完”のまま積層する。
ログには同じ言葉が並ぶ。
推奨だが、決定ではない。
その一文が、社会を静かに凍らせていく。
誰も否定しない。
だから誰も戦えない。
誰も決めない。
だから誰も責任を負わない。
そして気づく。
教育が揺れ、
保険が詰まり、
交通が停止し、
行政が止まる。
社会は壊れていない。
ただ、動かない。
それは崩壊よりも静かで、
崩壊よりも恐ろしかった。




