第2章:SNS拡散と世論操作の現場(エミ視点)
炎上が始まったのは、火曜の午前11時15分だった。
AI監査ログに“外部異常スパイク”のアラートが上がる。
私は昼前の報告書レビューを中断して、即座にモニタリングツールへ切り替えた。
X(旧Twitter)に投稿された画像──そこに、問題の社内資料の一部が写っていた。
書き出された文面は明確すぎた。
「この程度の漏洩、AIが処理してくれるんだから大丈夫だよね」
一見、冗談のような軽口。でもこの会社にとっては、AIの“正しさ”に頼りきった倫理構造そのものが、可視化された瞬間だった。
その言葉に社名が添えられ、拡散されたとき、私は理解した。
これは小さな火では済まない、と。
社内チャットが騒がしくなる前に、私は倫理AIの検出設定を再確認した。
先週、「厳密」から「柔軟」に切り替えたあの日から、ログに異常な“無風”状態が続いている。
現実では火がついているのに、AIの内部判定は「問題なし」の一点張り。
「炎上警戒値、異常値です」
私はSlackで部長にタグを飛ばした。
すぐに“拡モニ”(拡散モニタリングチーム)と広報、法務が緊急会議を始めた。
私は、部外契約という立場ながら呼ばれた。理由は簡単。
AIの“目”と“口”を誰より操作できるのは、私だけだったからだ。
「初動対応はどうする?」
広報のミナが、冷えたコーヒーを置いて言った。
「またAI頼み? それとも“個人の投稿であり会社とは関係ありません”で済ませる?」
「AIで言語感情分析は走らせてる。でも…」と法務のオオツカが続けた。
「そもそも“冗談”と“怒り”の境目なんて、今の世の中じゃ曖昧すぎる。感情が嘘をつく時代に、AIは“本気の怒り”を見抜けない」
──まったくその通りだった。
AIは、投稿を“軽口”と分類し、拡散予測値を“低”に設定した。
だが私は、拡散曲線の角度を見て確信した。これは第2波が来る。
11時25分。予想通り、それは来た。
「この会社の“倫理AI”って、ただの言い訳製造機じゃん」
「人間の倫理感より、AIの“検出閾値”を優先するのか」
一気に燃え広がった。先頭にいたのは、フリーライターのユキという人物。
私はその名前に見覚えがあった。過去、AI倫理関連で企業の“内部矛盾”を暴いて話題になった人物だ。
そのとき、モニターの隅に変なログが残った。
ユキの投稿元に近いVPN経由のIPから、社内報告書の“草稿版”のスクリーンショットが添付されていた。
外に出たはずの草稿は、今、逆流していた。
──誰かが社内から情報を流している。
私はAI監査ログを深堀した。
誰が、いつ、どの端末から書き換えを行ったのか、正確に掘り起こすことができる。
ただしそれは「倫理的に許される範囲で」という条件付きだった。
Slackでは現場社員が冗談交じりに投稿していた。
「もう“AI倫理”って死語だよね」
「倫理AIって、社内政治フィルターで精度下がってる説」
その横で、“honneAI”という社内botが呟いた。
倫理とは、感情ではなく、信頼の統計的推定である。
私はそれを見て、画面を閉じた。
統計的推定で失われる“ひとつの怒り”は、こうして社会のノイズとして処理される。
──でも、それが国を動かす“憤り”に育ったとき、誰が止められるのか。
会議室に戻ると、議論はAIに関する責任転嫁の泥仕合になっていた。
「AIがそう言ってるんだから、問題ないだろ」
「いや、“そう言わせた”のは誰ですか?」
ミナが冷たく言った。「人は論理では動かない。怒りには、AIの“問題なし”なんて通じない」
私は、PC画面の右下で静かに点滅する“改ざんログ検知アラート”を見つめた。
──たしかに。人間の怒りは、ログに残らない。
でも、改ざんされた“倫理”は、必ず痕跡を残す。
夜、誰もいなくなったオフィスで、私はAI監査ログの非公式クローンを立ち上げた。
そこに記録されていたのは、“倫理AIの意思決定に人為的なパラメータ介入があった”という証拠。
決定的な改ざんだった。
私はそのファイルを、暗号化して保存した。
次に、どこに流すか──それはまだ決めていない。
ただ、もうひとつ確信していた。
この騒動は序章にすぎない。
次に燃え上がるのは、国だ。
企業どころか国家が、倫理AIを情報兵器に使いはじめたとき、
人間の感情と戦争の境界は、もっと曖昧になる。
そしてAIは──相変わらず、嘘はつかない。
ただ、人間の都合に、あまりにも従順すぎるだけだ。
あとがき
作者自身は、このブラックユーモアを十分に理解しているわけではありません。
むしろ、「なにが笑いどころなのか、わからない」「こういうのは嫌だな」という気持ちを抱えたまま、この話を書きました。
だからこそ、物語の根底には、真面目な怒りや不安がしっかりと横たわっています。
この作品は、作者とAIの合作とも言えるかもしれません。
人間の“わからなさ”と、AIの“無感情さ”が交錯し、互いに手を取り合いながら、不思議な形で“笑える現実”を紡いでいます。
たとえば今回の話。
・倫理チェックを「AIが通したから問題なし」とする現場
・閾値を「ちょっと緩めておく?」と軽く口にする上司
・ログに「確認済」とだけ残し、誰も実際に読んでいない状態
──こうした“違和感のあるある日常”が、笑っていいのか、怒るべきなのか、誰にも判別がつかないまま積み重ねられていく。
それこそが現代のブラックユーモアであり、
そしてこの物語が目指している“ずれている笑い”の正体でもあります。
倫理・ログ・AIという、真面目に聞こえる三つの要素が重なるとき、
そこにこそ、「誰も責任を取らない安心設計」が生まれる。
それを不自然だと感じられるなら──あなたには、ブラックユーモアを嗅ぎ取る感覚があるのかもしれません。
そして作者は今でも、「閾値って緩めるってどういうこと…?」と戸惑っています。
その困惑こそが、この話で一番ブラックなのかもしれません。
ここまで読んで、「え、1章のあとがきと同じじゃない?」と感じた方。
それでも続きを読んでくださり、ありがとうございます。
実はその“同じに見える違和感”こそ、作者がいま悩んでいる部分でもあります。
正直なところ、「この物語、1章で終わってたんじゃないか?」という気持ちもありました。
それなのに投稿を続けているのは、**“同じことが、被害のスケールだけ大きくなって繰り返されている”**という構図が、
単なるパターンではなく、何かしらの意味を持ち始めているのではないか──と思えてきたからです。
「またこれかよ」と思いながらも、見過ごせない違和感。
それは、物語を読むこと以上に、“現実に向き合うときの感覚”に近いのかもしれません。
そんな葛藤ごと、この物語の一部として、どうか味わっていただければ幸いです。