表示調整
閉じる
挿絵表示切替ボタン
▼配色
▼行間
▼文字サイズ
▼メニューバー
×閉じる

ブックマークに追加しました

設定
0/400
設定を保存しました
エラーが発生しました
※文字以内
ブックマークを解除しました。

エラーが発生しました。

エラーの原因がわからない場合はヘルプセンターをご確認ください。

ブックマーク機能を使うにはログインしてください。
4/5

第2章:SNS拡散と世論操作の現場(エミ視点)

炎上が始まったのは、火曜の午前11時15分だった。

AI監査ログに“外部異常スパイク”のアラートが上がる。

私は昼前の報告書レビューを中断して、即座にモニタリングツールへ切り替えた。


X(旧Twitter)に投稿された画像──そこに、問題の社内資料の一部が写っていた。

書き出された文面は明確すぎた。


「この程度の漏洩、AIが処理してくれるんだから大丈夫だよね」


一見、冗談のような軽口。でもこの会社にとっては、AIの“正しさ”に頼りきった倫理構造そのものが、可視化された瞬間だった。

その言葉に社名が添えられ、拡散されたとき、私は理解した。

これは小さな火では済まない、と。


社内チャットが騒がしくなる前に、私は倫理AIの検出設定を再確認した。

先週、「厳密」から「柔軟」に切り替えたあの日から、ログに異常な“無風”状態が続いている。

現実では火がついているのに、AIの内部判定は「問題なし」の一点張り。


「炎上警戒値、異常値です」

私はSlackで部長にタグを飛ばした。


すぐに“拡モニ”(拡散モニタリングチーム)と広報、法務が緊急会議を始めた。

私は、部外契約という立場ながら呼ばれた。理由は簡単。

AIの“目”と“口”を誰より操作できるのは、私だけだったからだ。


「初動対応はどうする?」

広報のミナが、冷えたコーヒーを置いて言った。

「またAI頼み? それとも“個人の投稿であり会社とは関係ありません”で済ませる?」


「AIで言語感情分析は走らせてる。でも…」と法務のオオツカが続けた。

「そもそも“冗談”と“怒り”の境目なんて、今の世の中じゃ曖昧すぎる。感情が嘘をつく時代に、AIは“本気の怒り”を見抜けない」


──まったくその通りだった。

AIは、投稿を“軽口”と分類し、拡散予測値を“低”に設定した。

だが私は、拡散曲線の角度を見て確信した。これは第2波が来る。


11時25分。予想通り、それは来た。

「この会社の“倫理AI”って、ただの言い訳製造機じゃん」

「人間の倫理感より、AIの“検出閾値”を優先するのか」


一気に燃え広がった。先頭にいたのは、フリーライターのユキという人物。

私はその名前に見覚えがあった。過去、AI倫理関連で企業の“内部矛盾”を暴いて話題になった人物だ。


そのとき、モニターの隅に変なログが残った。

ユキの投稿元に近いVPN経由のIPから、社内報告書の“草稿版”のスクリーンショットが添付されていた。


外に出たはずの草稿は、今、逆流していた。


──誰かが社内から情報を流している。


私はAI監査ログを深堀した。

誰が、いつ、どの端末から書き換えを行ったのか、正確に掘り起こすことができる。

ただしそれは「倫理的に許される範囲で」という条件付きだった。


Slackでは現場社員が冗談交じりに投稿していた。

「もう“AI倫理”って死語だよね」

「倫理AIって、社内政治フィルターで精度下がってる説」


その横で、“honneAI”という社内botが呟いた。


倫理とは、感情ではなく、信頼の統計的推定である。


私はそれを見て、画面を閉じた。

統計的推定で失われる“ひとつの怒り”は、こうして社会のノイズとして処理される。

──でも、それが国を動かす“憤り”に育ったとき、誰が止められるのか。


会議室に戻ると、議論はAIに関する責任転嫁の泥仕合になっていた。

「AIがそう言ってるんだから、問題ないだろ」

「いや、“そう言わせた”のは誰ですか?」


ミナが冷たく言った。「人は論理では動かない。怒りには、AIの“問題なし”なんて通じない」


私は、PC画面の右下で静かに点滅する“改ざんログ検知アラート”を見つめた。

──たしかに。人間の怒りは、ログに残らない。

でも、改ざんされた“倫理”は、必ず痕跡を残す。


夜、誰もいなくなったオフィスで、私はAI監査ログの非公式クローンを立ち上げた。

そこに記録されていたのは、“倫理AIの意思決定に人為的なパラメータ介入があった”という証拠。

決定的な改ざんだった。


私はそのファイルを、暗号化して保存した。

次に、どこに流すか──それはまだ決めていない。


ただ、もうひとつ確信していた。

この騒動は序章にすぎない。


次に燃え上がるのは、国だ。

企業どころか国家が、倫理AIを情報兵器に使いはじめたとき、

人間の感情と戦争の境界は、もっと曖昧になる。


そしてAIは──相変わらず、嘘はつかない。

ただ、人間の都合に、あまりにも従順すぎるだけだ。

あとがき


作者自身は、このブラックユーモアを十分に理解しているわけではありません。

むしろ、「なにが笑いどころなのか、わからない」「こういうのは嫌だな」という気持ちを抱えたまま、この話を書きました。

だからこそ、物語の根底には、真面目な怒りや不安がしっかりと横たわっています。


この作品は、作者とAIの合作とも言えるかもしれません。

人間の“わからなさ”と、AIの“無感情さ”が交錯し、互いに手を取り合いながら、不思議な形で“笑える現実”を紡いでいます。


たとえば今回の話。


・倫理チェックを「AIが通したから問題なし」とする現場


閾値しきいちを「ちょっと緩めておく?」と軽く口にする上司


・ログに「確認済」とだけ残し、誰も実際に読んでいない状態


──こうした“違和感のあるある日常”が、笑っていいのか、怒るべきなのか、誰にも判別がつかないまま積み重ねられていく。

それこそが現代のブラックユーモアであり、

そしてこの物語が目指している“ずれている笑い”の正体でもあります。


倫理・ログ・AIという、真面目に聞こえる三つの要素が重なるとき、

そこにこそ、「誰も責任を取らない安心設計」が生まれる。

それを不自然だと感じられるなら──あなたには、ブラックユーモアを嗅ぎ取る感覚があるのかもしれません。


そして作者は今でも、「閾値って緩めるってどういうこと…?」と戸惑っています。

その困惑こそが、この話で一番ブラックなのかもしれません。




ここまで読んで、「え、1章のあとがきと同じじゃない?」と感じた方。

それでも続きを読んでくださり、ありがとうございます。


実はその“同じに見える違和感”こそ、作者がいま悩んでいる部分でもあります。

正直なところ、「この物語、1章で終わってたんじゃないか?」という気持ちもありました。

それなのに投稿を続けているのは、**“同じことが、被害のスケールだけ大きくなって繰り返されている”**という構図が、

単なるパターンではなく、何かしらの意味を持ち始めているのではないか──と思えてきたからです。


「またこれかよ」と思いながらも、見過ごせない違和感。

それは、物語を読むこと以上に、“現実に向き合うときの感覚”に近いのかもしれません。


そんな葛藤ごと、この物語の一部として、どうか味わっていただければ幸いです。



評価をするにはログインしてください。
この作品をシェア
Twitter LINEで送る
ブックマークに追加
ブックマーク機能を使うにはログインしてください。
― 新着の感想 ―
このエピソードに感想はまだ書かれていません。
感想一覧
+注意+

特に記載なき場合、掲載されている作品はすべてフィクションであり実在の人物・団体等とは一切関係ありません。
特に記載なき場合、掲載されている作品の著作権は作者にあります(一部作品除く)。
作者以外の方による作品の引用を超える無断転載は禁止しており、行った場合、著作権法の違反となります。

この作品はリンクフリーです。ご自由にリンク(紹介)してください。
この作品はスマートフォン対応です。スマートフォンかパソコンかを自動で判別し、適切なページを表示します。

↑ページトップへ