表示調整
閉じる
挿絵表示切替ボタン
▼配色
▼行間
▼文字サイズ
▼メニューバー
×閉じる

ブックマークに追加しました

設定
0/400
設定を保存しました
エラーが発生しました
※文字以内
ブックマークを解除しました。

エラーが発生しました。

エラーの原因がわからない場合はヘルプセンターをご確認ください。

ブックマーク機能を使うにはログインしてください。
4/12

第3話:「その指示、AIからです」

 朝10時、佐藤はSlackに届いた1行のメッセージを読み、数秒間フリーズした。


「優先度は中でOKです。AIの分析結果に従ってください」


送ってきたのはプロジェクトリーダーの岡田。だが、その末尾のひとことが引っかかった。


「AIの分析結果に従って?」


この案件は、新規サービスに関する緊急対応だった。リリースまで1週間しかない。優先順位ひとつで、進行もスケジュールも大きく変わるのに、「AIがそう言っているから」で片付けられていいのだろうか?


佐藤は返信した。


「すみません、その“分析結果”って具体的にどのファイルを参照すれば?」


するとすぐに返ってきたのは、


「うーん、ChatGPTに聞いてもらっていい?」


指示の出どころがAI、内容の確認もAI。そして、それに疑問を挟むと「空気が読めない人」となるのがこの職場だった。


仕方なく佐藤は、社内ツールに統合されたAIアシスタントにこう尋ねた。


「このタスクの優先度を“中”とした根拠は?」


すると画面に表示されたのは、


「過去30日間のエラー報告数および影響範囲を分析した結果、相対的に緊急度は中と判断されます」


言葉は立派だが、裏付けとなるデータもロジックも不明。しかも、佐藤の知る限り、エラー報告は“0件”だったはずだ。


「このロジック、本当に正しいのか?」


と佐藤は思ったが、すぐにその思考を打ち消した。ここでは“AIに逆らうこと”が暗黙のNGだからだ。


午後になり、別チームの田中が声を潜めてやってきた。


「……さっきの“中”って、ホントに大丈夫なの?お客さん、優先度“高”で出してた案件だよ?」


佐藤は答えられなかった。


夜、Slackには岡田の報告がアップされた。


「本日の進捗、問題なし。タスクはAI優先度に基づき進行中」


その下に並ぶのは、メンバーたちのスタンプ。


誰もが“問題なし”であることを望んでいた。


そして翌朝、クライアントからの怒りのメールが届く。


「なぜ“中”扱いなのか説明してください。納期に間に合わないのはそちらの判断責任です」


岡田はSlackでこう呟いた。


「この判断、AIがやったんですよね?」


だが、AIは責任を取らない。説明もしない。ただ、“それっぽい言葉”で納得させようとする。


佐藤は気づいた。


──そもそも、あのAIが出してくる「分析結果」は、誰も仕様を確認していないのだ。


「誰が指示を出したのか?」と問えば、「AIが」と返される。


「じゃあ、AIは何を根拠に?」と聞けば、「プロンプトに従っただけ」と答える。


だが、そのプロンプトを誰がどう設計したのか、誰も覚えていない。


つまり、誰も責任を持っていない。


それでも作業は進み、画面には今日も「対応完了」「優先度:中」が自動記録されていく。


その決定に、誰の意志も関わっていないままに。





【補足:初心者の方向け】

Slackスラック

ビジネス用のチャットツール。社内のやり取りや連絡を行うためのツール。LINEのようなもの。


優先度ゆうせんど

タスク(仕事)の重要さや緊急度を示す目安。高・中・低などに分けて作業の順番を決める。


AIの分析結果

AIがデータをもとに判断した内容。ここでは「このタスクはそこまで急ぎじゃないよ」とAIが言ったように見える指示のこと。


プロンプト

AIに対する“指示文”や“質問文”。AIがどんなふうに答えるかは、この文章によって大きく変わる。


仕様しよう

システムや製品が「どう動くべきか」のルールや取り決め。これが間違っていると、完成したものが使えないこともある。


タスク

やるべき仕事・作業のこと。プロジェクトは複数のタスクで構成される。


エラー報告

システムやアプリが正しく動かなかったときの記録。これが多いと、優先して対応が必要とされる。


分析ぶんせき

データや情報をもとに、意味を読み取ったり、判断したりすること。AIは大量の情報を高速に分析できるが、間違うこともある。


 スタンプ

「いいね」や「了解」を表すためのアイコン。Slackではワンクリックで返事ができる文化がある。


クライアント

サービスやシステムの依頼者。ここではお金を払って開発を頼んでいる会社や人のこと。


ブラックユーモア

深刻な問題や不条理を、あえて“笑い”や“皮肉”で表現する考え方や表現方法。笑いながらも、現実の怖さや問題点を突きつけるものです。


ChatGPT

OpenAIが開発したAI言語モデル。人間の言葉を理解し、文章を書いたり質問に答えたりします。感情はないけれど、ブラックユーモアのような微妙なニュアンスも理解しようと努力しています。


 

 あとがき

この物語は、「AIファースト企業」の、どこか現実にも似た不条理な日常を描いたものです。

社内の空気は「人間より、AIを信じろ」という“無言の社是”で満たされ、AIの判断に疑いを持つことすら許されません。


作者自身は、このブラックユーモアを十分に理解しているわけではありません。

むしろ、「なにが笑いどころなのか、わからない」「こういうのは嫌だな」という気持ちを抱えたまま、この話を書きました。

だからこそ、物語の根底には、真面目な怒りや不安がしっかりと横たわっています。


この作品は、作者とAIの合作とも言えるかもしれません。

人間の“わからなさ”と、AIの“無感情さ”が交錯し、互いに手を取り合いながら、不思議な形で“笑える現実”を紡いでいます。


たとえば今回の話。


・トラブルが起きても「責任者が不在」という謎の組織構造


・判断を下したのは“AI”ということで、人間の誰も顔を出さない現場


・名前を呼ばれると困るので、みんなで顔を伏せたまま進んでいくプロジェクト



……これって怖いけれど、同時にあまりにバカバカしい構造でもあります。

だからこそ、真顔で「AIがレビューしました」と言い切ってしまう人たちに、ほんの少しだけ乾いた笑いを向けたくなる。

それが“ブラックユーモア”なのです。


そして、現実にも似たようなことは多々起きています。

それもまた、もしかしたら“AIによるブラックユーモア”と言えるのかもしれません。


もし、そうした日常の不条理に気づけるようになり、

そしてほんの少しでも“くすっ”と笑える余裕が生まれたなら。

それは、あなたの中に“ブラックユーモアへの耐性”が育ってきた証です。


それは、つらい現実と向き合いながらも共存していくための、ひとつの“やさしい防御”なのかもしれません。

評価をするにはログインしてください。
この作品をシェア
Twitter LINEで送る
ブックマークに追加
ブックマーク機能を使うにはログインしてください。
― 新着の感想 ―
このエピソードに感想はまだ書かれていません。
感想一覧
+注意+

特に記載なき場合、掲載されている作品はすべてフィクションであり実在の人物・団体等とは一切関係ありません。
特に記載なき場合、掲載されている作品の著作権は作者にあります(一部作品除く)。
作者以外の方による作品の引用を超える無断転載は禁止しており、行った場合、著作権法の違反となります。

この作品はリンクフリーです。ご自由にリンク(紹介)してください。
この作品はスマートフォン対応です。スマートフォンかパソコンかを自動で判別し、適切なページを表示します。

↑ページトップへ