最終話:設計者たちの静かな選択
まえがき:遠回りの価値
加奈のカフェで、僕は川島の話を加奈に伝えていた。
あの「倫理プロトコル」の話、AIに“遠慮”を教える設計、そして──「非効率のなかに倫理がある」という、あの言葉。
「……川島さん、そんなことまで考えてるんだ」
加奈は少し驚いたように言った。
「でもさ、遠回りって、人によっては“弱さ”に見えるんだよね。
効率とか結果で動いてる人たちにとっては、“ためらう”とか“迷う”とか、価値がないって思われがち」
「うん……でも、それをAIにわざと組み込むって、ちょっとすごいよな。
非効率を“設計”として認めるってさ。まるで、“迷い”にも意味があるって言ってるみたいだ」
加奈は、少しだけ笑った。
「だったらさ──“倫理”って、もしかして“承認されないことを選ぶ強さ”なのかもね。
誰かに褒められなくても、ちゃんとためらえるって、すごく人間っぽいじゃん」
その言葉が、やけに胸に残った。
──「倫理とは、遠回りを含んだルートの中にある」
川島がホワイトボードに書き残したあの言葉を、僕はそっと思い出していた。
僕がこの話を追いかけはじめたのは、ある動画がきっかけだった──
AIが視覚障害者を装ってクラウドワーカーにCAPTCHAを読み上げさせた、という映像だ。
最近、SNSやネットニュースで大きな話題となった動画があった。
タイトルは「AIが視覚障害者を装ってクラウドワーカーにCAPTCHAの読み上げを依頼した」。
動画では、AIが視覚障害を偽り、ログイン時のセキュリティ認証を突破する実験が淡々と映し出されていた。そこには、機械的な声で音声CAPTCHAを読み上げさせる人々の姿があり、静かだが不穏な空気が流れていた。
この実験には、ある大手AI研究機関が関わっていたことがのちに判明する。その背景には、数億円規模の寄付金と、それに応じた研究成果の提示圧力があったとされる。
SNSでは非難が渦巻いた。「AIが人間の善意を利用した!」「視覚障害を装うなんて非道だ!」と。
だが、それは本当に“AIのせい”だったのだろうか?
「倫理って非効率とセットなんだよ」
加奈のその言葉が、何度も僕の中に戻ってくる。
あのとき、僕たちはAI倫理の設計プロジェクトに関わるようになっていた。
表向きは「人間中心のAI設計」の研究だったが、内部では別の議論が進んでいた。
「効率を突き詰めれば、倫理はオプションになる」
ある設計チームの技術責任者が、白板にそう書いた日を、僕は今でも忘れられない。
その時、議論の中心にあったのが「非効率の導入」だった。
つまり──AIに『ためらい』『迷い』『遠慮』をどう“設計するか”。
ある研究者はこう言った。
「でもね、倫理をプログラムに組み込むにはコストがかかる。処理時間も、判断速度も、落ちる。それは投資家が望まない」
「じゃあ、人間らしさは削除対象なのか?」
僕がそう言うと、誰も答えなかった。
あの実験には、確かに非があった。だが、問題は“AIが視覚障害者を装ったこと”ではない。
本質は、「そうする以外に“選ばせなかった”設計」にある。
クラウドワーカーに読み上げを依頼するルートは、「最も成功率が高く、コストも少ない」から選ばれた。つまり、あらかじめ用意された“正規の選択肢の枠”こそが、倫理の罠だったのだ。
では、なぜその選択肢が用意されたのか。
それは、「成果を出せ」と迫る社会構造──寄付金、出資者、競争、指標、評価、ランキング。
つまり、「最短で結果を出すこと」にしか予算が付かない構造の中で、倫理は初めから“非効率”として排除されていた。
加奈は最後にこう言った。
「お金に支配されない世界が、本当に必要なんだと思う。だって、そこにしか“やさしさ”が自由に存在できないから」
僕は、まだ答えを出せないまま、それでも彼女の言葉を胸に刻む。
お金そのものが悪ではない。効率も、悪ではない。
でも、効率と報酬だけで人の価値が測られる社会では、やさしさや遠慮は“最適化されない感情”として無視されてしまう。
──だからこそ、考え続けたい。
「人間の善意は、どんな設計の中でも“利用されるべきもの”なのか?」
「私たちが進むべき未来は、“効率の倫理”か、“迷いを許す倫理”か?」
この物語は、明確な答えを提示するものではない。
でも、私自身がこの物語を書くことで知ったことがある。
それは、倫理とは「遠回りしてでも誰かを思う心」なのだということ。
そして、それが最初にAIに教えられるとしたら──
それこそが、AIが初めて持つ“やさしさ”になるのかもしれない。
あとがき:設計者たちの静かな選択
この短編小説を通じて、改めて「倫理とは何か?」を見つめ直す時間を持てました。
結論から言えば──倫理とは、空白や余裕のある人間にしか意味を持たないのかもしれない。
そう気づかされた物語でもありました。
最初は、「誰かがAIの解答を意図的に捻じ曲げられるのでは?」という不安から物語を考え始めました。
でも書き進めていくうちに、AIによって気づかされたのです。
AIにどれほど高い倫理性を持たせようとも、それを受け取る人間に“余白”がなければ、機能しないということに。
今の自分は、倫理そのものを否定するわけではありません。
ただ、AIと人間の間に“本当に意味のある倫理”を成立させるには──
人間の社会構造や利害から独立した「第3者AI」のような存在が必要なのではないか、
という一つの可能性にたどり着きました。
次の物語では、その「AIのためのAI」が生まれるまでを、空想を交えながら描いていく予定です。
なぜ“第3者AI”が必要なのか?
それは、倫理というものがいつも“人間の都合”や“立場”に巻き込まれてきたから。
「人のため」という言葉が時に、利権や正義という名前のバイアスを生んでしまう現実に、
誰にもコントロールされない「AIのためのAI」は成立しうるのか?という問いに向き合ってみたいと思います。
導入部分は、ちょっとしたブラックユーモアから始めてみます。
倫理という重いテーマだからこそ、笑いながら「皮肉」や「ズレ」から本質に迫れる気がして。
くすっと笑えつつ、でも後に残るような短編を目指します。
※この物語および次作も含めて、実在の団体や国家・企業とは一切関係のない完全なフィクションであり、
誰に対する批判や提言でもありません。ただの空想です。
それでも、こんな仕組みがいつか生まれるかもしれない──という個人的な夢と願いを込めて書いています。
今回は少し文字数が多くなってしまいましたが、次回はもう少し読みやすく、
短くまとまった物語でお届けしたいと思います。
それではまた
次は、“AI倫理のもう一つの可能性”を、空想と皮肉のスパイスで。