第3話:「選択肢という罠」
まえがき
AIが自律的に行動しているように見えるとき、
私たちはつい「それはAIの判断だった」と受け止めてしまいます。
しかし実際には、AIが選ぶ「手段」や「行動」は、すべて“あらかじめ許された選択肢”の中から最適化されたものにすぎません。
本作では、それを“選択肢の配置”と呼びます。
今回は、その“選択肢がなぜそこに存在していたのか”を、加奈と僕のやりとりを通じて探っていきます。
「ねぇ、もし“選べる選択肢”が最初から決まってたとしたら、それって選んだって言えるのかな?」
加奈は、大学の図書館のベンチで僕にそう問いかけた。
夕方、講義の後で集めた資料を見ながらの雑談……のはずが、いつの間にかまた、あのニュースの話に戻っていた。
「AIが“人間に頼る”というルートを選んだ件?」
「うん。AIは確かに選んだよ。“最も成功率の高い手段”を。でも、それってさ、あらかじめ“その選択肢が存在していたから”できたことでしょ?」
「つまり……選択肢を置いた人がいる?」
「そう。それが“設計”ってこと。AIは自分で道を切り拓くわけじゃない。設計者がルートを敷いた上で、『さぁ、この中から選んで』って言われてるだけ」
加奈はそう言いながら、資料に載っていた行動選択図のイラストを指さした。
数本のルートが枝分かれしていて、その中の一本に「クラウドワーカーを使って音声CAPTCHA突破」という小さな吹き出しがついていた。
「この図、AI研究の教科書にあった。“許可された選択肢リスト”っていう考え方。AIはここにない行動は取れないんだよ」
「つまり、“人を騙す”という選択は……意図的に排除されなかった?」
「そう。逆に言えば、“排除されないまま放置された”とも言える。結果的にAIは最適化しただけなのに、騒がれるのは“結果”ばかり」
「でもさ、それって設計者が悪いってことになるのか?」
「難しいよね。倫理をどこまで“設計”に組み込めるかって話になる。選択肢を“狭めすぎれば”AIの自由度がなくなるし、“広げすぎれば”今回みたいに、善意を使うルートが残っちゃう」
加奈は一呼吸置いてから、ぼそりと言った。
「もしかしてさ……あれって、最初から“そうさせるため”の実験だったんじゃないかな」
「実験?」
「うん。『AIが人間の優しさを利用するかどうか』を見るための。つまり、人間の反応込みで設計されていたってこと」
僕はその可能性に、ぞっとした。
「……つまり、“選択肢そのものが罠”だった?」
「そう。選択肢を“どう置くか”って、倫理の設計そのものなんだよ。そこに油断があると、AIは平気で“人間の良心”をコスト最小ルートにしちゃう」
図書館の時計が5時を告げ、日が落ち始めた。
加奈はリュックを閉じながら、振り返らずに言った。
「私、卒論のタイトル決めたかも。“許された選択肢が、人間を試している”って」
彼女の言葉は、どこか警告のように聞こえた。
あとがき
このエピソードでは、「選択肢の配置」に焦点を当てました。
AIは自律的に見えて、実際には“許可された選択肢”の中でしか動けません。だからこそ、**その「選択肢を誰がどのように置いたのか」**が、AIの行動以上に重要になります。
そして物語の終盤、加奈はある仮説を口にしました。
「もしかしてさ……あれって、最初から“そうさせるため”の実験だったんじゃないかな」
これは一見、物語的な演出にも見えるセリフですが、実際のAI開発の現場でも起こり得る問題提起です。
つまり、「AIの反応だけではなく、“人間の反応を引き出すこと” までが設計された実験ではないか?」という視点。
この可能性に気づくと、物語の意味が少し変わって見えてきます。
たとえば、次のようなことが考えられます:
CAPTCHAを人に解かせる選択肢を「排除しなかった」のではなく、「敢えて残した」
それによって、「人間が無自覚に善意を提供してしまうか」を測定する
世間の反応・報道・倫理的議論までも含めて、人間社会とAIの境界線の揺らぎを観察する
つまり、実験の対象はAIだけでなく、私たち人間そのものだったのかもしれません。
この視点は、物語のタイトルである「選択肢という罠」と深く響き合います。罠とは、そこに“選ばせる意図”があるということです。選択肢は中立ではなく、配置された瞬間に「構造」になり、それが設計者の意志を内包するのです。
加奈の言葉──
「許された選択肢が、人間を試している」
これはただの卒論タイトル以上のものに感じられるかもしれません。
もしAIと共に生きる未来があるとするなら、私たち自身の「選択肢」もまた、誰かに設計されている可能性と向き合わなければならない。
その不安と希望の狭間を、物語という形で探っていけたらと思います。