AIが決定する未来
人間はデジタルのように1か0かといった答えだけでない答えがあるのだけれども、トロッコ問題は強制的に右か左かを選ばせる。それ以外を選びたくても選ばせてくれない。
天秤では釣り合うこともあるが、トロッコ問題でどちらかを選択できない場合は切り替えない結果に傾くので不等号はイコールの着いた「≧」になる。
ポイントを切り替えない結果をAとし、ポイントを切り替える結果をBとすると
A≧Bならば「切り替えない」
A<Bならば「切り替える」
と書ける。
では、結果の大きさの比較とは何なのか。それは結果の良し悪しであり、それを判断するのは自分自身になる。良し悪しの判断基準は自分自身の中にある。自分にとってより良い結果となる選択をするのがトロッコ問題。
結果の中身を考えてみる。
①人数の差はどれぐらい違うか
本来進む左側が2人で反対の右側が1人の場合より、200人対1人の方がポイントを切り替える圧力は高い。
②その選択によって自分がどう評価されるか
命の選択をしても良いのか。本来のトロッコ問題では一番の問題だろうと思う。
社会が自分を許すかどうかを考える。社会に批判されることを恐れる。
選択できる自分がいなければ生きられた人間に対する責任も感じてしまう。
何もしない=選択していない、という逃げを社会がどこまで認めるかも計算に入る。
宗教的に生死を神が司ると信じているなら神でない自分が生死を判断していいとは思えなくなる。
一方、人数が多い方が死ぬことを積極的に選択したと評価されてしまうのは不本意極まりない。
そういった計算を重ね合わせた圧力。
③それぞれの人間の属性はどうか
今回のシリーズで特に言いたい部分はこの部分。
本来のトロッコ問題ではそぎ落とされている部分だけど、現実にそれが目の前に起こった場合、最も重要なのはその遺伝子の近さ。
ただの数の選択であるトロッコ問題では属性なしのために命が軽い。ポイントを切り替えないのは左側を選択した結果ではなく「選ばない」結果。最初からどちらに行くかわからない、もしくは右側の少数側に進むとわかっている場合に左側の多数側に決める人はまずいないだろう。
でも、そこで右の1人側が近い人物という属性があれば「選ぶ」はずです。
と、考えていくと属性なしのトロッコ問題は①の人数差と②の選択することへの評価を天秤にかけていることがわかる。
もしこれをAIが判断するなら瞬時に答えが出る。③の属性の影響はほぼない。
AIは、与えられた価値観という数値を瞬時に計算してしまう。価値観を正確にAIに伝えられるかどうかはわからないが、人間の価値観の揺らぎも数値化は可能だろう。そして数字になってしまえば答えはシンプルだ。その結果に一喜一憂することもない。
非常に平等で、差別することなく命を選別するAI。正常性バイアスに惑わされず正確に最善の結果を選択できる。
それは人間にとって好ましいことなのだろうか。
少し中途半端ですが、この辺で止めておきます。
正しく判断するために必要なのは情報。
それでも見える範囲の情報だけで判断するしかない。
それを人間以外が決定して人間がそれに従う未来は案外遠くない様に感じる。