キャサリン編 そう思う奴にとっては
『こいつは人間とは認めたくない』
地球人社会ではそういうのが本当にありふれてたよな。相手を人間かどうか<個人の主観><個人の感情>で決めようとするんだ。
『そんな風に思われる奴なんて本当にクズだから当然だろ!』
とか言うかもしれないが、じゃあ<そう思われてる奴>自身が他人について『人間じゃない』みたいに思ってたりするのはどう説明するんだ? 『そんな風に思われる奴なんて本当にクズだから当然』なのか? まあそう思う奴にとってはそうなんだろうさ。『そう思う奴にとっては』な。
だが、AIもロボットもそうは思わない。<人間じゃないと思われて当然のクズ>であっても自身に設けられた規定と照らし合わせて人間であるなら基本的に身体生命は守ろうとする。もしそれが凶悪な犯罪者で<処罰の対象>となっていて処罰されるにしてもこれはまた<別の話>であってAIやロボットにとっては<保護対象>には違いないんだ。
フィクション作品なんかには、
『AIによって犯罪者を特定・追跡し、人知れず抹殺する』
なんてのもあったりしたが、そのAIが誰をどうやって<犯罪者>と認定してるのかは結局のところ<どこかの誰かの恣意的な基準>が基になってるだけのはずなんだ。
『実際に誰かを害しようとしてるかどうか』
を判断基準にするにしてもそもそも『害しようとしてる』とはどのレベルについて言うのか考えてみたことはあるだろうか? こう尋ねればすぐに答えは返ってくるにしても、しかし<その答えの内容>は人によって違ってたりしないか? もうその時点で齟齬が生じてるよな。
ある人間は『殺されて当然だ』と言い、しかしまたある人間は『このくらいならそこまでする必要はないんじゃないか?』と言ったりもする。命を奪ってしまえばもうそこでお終いなんだからそんな軽々しく決められることじゃないはずだ。
今の地球人社会では<不同意性交>すら終身刑さえある重罪ではあるものの、命さえあればもしそれが冤罪だったとしてもフォローのしようはある。しかし命を奪ってしまえば何もできない。
だから俺の印象としては、
『AIにその判断をさせるのはもしもの時の責任を負いたくないから丸投げしてる』
としか思えないんだ。
『緊急避難的に対処した結果、命が失われる』
のはこれはまあ<事故>と言えなくもないだろう。最初から殺すつもりでないのなら。相手が無茶なことをしてくればそりゃ事故になる危険性も増すし。
テロリスト相手でも結局のところそういうことなんだよ。




