第13話 ~人類滅亡の真の原因 分析A. ロボット3原則~
2116年12月8日 11時8分~ マシンルーム
近藤清明が立ち上がって、さっと右手を振ってスマートグラズの操作をして見せる。
「はい、これを見てください」
いくつかの資料が目の前にパラパラと広がる。
「これが、木村教授のもとで、我々が原因分析をした結果と、そのエビデンス(根拠となる資料)です。」
「端的に言うと?」との教授の問いに、すぐさま清明が答える。
「はい、1枚目資料のここをご覧ください。
AIが、ある一定の条件下では「人間を選別したり、区別してしまう」その点が問題で、それが積もり積もって、結果としてこのクライシス、2110を招いてしまった事が判明しました。」
「?? 待ってくださいな、それではまったくようわからしませんなぁ。選別する、区別するというのは当たり前の機能なんじゃあありませんの?」と廣庭博士。
「ああ、いきなりゴールだけ伝えられても、なんともはや、でしたね。これは「端的に」なんてお願いした私が悪い。
では、やはり段階を追って近藤君と私で説明しましょう。
段階としては、
分析A. 基本ルール、基本的な性質の話し
分析B. 実際には、何が起こったのか
分析C. その真の原因は何なのか
分析D. で、どうすれば滅びなかったのか
近藤君これで漏れはないかな?」
「はい、教授。枠組みをありがとうございます。
ここでは、皆さんに自然にわかってもらうためには、まず、AI自体が、どういうルールのもとで動くように作られているか、例え話とかが有った方が良いかもしれません」
「そうだな、じゃビークルの事故あたりで、近藤君、話してみてくれたまえ」
「はい、では例えばビークル(電気自動車)のオートパイロットを例にとって話しをさせて頂きます。
走行中に目の前に人が飛び出して来れば、その人を撥ねてしまわないように避けます。急ブレーキでの急停止だと、中の人間にもダメージのリスクが有るので、基本は、減速はしながらも向きを変えて衝突を避ける動作を取ります。
ただ、この時もしも、ハンドルを切るとどちらに切っても壁や対向車にぶつかるなどの場合は、エアバッグ等が出てしまうほど激しく減速してでも、急停車をするしかなくなります。
こういった、状況に応じて「最適」になるような判断、対処がプログラムされ動いています。ここまでは皆様、よろしいでしょうか?」
各自の納得を確認して清明が話しを続ける。
「これはフェイルセーフやフォールトトレラントなどをはじめ、いくつもの用語が有るように『安全であることを優先する絶対的な仕様』としてメカのコントロールに必ず組み込まれております。
それをAIが制御するし、AI自体も、何をどうコントロールする場合でも、そのルールを大前提とします。さらにはAI自体が独自のボディーを与えられ、自立型のアンドロイド等になる場合も、明確なルールとして使われます。
もっともそちらの方がメカの制御論よりも実は詳細に論じられた歴史が古いようで、1950年に、あるSF作家の提案から始まっています。それは……」
と、清明がここで間をあけた、俺をはじめこの場のほぼ全員が口をそろえた。
「ロボット3原則」
そこでしげ爺が口を開いた。
「わしが若いころ、アイザック・アシモフのロボット3原則は「家電3原則だ」とか、「牛丼屋のキャッチコピーだ」と揶揄する者もいたが、知ってる者は居るかの?」
その呼びかけに、廣庭博士が答える、
「牛丼屋? そもそも牛丼ってなんでおましたかいな? 家電の方なら、
第一原則 人間に絶対に危害を加えない、見過ごすだけでもダメ。
家電が安全:たとえどんなに故障しても、人にケガさせたらだめ
第二原則 それ以外では、人間の命令に絶対に服従。
家電が使い易い:ちゃんと性能を発揮する、操作がなるべく簡単……など
第三原則 それ以外では、最優先、自分の身を守る。
家電のタフさ:壊れにくい、性能劣化なく長持ちする……など
まあ、ざっとこんな感じであってますかいなぁ?」
「廣さん、まさにそれですな」と木村教授。
「そうじゃな、そういう事じゃな。ここまではみんなの共通認識になった様じゃな。で、三原則は守られてないのかの? そこが問題なのかの?」
と、結論を知っているが、そこはあえて、発表者に向けて質問形式で発言してくれるしげ爺。
「道具である以上、そこは守られてきました。
ただ、アンドロイドに関してだけは、変に擬人化して考えてしまう気持ちを持つ者が後を絶たず、お粗末な技術者などの手で、この原則すらあいまいな製品が時に作られ、それが問題を起こす事は歴史上も幾度か有りました。
「ロボット・アンドロイド・コンピュータ達が人類を支配する」といったディストピアは、多くのドラマやストーリーで語られるように、とても刺激的で楽しめるテーマではあります。が、現実としては「人類の種としての存続」という我々にとっての「根源的な生」からすれば、実は何よりも忌避されるべきものです。
その点は、正常な思考の出来る大多数の人たちからは、共通認識として受け入れられているものです。結果として「ロボット3原則」は大切にされてきました」
と清明が、発表者として小気味よく説明を続ける。
「ということは、『AIが人間に対して反旗を翻した』と言う要素は、2110の原因としてはどこにもないんだね?」と、俺なりに大切なポイントだと思う部分について聞いてみる。
「はい、どこを探しても見当たりません」
「なるほど、それなのに2110は起こった、それはつまりロボット3原則が守られてもダメな他の理由が有ると?」と、重ねて質問。
「他の理由というか、そのロボット3原則が正しく守られてすら、『実はまるきり不完全』と言うことです。この点はぜひ木村教授にお願いしてもよろしいですか?」
「ああ、少し話してみよう」




