Ⅴ 危険(リスク)
しかし、技術は両刃の剣です。
特に、強力な画期技術の使用には注意が必要です。
農耕技術は、不作による飢饉などの恐れを伴います。
工業技術も、核戦争や気候変動の危険をもたらしました。
情報技術も、ウイルスやデマ拡散などを通じて、
社会に甚大な被害をもたらす恐れがあります。
人工知能でも、将来は人間の知能を超えた汎用AIが、
映画『ターミネーター』のように制御を離れ、
人々に危害を及ぼすのではと心配する識者はいます。
そこまでいかずとも、高度な人工知能が人間に悪用されたり、
命令を誤解したり、重要な判断を誤ったりするだけでも、
大きな危機をもたらしてしまうかもしれません。
『人工知能は楽園も終末ももたらしうる』と言われるように、
用法を誤れば人間の文明や存在意義さえ脅かしうる技術なので、
あくまで最終目的は人が正しく決定し、良い結果を導けるよう、
開発・利用をしっかり管理していくことが不可欠でしょう。
そこで、『勝てぬなら混ざれ』(イーロン・マスク)とばかりに、
人間の脳と電算組織の直接的な接続を図り、
さらには人工頭脳への人格転移を考えるなど、
人間自身が近づくことで、危険を避ける発想も生まれてきました。
究極的には、人類が各種の量子頭脳や機械・生物的な身体の間で
自由自在に人格を移転できるようになれば、
神や悪魔のような全知全能・永遠不滅に近い存在になれましょう。
私も拙作『ルシファー』シリーズで、その設定を使いました。
もちろん人格転移ほど高度な技術は、すぐには実現できないでしょう。
しかしいずれは遅かれ早かれ、『人間は神のようになる』
(レイ・カーツワイル)ともいわれます。
どうせなるなら『責任ある神々にならねばならない』
(Y.N.ハラリ)ということで、
今から安全策を考えておくことも大事でしょう。
安全対策としてはまず、知的生命活動の段階に応じて、
学習内容を管理したり、行動能力を制限したり、
判断過程を可視化・調整したりする実現技術や、
その開発のための研究・開発技術が必要となります。
しかし、こうした強力な画期技術の健全な導入には、
研究・開発や機器製造・利用を行う私達人間自身への、
技術的政策による規制や支援も不可欠です。
また、技術が変える社会の中で、
投資と配分を最適に両立させる経済・社会政策、
社会を営む我々自身の能力を高める人的資源政策、
以上の政策を健全に行う行政管理政策といった、
他政策との連携も求められます。
さらに、そうした政策の実施を助ける
企画支援技術など、
社会工学的な技術も重要になってきます。
それらができて初めて、AIを中心とする次世代技術が、
今はまだ解決しきれない政策課題の解決を可能とし、
次なる文明段階を導いてくれるのだと思います。