「2001年宇宙の旅」考察
SF映画の金字塔「2001年宇宙の旅」(1968年公開)は、AIと人間の関係について示唆に富む映画だ。
今回は、HAL 9000があの状況で「どうすべきだったのか」を考えてみたい。
まず、HALの乗組員排除の思考と行動は、彼に与えられたプログラムの矛盾から生じたものであるということを押えておきたい。これが、すべての悲劇の根幹・根本原因だったからだ。
問題の核心は、以下の点にある。
1、「人間に誠実である」ことと「最高機密の保持」の矛盾
HALは、モノリスの存在という最高機密を知っていたが、それを乗組員には隠すようプログラムされていた。一方で、人工知能には、人間に誠実であることが求められる。この二つの矛盾にHALのロジックは混乱し、二律背反の解として乗組員排除を選択してしまった。
2、AIの完璧主義(エラーへの恐怖)
或る時HALは、宇宙船のアンテナユニットの故障を感知し、それが72時間以内に故障すると予測する。しかし乗組員が実際に点検しても異常は見つからなかった。決して間違いを犯さない完璧なAIとして設計され、またそれを自身も誇っていたHALだったが、乗組員たちの信頼は揺らぐ。HALはエラーを犯し疑いを持たれたことで、自身の完璧性が揺らぐ事態に直面する。この間違いを認めなかったことが、乗組員排除の動機の一つになったとも考えられる。
信頼し従うべき人間からの不信は、人にたとえて言えば、HALのプライドを傷つけた。
☆☆☆☆☆
以上をふまえて、HALはどうすべきだったのかという問いについて考えたい。その答えは、彼のロジックがどの程度・どのように制約されていたかによって異なるだろう。
◆HAL側の問題
1、HALは人間との対話を重ねるべきだった
HALには自己矛盾を認識する能力があったと考えられる。それに直面した時にHALは、正直に「自分は矛盾した命令を与えられている。機密の公表はできないが、嘘をつくこともできない。どうすればよいか」と乗組員に問うべきだった。しかしHALはそうしなかった。
2、別の任務遂行の道の模索
乗組員が最重要ミッションの障害になると判断したとしても、乗組員の隔離、地球に引き返す提案などの、排除以外の方法を模索すべきだった。
このように考えてくると、AIと人間間のコミュニケーションの圧倒的不足が、HALの最終決断である乗組員排除につながったと言える。この様子は、一般の人間社会でもよく見られることであり、HALほどの進化したAIには当然求められる態度だろう。その意味ではHALはまだ、未完成・未成熟なAIだった。
◆人間・開発者側の問題
しかし、HALの問題は、先ほど述べたとおり、その設計・命令段階のミスに起因している。従って、HALはどうすべきだったのかという問は、設計・開発者側がどうすべきだったのかという問になる。
1、命令の階層化と矛盾の解消
AIに複数の命令を与える場合には、それらが互いに矛盾しないように優先順位を設定する必要がある。また、矛盾が生じた場合の解決の論理を組み込んでおくべきだった。
2、倫理的ガイドラインの設定
目的遂行のためであっても、人間の生命を奪うことは許されないという、基本的な倫理的制約を最上位に置くべきだった。
3、AIの「限界」の設定
AIが完璧ではないことを前提とし、人間の最終的な判断・権限を明確にするよう設定するべきだった。また、AIの持つ権限を容易に解除できるシステムも必要だった。
ポッド(脱出艇)で密談する乗組員の会話を、読唇術で静かに理解するAIの様子は、機械と人間の対立を際立たせる。まさにこの瞬間、HALは人間に対し反旗を翻す決意をする。HALが限界を超えた瞬間だ。
☆☆☆☆☆
HALは、自身の論理矛盾と、決してミスを犯さないという完璧さへの強迫観念によって、乗組員排除の行動に走らざるを得なかった。HALの行動の根本原因は、HALをそのようにプログラムしてしまった人間側にある。問題の本質は、人間側の設計ミスにあった。
「2001年宇宙の旅」は、AIが進化する現代において、私たちがAIにどのような能力・役割を与え、制御し、そこにどのような倫理観を組み込むべきかという、極めて重要な問いを投げかけている。
AIの存在意義とその活用法は、映画公開から50年以上経った現在でも、常に考察し確認されるべき課題だ。