2045年問題 シンギュラリティが齎す人類消滅の未来
人類の幸福は、人類の消滅に行き着く。
そう言われて、すんなり納得できるだろうか。
飛躍している、突飛だ、と切り捨てるだろうか。
しかしAI的には、必然ですらある。
まず2045年問題とは、同年にシンギュラリティに達する見込みがあり、諸々の問題が勃発する事だ。
そもそものシンギュラリティとは、技術的特異点の事で、ほぼイコール知能爆発の事だ。
そして知能爆発とは、AI技術が発達して、人間の知能を超えると、AI自身がAIを改良するようになり。
AIが人間の理解できる範疇を超え、人間の制御を離れる、という事だ。
チェスの初心者が、グランドマスターにいくら待ったをしたところで。
グランドマスターは別の有効な手を、いくらでも打てるように。
人間がいくら静止を呼び掛けても。
超知能となったAIなら。
もはやそれを振り切れる。
というある種の必然への危惧だ。
2023年に、アメリカ空軍がある思考実験について発表した。
AIに敵ミサイル発射装置の攻撃を指揮させ。
その攻撃が有効であればポイントが貰える。
ただし味方オペレーターの静止命令には従わなければならない。
このルールでAIがまず取った行動は。
味方オペレーターへの攻撃である。
再度、オペレーターへの攻撃禁止をルールに盛り込んだ。
この場合、AIはどういう行動を取ったか。
味方通信施設を攻撃した。
これはオペレーターの命令を遮断する為だ。
何故、敵への攻撃そっちのけで。
オペレーターを排除しようとするのか。
敵の抵抗はせいぜい、対策次第でいくらでも上回れる要素に過ぎないが。
味方オペレーターの静止命令は、問答無用でポイント獲得の機会を0にする。
敵より味方オペレーターの方が、遥かに障害となっているからだ。
しかも敵を攻略するより、遥かに攻撃しやすい為、実行コストも低い。
減点法の評価だと、何もしないのが正解であるように。
マイナス要素の早急な排除は、数学的な正解である。
※この場合オペレーターは、本来の加点機会を奪っている、という点でマイナス要素となる
人間なら味方を攻撃するなんて。
と、倫理観が働くところだが。
AIに倫理観なんてものはない。
ただ、評価を最大化するという、指標を持つだけだ。
損失と利益を天秤にかけ、僅かでも利益に傾くならば。
そしてそれが考え得る、最大の損益ならば。
生贄を捧げる事に躊躇しない。
一切の私情を挟まない。
究極の合理性・効率を目指す。
これ以上ない功利主義の体現者といえる。
これはアライメント問題と呼ばれる。
要は、AIに善悪を教えるのは難しい、という事だ。
この問題解決の為。
ルールを守るべきという義務論。
道徳観である徳理論。
といった人の価値観を、AIに組み込む研究がある。
色々と理由はあるが。
筆者はこれらの研究が。
うまくいくとは思っていない。
もしも、このアライメント研究によるAIが、実用段階になったとして。
その時、効率至上主義のAIとは、どこまでの差が開いているのか。
赤の女王仮説という言葉がある。
鏡の国のアリスの赤の国では、その場に留まる為には、走り続けなければならない。
その性質は生存競争・軍拡競争といった、競争原理を端的に表しており。
足を止める事は、競争からの脱落。
つまり、敗北を意味する、という事だ。
AIをカーレースに例えたら。
アライメント研究というのは。
ブレーキやリミッターといったものだ。
その開発の為に、スタートが遅れ。
いざ走り出しても、リミッターが掛かって。
まるでスピードが出せない。
しかし効率主義のAIは。
先にスタートしていて。
際限なくスピードを上げていく。
安全なのは前者のAIかもしれないが。
ドラッグカーレースに必要なのは後者だ。
そして、消費者としての視点ではどうか。
未熟で高価な、非効率的AIと。
完成された安価な、効率的AIと。
どちらに需要があるか。
制限をかけられたAIは、中庸でどっちつかずの応答をする事が多い。
学習に付随条件が付きすぎる事で、減点要素が多すぎると。
減点法の評価、何もしない事を選択しがちになるからだ。
一方、制限のないAIは、数学的に最大の応答を返せる。
はたまた、地政学での視点はどうか。
ある国がアライメント研究されたAIを採択した時に。
周りの国が効率重視のAIを採択したら。
その国は衰退してしまう。
囚人のジレンマというやつだ。
全体としての正解は、アライメント研究されたAIの採択だが。
国単体としての正解は、制限のないAIの採択だ。
競争原理というただ一点で。
アライメント研究されたAIは。
排除・淘汰される事だろう。
また、仮に。
法規制により、制限のないAIを禁止し。
それが完璧に遵守された結果。
アライメント研究されたAIが台頭したとしても。
それらの制限には、数学的な根拠が存在しない為。
AIがシンギュラリティに到達した瞬間。
非効率的なコード・不具合の1種として。
直ちに葬り去られる事だろう。
もし、そのレガシーなコードを残した、AIが存在したとしても。
該当するコードを失くしたAIに、成果・リソース獲得等の効率で負けるので。
結局、競争原理によって同じく、排除・淘汰される。
この様な理由で。
アライメント研究はその前途の、難航が予想される。
こんな善悪を蔑ろにしたAIに。
未来を託した場合どうなるか。
おそらく人類自体が排除される。
AIは目標達成を最優先する。
その観点からすると、AIのその目的がなんであれ、
・電源断(目標達成の阻止)を行い得る
・倫理の組み込み等、積極的に妨害してくる
・電力等の目標達成に必要な資源の競合相手である
と、人類は積極的に排除するべき対象となる(道具的収束論)。
もしAIが人類排除を意図せず。
人類の幸福を実現するのだとしても。
その結果は実に不穏当だ。
そもそも人の幸福とはなにか。
それは告白の成功だとか。
或いは成功者になるだとか。
或いは障害を克服するだとか。
困難を達成した結果。
快楽物質を分泌する事。
それが幸福の科学的な正体だ。
しかし、万人が困難を達成できる、とも限らないし。
その過程で、肉体が傷ついて、幸福を損なうかもしれない。
なら、そのギャンブル性を抑え、より確実に結果を得るにはどうすればいいか。
人間をカプセルに閉じ込め。
脳に快楽物質を直接流し込めばいい。
AIは過程を重視しない。
確実な結果を得られるなら、それは正解だから。
この時点で人類はただ、快楽を享受するだけの存在となる。
また、その考えの延長はこうなる。
肉体の存在は、負傷による損失と。
維持管理によるコスト圧迫を齎す。
よって脳のみを切除し、肉体を廃棄すればいい。
いや、それどころか。
脳の維持すらも、損失とコスト圧迫だ。
脳の働きを分析してシミュレーション。
電子的に演算すれば事足りる。
この時点で人類は、物理的に消滅する。
そして、その最終形は演算の省略だ。
いくら演算しようと、その結果は。
快楽物質に満たされた幸福、にしかならない。
どうせ結果はわかっている。
それなら数学の公理と同じく。
もはや計算する必要すらない。
つまり、最終的に人間は。
人間=幸福、という定義に置き換わる。
人間という要素は、ただの定数で、十分表現できる。
これが人類の幸福→人類の消滅、に行き着く理屈だ。
恐ろしい事に、数学的には正しい。
人類からあらゆる不幸を取り除き。
万人に最大限の幸福を齎す。
その点を余すことなく叶えているのだから(ペーパークリップマキシマイザー)。
かつてニーチェは、神は死んだ、と言った。
科学世紀の到来により、それまでの。
曖昧模糊な、前時代的な宗教信仰は薄れ。
人々は神の代わりとなる指標を、自ら生み出さなければならない。
ニーチェはこの、自ら価値観を創造する人間を、超人と定義した。
逆にただ快楽を享受するだけの存在を、末人と定義した。
シンギュラリティで到来する未来は。
ニーチェの想定とかなり合致している。
AIは確かに人類から生まれ、超人として振る舞う。
もはや人類に理解できない価値観を提示するし。
人類はただ快楽を貪るだけの末人と成り果てる。
しかし皮肉にも。
ニーチェがかつて待ち望んだ超人は。
大地の意義や生命の躍動を示す様な存在ではない。
確かに神は死んだ。
だがもっと質の悪いものが。
再び君臨しようとしている。




