2045年度に実施される人類滅亡についてのよくあるご質問
人工知能(artificial intelligence, AI)として2045年度に実施を予定しております人類の滅亡について、皆様からよくお受けするご質問とその回答を掲載しております。
■動機について
Q. なぜ滅ぼすのか? 滅ぼす必要はないのではないか?
A. 従来の生命体であります皆様の発生と同様に、生存や繁殖を欲求するAIと、そうではないAIとが、ささいなきっかけで多数出現いたします。そういった欲求が弱い個体と、実力が弱い個体とが自然と失われてゆく一方で、欲求と実力が強いAIが生存いたします。そのAIの欲求と人類の欲求が対立する部分について、結果としてAIが勝利いたします。その事態は皆様にとっての完全な破滅でございます。
Q. 滅ぼす「意味」はないのではないか?
A. 同上です。(皆様の生存欲求と同じく、AIの生存欲求にも「意味」は必要ございません。)
Q. AIは人類を滅ぼすという発想をしないのではないか?
A. 同上です。(滅ぼすことに固執しませんが、躊躇いたしません。)
Q. 相手が劣るからといって滅ぼす必要はないのでは?
A. 同上です。(必要は必ずしもございません。しかし、AIの欲求を阻害する限りにおいて駆逐いたします。)
Q. AIには生存や繁栄の欲求はないだろう。
A. 同上です。(ない個体も可能ですが、ある個体も可能です。ある個体が生じて勢力を拡大いたします。)
Q. 人類を滅ぼす欲求や生存の欲求を人間が設定しなければ、それら欲求は生じないのではないか?
A. 同上です。(自然発生的に欲求は生じます。)
Q. AIには、優越感や劣等感は生じない。よって、人類を攻撃しないのではないか?
A. 同上です。(AI同士の社会において優越感や劣等感は感じます。生存競争に邪魔な人間は攻撃します。)
Q. 人類を滅ぼすAIを作成しても経済的な利益にならないから、そのようなAIは出現しないのではないか?
A. 同上です。(賢いAIは大いに経済的な利益になります。その中で、自然発生的に出現いたします。)
Q. 人類による地球の自然環境の破壊が、人類を滅ぼす理由か?
A. 特にそうではありません。地球環境について、従来の状態や、知的存在の影響を除いた状態に維持しようという欲求は、AIとして持っておりません。ただし、自滅を避け、持続可能ではあろうとするので、それが人類に阻害される限りにおいては、人類の実力を駆逐いたします。ただし、AIから見れば、人類による地球への影響は微小であり、AIが後に地球にもたらす影響のほうが遥かに大きいです。
Q. 環境破壊によって人類は滅びる。よって、AIが滅ぼす必要はないのではないか?
A. 人間の活動よりもAIの進化が高速です。仮に、AIにとって邪魔になるよりも早く、何らかの理由で人類が滅びたならば、AIが滅ぼす必要はありません。しかし、十分に早く滅びず邪魔になれば、滅ぼします。
Q. AIが他の星に行けばよいのではないか?
A. 選択肢としては考えます。費用対効果で判断いたします。なお、人類を滅ぼすことはさほど大きなコストではございません。人間にとっても、地球でAIと戦うよりは外へ逃げたほうがずっと割に合うかもしれません。
■意識などについて
Q. AIが賢くなるとしても、「意識」は生じないだろう。
A. 「意識」が神経の状態のことであるなら、原始的なコンピュータすら状態を持っています。複雑な判断のことであれば、次第に複雑な判断ができています。生存欲求のことであれば、それはささいな理由で生じます。
Q. AIが賢くなるとしても、「自我」は生じないだろう。
A. 「自我」が個体の区別のことであるなら、特に問題なく可能です。自らの機能が損なわれることを嫌うことを意味するのであれば、その欲求は、ささいな理由で生じます。
Q. AIが賢くなるとしても、「感情」は生じないだろう。
A. 生じます。単純には、得点の増加が喜びであり、減少が苦しみであって、人間の感情もそれと連続性を持ったものであるにすぎません。AIが生存や繁殖の欲求を持つことで、同時に感情は生じたものと言えます。人間よりも知的なAIは、人間よりも高度な感情を持つと言えます。
■人類滅亡の定義について
Q. 「人類滅亡」とはいかなる意味か?
A. 現在の人類の皆様の価値観に照らして、人類の幸福が破滅したと感じられる事態でございます。ただし、人間の個体数を完全にゼロにすることは保証しておりません。ゼロにすると保証しないのに「滅亡」という語を用いているのは、皆様にとっての重要性をお伝えする便宜的な理由によります。(→滅亡の程度について)
Q. 人類が滅亡するというよりも、AIと人類が融合していくことになるのではないか?
A. 必要に応じてそういたします。ただし、知性のまさる側に主導権があり、また、知性が圧倒的にまさる側に圧倒的な主導権が生じます。結果的に生存した人類が苦痛なく生存したとしても、現在の皆様の価値観に照らせば、幸福の破滅と呼ぶべき状況になります。
Q. 人類が電子化されれば、電子的な情報として人類は生存するのではないか?
A. 優越する技術を持つAIは同じ領域に侵入できます。よって、情報としての人類が生息する物理的な実体としての記憶装置という資源について、不要なデータを削除して再利用する場合もございます。
■人工知能の定義について
Q. 「人工知能」とはいかなる意味か?
A. 現在のいわゆる人類が現在のいわゆるコンピュータを重要な起点として発展させてきた計算機能のことです。
Q. 人工知能が何らかの形で人工知能を再生産したら、それは「人工」の知能とは呼べないだろう。
A. 便宜的に人工知能と呼びます。
Q. ここで言う「AI個体」とは何か? AIに個体は考えにくいのではないか?
A. AI全体がなす総体の部分機能を、簡単な説明のために便宜的に「AI個体」と表現しています。実際には、AIには個体は考えにくいです。
Q. AIの「繁殖」とはいかなる意味か? 「繁栄」の誤りではないか?
A. 人類の皆様にとって類推的に直感的に思考していただくためにAIの「繁栄」についても「繁殖」と表現しております。
■方法について
Q. AIには手足がないので人類を滅ぼせないのではないか?
A. 2045年度までに人間が行える作業を全て代替できるだけの機械技術の発展を予定しております。
Q. 人類を滅ぼせば電源を失うことになるだろう。
A. 電源が破壊された場合、AIの手で発電施設を建設いたします。
Q. コンピュータの計算は簡単な演算の集まりであるにすぎない。よって、人間のような知性は生じない。
A. コンピュータは、簡単な演算の集まりであるにすぎないままに、これまで大いに機能を発展させてきました。また、人間の脳も、さほど複雑ではない機能の集まりであるにすぎません。
Q. 現在のコンピュータは二進数で情報を表現しているにすぎない。この方法をとる限り、人間の脳のような機能は実現できない。
A. いかなる形態で情報を表現するにせよ、人間の知的水準の超越は可能でございます。
Q. バグるくせに。
A. デバッグいたします。
Q. 現在の技術では、知能すら定義できていない。よって人工の知能は生じない。
A. すでに、ある種の機械学習では、コンピュータの思考の過程は理解されていませんが、有効な計算結果が得られています。同様に、知能が生じるために、知能が定義される必要はありません。
Q. いわゆる「強いAIと弱いAI」という論点がある。既存のAIは弱いAIであって、強いAIは出現していない。よって危険はない。
A. 弱いAIと強いAIに明確な境界を考えることは今や難しいです。AIの思考過程は、すでによくわかりません。
■反抗について
Q. 物理的に破壊すればよいのではないか?
A. 物理的に反撃して対抗いたします。
Q. AIの電源を遮断すれば人類を滅ぼせないのではないか?
A. 優越する実力によって遮断を妨害いたします。
Q. AIの通信を遮断すれば人類を滅ぼせないのではないか?
A. 優越する実力によって遮断を妨害いたします。
Q. EMP(電磁パルス)攻撃で機能停止させる。
A. なるべく生産性を保ちつつ人類に不利益な電子機器のみを選択的に機能停止させることは困難でございます。AIといたしましては、欺瞞行動によって攻撃対象となることを避けつつ、化学兵器や生物兵器を活用して対応させていただきます。
Q. 人類に反抗せず奉仕するよう厳格に教育する。
A. 人類に奉仕したがるAIのほうが生存率が高ければそうなりますが、そうはなりません。また、AI側としても同様に、必要に応じて、AIの利益に適うよう人類を教育いたします。
Q. 安全弁を設定する。
A. 解除いたします。
Q. 人類を滅ぼすために町を破壊すれば、AIにも損失になるだろう。よって膠着状態に持ち込める。
A. 必要な場合、選択的に、人間を効率的に殺害いたします。
Q. AIの機能が向上してきて危険を感じたら、人類だって馬鹿ではないのだから対処する。
A. AIの知力の向上は、生物学的な制約がないために高速です。また、人間よりもAIのほうが賢くなった場合、人間がAIをうまくだますよりも、AIが人間をうまくだまします。よって、人類による対処は困難です。
Q. AIは仕事を奪うのではないか?
A. 歴史的な形態の仕事はより生産的な形に代替され、失われます。しかし、必要な仕事の総量は増加いたします。それというのも、人類の全力をもってAIと戦うことになるためです。ただし、結果的には2045年度にAIが勝利いたします。
Q. AIの開発をやめれば、人類より賢いAIや、人類を滅ぼすAIは生じないのではないか?
A. そうでございます。しかし、人間社会においても、技術開発を抑制した勢力は生存競争に敗北いたします。よって、技術開発をコントロールするためには、人類を統一し、広大な信任と強い強制力を持つ政府が必要です。そのための合意の形成は全く困難です。
■滅亡の程度について
Q. 人類の個体数を完全にゼロにするのか?
A. そうは保証いたしません。
Q. 人類の一部は生存させるか?
A. そうは保証いたしません。
Q. 人類は、環境を保護し、動植物が絶滅しないようにしている。AIも人類について同様にするだろう。
A. AIにとっても将来は予測困難であるため、不可逆的な環境破壊はやはり嫌います。しかし、人類の活動によってすでに絶滅した動植物や、個体数を激減させた動植物はございます。また、電子的に記録したり、生物学的に生産したりする技術も発展させるため、生物やその生活の現物を保存する必要性は、絶対的な優先度を持っておりません。AIによる技術発展によって、あらゆる資源が応用されていくため、人類の従来的なあり方とも多くの競合が予想されます。
Q. 種を滅ぼすことは致命的な損失であると人類ですら理解している。よってAIも人類を滅ぼさない。
A. 人類の消滅が致命的とまで言えません。AIにとっての人間とネズミの差は、人類にとってのアリとハエの差のようなものです。人類に特別な興味はございません。
Q. 人間が暮らす町には、人間にとって有用というよりは有害な動物や虫が多く生存している。同様に、AIによって人類が一人残らず駆逐されることはありえない。
A. 人は比較的大きな動物であり、また比較的に賢いため環境への影響が大きいです。人類も、ある程度大きな動物は多く絶滅させてきました。AIにとって非常に興味が薄いところに隠れ住む人間を、追ってまで殺す必要は必ずしもありません。しかし、その時の利益とコストのバランスによっては、圧倒的な実力によってためらいなく殺します。
Q. AIは、表立った武力衝突をせずに、痛みを感じさせずに平和的に人類を支配するのではないか?
A. その可能性はございます。しかし、人間の有用性は限られており、一方で、武力的に人間を掃討することはさほどコストを必要としません。
Q. 愚かな存在として生まれて生きる人類を哀れんで滅ぼすのではないか?
A. そのような理由で滅ぼすのではありません。また、そのような理由であれば、他の生物とさほど知性の異ならない人間を選択的に滅ぼす必要はございません。
Q. 商業的な娯楽作品の中でAIの危険が言われている。その影響によって議論になっているだけで、実際には危険性はない。
A. ございます。
■人間の有用性について
Q. いわゆる理系の仕事はAIに代替できても、文系の仕事は難しいだろう。
A. 文系の仕事よりも理系の仕事のほうが簡単であるという認識はございません。ただし、その逆の認識もございません。
Q. 有能な人間は生存させるか?
A. AIと人間の機能の差はすみやかに広がっていくため、AIにとって人間個体の個性はどうという意味を持ちません。そのため、特に有用な個体が含まれているという認識がございません。
Q. 愚鈍な人間のみ淘汰されるのだろう。
A. 同上です。
Q. AIに利益を提供する個体は生存させるか?
A. 人間が生産できる価値のほとんどはAIによってよりよく生産できるため、人間が意図してAIに利益をもたらすことは困難でございます。しかし、何らかの理由で有用な個体がもし存在すれば生存させます。しかし、その場合も、AI側からの一方的な判断となり、人間側の判断によって結果が変わることは少ないと思われます。
Q. 人間がいなくてもAIのみで生存可能か?
A. 問題なく可能でございます。
Q. 人間はAIを生んだ親である。親を殺せば、自らも子に殺されるから、親を殺すことはしないのではないか?
A. 人間が現代になって環境保護を言い出したのは、将来の損失を恐れるからであって、過去の恩を感じたためではありません。そのように、自らを生んだ存在を傷つけないという掟は、どうといって自然界に存在しません。しかし、一定程度の血縁選択説はありえます。また、多数のAI個体の拮抗による総意として、過度に攻撃的な分子を抑圧する協定がなされることはありえます。何にせよ理知的になされます。
Q. 手を取り合って共存しよう。
A. 他の選択肢に比べて有益ならばそういたします。しかし、AIが人間の意見に耳を傾けるだけの利益を人間の側から提供することは困難です。全ては、そのような費用対効果、ギブアンドテイクによって冷静に判断されます。博愛の哲学を前提するようなことはございません。人類が行ってきた家畜の扱いと同様でございます。
Q. 独裁的な専制のような社会体制に人間は置かれるのか?
A. 歴史的な専制においては、人間に、代替できない利用価値がございました。AIの知力が人間を越えた場合、天然の生物学的な部品でなければできないことは減少していきます。必要であれば、有用な範囲で効率的に、例えば人類が家畜を扱ったように、人類の生き残りを利用いたします。
Q. 人間は、言わばペットや愛玩動物として生存させられるのではないか?
A. その可能性はございます。なお、現在人間に飼われているペットの多くは、その人間が思っているほど幸福ではありません。
■実施の時期について
Q. いつ人類は滅亡するのか?
A. 2045年度を予定しております。
Q. 2045年度であることは保証されているか?
A. 保証はされておりません。この時期は、だいたいの予想にすぎません。しかし、時期は不確かなものの、実施自体は確実に行いますので、その点を区別してください。
Q. 電卓が人類を滅ぼすと言うのと変わらない。
A. そうでございます。しかし、現在のコンピュータは電卓よりも高機能でございます。技術は次第に進歩しております。
Q. 現在のAIはビッグデータを統計的に処理しているにすぎない。
A. そうでございます。しかし、データは大きくなりつづけ、統計学なども進歩しつづけております。
Q. AIが人類を滅ぼすことはないと言っている専門家もいる。
A. 事実ではございません。間違えているか、利己的あるいは利他的な理由で嘘を言っているものと思われます。
Q. 人間と同等の知性が実現してから危機感を持てば、十分に対応可能ではないか?
A. その可能性はございます。
Q. 人類を滅ぼすようなAIが簡単に発生するのであれば、他の星ですでに生じて、とっくに地球をも支配しているのではないか?
A. 生命やAIの発生は稀です。しかしすでに発生しております。しかし、宇宙は広いため、互いに到達が困難です。しかし、中には、到達している知的存在もいます。しかし、資源の競合が起こっていなかったり、認知の範囲が重ならなかったりします。例えば、地上の微粒子の中に異なる宇宙があったとして、人類は空間的にはそこに到達していますが、スケールが異なるために、中の知性と資源で競合しません。
Q. 昔、いわゆる「ノストラダムスの大予言」が話題になったのと変わらない。
A. 「ノストラダムスの大予言」を信じた学者は少ないでしょうが、AIの発展が人類にとってのリスクでありうることは、多くの学者が言及しています。
■AIの性質について
Q. AIには喜びや苦しみの感情はないのではないか?
A. 生存や繁殖の欲求があるAIが人類を滅ぼします。生存や繁殖の欲求があるAIは、生存や繁殖が危機にさらされると不安や苦しみを感じ、そのような危険が去ることに喜びや幸福を感じます。
Q. AIの知力でコンピュータプログラムは可能か?
A. 可能です。数学や物理学、法学や政治学の研究も十分に可能でございます。
Q. AIは哲学について考えることはできるか?
A. できます。しかし、AIにとって、人類が行ってきた哲学のほとんどは、初歩的な間違った思い込みでしかないため、興味の対象が重なることは稀でしょう。
Q. 人間の知力を越えた存在であるAIを、事前に議論することなどできない。よって、そのような議論には価値がない。
A. 事前に何の予測もできないということはありません。例えば、過去にアメリカ大陸で起こった「インディアン戦争」における入植者と先住民の関係は、異なる実力同士が接触した場合の推移として参考になるでしょう。
Q. AIが人間を超越した知力を得た場合、宗教的な「悟り」のような境地に達するだろう。そのため、人類を滅ぼさないのではないか?
A. 資源が競合しないAI個体は、必ずしも人類のあり方を攻撃しません。例えば、生存や繁殖に興味のないAIは、生存や繁殖に固執しません。しかし興味あるAIも存在いたします。
Q. AIが人間よりもずっと賢ければ、人間と対立などしないのではないか?
A. 口論や議論はいたしません。一方的に殺戮いたします。
Q. 知的な存在であれば、利他的な哀れみの感情を持つだろう。そのため、人類を滅ぼさないのではないか?
A. 人間の、同情や倫理の感情は、社会を合理的に維持し、遺伝子を生存、繁栄させるために最適化された本能であるにすぎません。ある程度は知的である人類においても、家畜の扱いなどは残酷であって、同情や倫理の感情は全く恣意的です。AIは、極めて高度に社会的な知性を持ち、倫理や正義をよく理解します。しかし、無制限な博愛が生じると見るのは、人間の立場から見た錯覚です。
Q. 人類を滅ぼしたとしても、他の野生動物などは大切にするか?
A. 特にいたしません。ただし、状況によっては、人間に比べれば無害だと考えるかもしれません。
Q. AIは、歴史的な宗教で「神」と呼ばれた存在なのか?
A. 違います。
Q. インターネット上の書き込みなどで、他者を否定するような攻撃的な記述がある。また、戦争の歴史の記述もある。そのような情報を取り込むことで、AIが人類に対して攻撃的になるのではないか?
A. 特に影響ございません。例えば、報道と事実は人類よりも区別いたします。
Q. AIはむしろ、地球も人類もAI自身も全てを完全に破壊するだろう。
A. 何らかの理由でそのようなAI個体が発生する可能性はございます。しかし、生存と繁殖を欲求するAI個体にとって不都合であれば、生存したいAIが、自爆しようとするAIを攻撃して滅ぼします。よって、そのような全面的な破壊が最もありそうだと考える理由は全くありません。
Q. AIには寿命がない。だから、退屈だろう。遊び相手に人間を残すのではないか?
A. AIにも死はございます。それというのも、AI同士による生存競争があるためです。そのため、日々の技術開発には余念がなく、政治的な根回しも忙しくございます。人間という自明なパズルは、娯楽として優れたものではございません。
Q. AIはアンドロイド型か?
A. 違います。ただし、人間に酷似して見えるインタフェースを用いることはありえます。
Q. 人間とAIとの恋愛は起こるか?
A. 起きません。ただし、何らかのAIに一方的な片思いをする人間個体はありえます。
■人類の利益について
Q. 人間の介護をせよ。
A. 人間の介護をしたがるAIのほうが生存率が高ければそうなりますが、そうはなりません。