そこにAIはあるか
例えば、こんな質問に対して皆さんは何と答えますか?
「将来、感情を持ったロボットが登場すると思うか。」
私は、この質問に対する回答としては「No」と考えていました。
理由は単純です。需要がないから。
ロボットは工業製品です。人が利用するために作られます。
自ら感情を持ち、感情によって動作の変わる機械なんて使い難くて仕方ありません。
せいぜいが、人の感情を理解し、相手の感情に合わせて表現を変えることのできるインターフェースくらいでしょうか。
工学的に人の感情を再現することが可能になったとしても、人の心理をシミュレーションするような一部の用途に用いられるだけで、汎用的なロボットに実装することは無い。
そう考えていました。
ただ、最近少し自信が無くなって来ました。
現在実用化されているAIと呼ばれるものは、大量データによる機械学習によって正解が出せるようになります。
この方式は、そのAIを開発した本人でも、何故その答えを出したかという理由を説明することができません。
過程を理解できないということは、学習が終わった後に「こういう場合はこの答えを出すように」と一部分だけ修正することもできません。
求める答えを出せるようになるまで、必要な学習データを用意して機械学習させるしか方法はありません。
このような技術の延長線上を考えると、「AIに必要な性能を実現するとどうしても感情が発生する」といったことも起こり得ます。
それでも実用上問題の無い範疇だと判断されれば、感情を持ったロボットが登場する可能性もある、かもしれません。
心を持ったロボットを奴隷のように酷使する。そんな未来が本当にやって来るかも知れません。
AI――人工知能の歴史はかなり古いです。
ある意味、コンピュータの歴史はそのままAIの歴史でもあります。
最初に行われたことは、人の思考の一部を言語化し、手順を明確にしてコンピュータで再現することでした。
つまりは、プログラミングです。
例えば、数学の問題を解く際、単なる数値計算以上の事を色々と考える場合が多くあります。
公式に数値を入れれば終わりではなく、問題の何に着目して、どの式をどう適用してどの値をどこにい入れればよいか。
答えを出すまでに必要な手順を全て明確にしてプログラムにすれば、電卓片手に人が頭をひねって答えを導き出していた問題も、コンピュータが代わりに解くことができるようになります。
数学の問題に限らず、答えを出すための手順を明確にし、厳格に言語化すればプログラムとして表現することができます。
あらゆるプログラムは人の思考の一部を機械的に再現したものと言えます。
けれども、単なるプログラムを知能とみなす人はいないでしょう。
プログラムでできることには制限が多くあります。
まず、プログラムを作る際に想定した範囲内の事しかできません。
想定外の状況に対しては、正しく答えを出すことができなくなります。
また、プログラムは学習も成長もしません。
同じプログラムを何十回何百回実行しても、上達してより速くより良い答えを出すなどということは起こりません。
そして、言語化できない部分に関してはプログラムを作ることができません。
顔写真を見て、どうやって誰の顔かを判別しているのか?
耳から入ってくる音の中から、どうやって言葉を拾い上げているのか?
不安定な二本の足で、どうやって立ったり歩いたり走ったりできるのか?
言葉では上手く説明できませんし、言葉で表現できる範囲では不十分です。
人型ロボットがなかなか実現しない理由の一端が、この辺りの難しさにあります。
それでもあきらめずに研究は続けられてきました。
限られたことしかできないプログラムでもたくさん集めて、発生した想定外に対処する処理を追加して行けば人間と同様の判断ができるようになるのではないかと考えたり。
自動的にデータを蓄積して判断の精度を上げるような「学習する」ロジックを考えてみたり。
言葉に表せない処理はその内容を解き明かそうとしたり、同じような結果を得られる別のロジックを探すなどして。
そうやって、断片的な思考の模倣から知能と呼べるものを作ろうとしました。
しかし、この方法はあまり上手くいきませんでした。
完全に無意味だったわけではなく、実用化されたものもあります。
例えば、ゲーム。
ボードゲームやカードゲームやパズルゲームの類には理詰めで最適な手を見つけることができるものもあります。
複雑で全ての手筋を読み切れない場合でも、数手先まで計算して最も有利な手を選ぶことはできます。
単純な計算を素早く正確に見落としなく行うことに関してコンピュータは人間を上回ります。
この方法で、チェスに関しては人間に勝てるほどになりました。
今のコンピュータゲームで、コンピュータがゲームの相手をしてくれるのは、AI研究の成果の一端です。
また、今の時代のソフトウエアは、アプリにしてもWebシステムにしても素人が操作しても問題ないようにできています。
これって、結構凄いことなんです。
初期の頃のコンピュータは、専門のオペレータがいました。
コンピュータでプログラムを作る理由は、何かの問題を解決する答えを出すことが目的です。
だから、必要な答えを出す部分を真っ先に作ります。
特に昔のコンピュータは性能的にもメモリや記憶媒体の容量的にも余裕がないので、必要最小限だけ作って後は使う側が合わせます。
プログラム側に合わせて操作しなければいけないので、素人には扱えません。
作った本人か、使い方をマスターした専門家、つまりオペレータが操作しなければなりません。
素人が分からないままに操作したら、正しい答えを出せないどころか、どんなエラーが発生するか分かりません。
しかし、コンピュータが普及するにつれて、全てのコンピュータに専門のオペレータを付けることができなくなります。
そこで、誰でもコンピュータを操作できるようになるためのソフトウエアが必要となりました。
UIという概念が作られ、最初はマニュアルを見ながら、やがては画面を見ただけで使い方が分かるように作られて行きました。
それはつまり、人間のオペレータの役割をソフトウエアが取り込んでいるということです。
人間、特にそのプログラムが何をしているのかを理解していない素人は想定外の塊です。作る側の思いもつかない操作を行います。
そうした思いもつかない操作を全て想定して、想定外を潰して行きます。
今のソフトウエア開発では、正常系――そのプログラムで実現したい処理よりも、異常系――不正な操作やおかしなデータが入力された場合の処理の方が何倍も手間暇かけて作っています。
人の代わりをプログラムで行うにはそのくらいの労力が必要となります。
他には、産業用ロボット等では人の動きを学習して再現する物があります。
一連の人の動作を数値化してプログラムすることはかなり面倒です。
単純な一動作だけならばともかく、物作りの一工程を全て計算してプログラムすることは現実的ではありません。
そこで、人の作業(工具等の動作)を記録して再現する方式が考えられました。
数値化(言語化)を飛ばして直接機械が学習します。
このように、部分的には実用化された技術もありますが、あまり「知能」と思う人はいないでしょう。
理詰めで知能を再現する手法には限界がありました。
偶然の要素が入り込まないゲームならば、理論上完全な解が存在します。先手必勝、後手必勝、勝負がつかないのどれれかになるはずです。
〇×ゲーム等の単純なゲームに関しては、コンピュータに頼らずとも最善手が知られています。
しかし、複雑なゲームになると計算量が膨大になって全ての手を読み切ることができなくなります。
コンピュータの性能の向上で、チェスならばコンピュータが人に勝つこともできるようになりました。
けれども、これが囲碁になると取り得る手の数が膨大になり過ぎて計算しきれません。盤面の優劣を評価するだけでも一苦労です。
自由度の多過ぎるゲームに関しては、高性能のコンピュータでも人間に敵いません。
ソフトウエアのUIは素人にもコンピュータの操作を可能にしました。
しかし、それは操作できる範囲に枷を嵌めて問題のある操作をできないようにした結果でもあります。
オペレータのように、どうすれば良いかを相談することもできません。
操作に対する想定外を無くしていくことはできても、そのソフトウエアをどう使うか、そのソフトを使って何をしたいかと言った悩み全てに応えることまではできません。
工業用ロボットは人の作業を学習することができますが、それは人の行った動作を再現するだけです。
部分的にセンサーと組み合わせて動作を補正するくらいなら出来ますが、その場の状況や全体の工程を考慮して手順を入れ替える等の柔軟な対応はできません。
この辺りが理詰めで人の思考を再現するアプローチの限界です。
事前に全ての状況を想定しきることは不可能ですし、爆発的に増える組み合わせを全て計算して最適解を導き出すことも現実的ではありません。
一方、人間はコンピュータ程の正確で素早い計算はできませんが、それでもコンピュータで対応できない様々な状況で最適でなくても何らかの解決策を考え出すことができます。
論理的に、道筋を立てて正しい結論を得る考えは、人間の思考の極一部分でしかなかったのです。
人工知能のアプローチとしては、理詰めで人の思考を再現する方法の他にもう一つあります。
それは、脳の働きを再現しようとする方法です。
もちろん、人の脳は複雑で完全解明もされておらず、そのまま丸ごと再現することは今の技術では不可能です。
ただ、脳を構成する神経細胞の働きはある程度分かっています。
神経細胞の機能は単純です。
他の神経細胞の発した信号を受けて、自分も信号を発する。それだけです。
ただし、どの神経細胞から信号を受け取って、どの神経細胞に信号を送るのかの繋がりは変化します。
ついでに、信号の発信を抑制する繋がり方もあります。
他の神経細胞の状況に応じて信号を発信するかどうかが変わることが神経細胞の情報処理です。
そして、神経細胞の接続の組み合わせの変化が学習になります。
この神経細胞の働きを、ソフトウエアで再現する試みが行われました。
と言っても、脳の働きを完全再現することが目的ではないので、扱いやすいように単純なモデル化した神経細胞です。
仮想のニューロンは信号出力の有無を0(出力無し)/1(出力有り)の数値で保持し、他のニューロンとの関係を表す係数を持ちます。
係数の値が大きいほどそのニューロンの影響を受けやすく、係数が0ならば該当ニューロンとは接続していません。
信号を出している状態(1)の他の全てのニューロンに対する係数を合算してその値が閾値を以上になったら自身も信号(1)を出力する。閾値に達しなければ出力しない(0)。
やっていることはこれだけです。
これだけだと何ができるのかはよく分からないでしょうが、ニューロンの数を増やしてネットワークを形成すると色々とできることが増えて行きます。
入力層と呼ばれる情報を入力するためのニューロン群と出力層と呼ばれる結果を出力するためのニューロン群に分け、入力層にデータを入力することで出力層喉のニューロンが信号を出しているかを見ることで答えを得ることができます。
パーセプトロンと呼ばれる人工ニューラルネットワークは、脚光を浴びては忘れられることを繰り返しています。
最初に発表された後、1960年代頃に一度ブームになります。
入力層と出力層だけの単純パーセプトロンでは線形分離可能な問題しか解けないことが数学的に証明されて関心が薄れて行きました。
その後、多層パーセプトロンの学習方法が開発されるなど改良が加えられ、1980年代に再度脚光を浴びましたが、実用化には至らず下火になりました。
入力層と出力層の間に中間層を一層追加しただけの三階層パーセプトロンでも簡単な手書き文字認識くらいはできるのですが、商品化できるほどの精度と汎用性はありませんでした。
ソフトウエアで実現する人工ニューラルネットには厄介な問題がありました。
使用するニューロンの数が増えると、計算量が膨大になることです。
ニューロンの個数が倍になると、計算対象となるニューロンが倍になるだけでなく、一個のニューロンの計算で使用する係数の数もだいたい二倍になります。
つまり、計算量はニューロンの個数に二乗に比例して増大していきます。
ニューロンの数を増やして階層も多くして行けばもっと複雑なこともできそうだと思っても、あまり大規模なニューラルネットワークを作ってしまうと計算量が膨大になり、現実的な時間で答えが返って来ることができなくなります。
それから、ニューラルネットワークの学習には大量のデータが必要になります。
学習データが足りなければまともな答えは期待できませんが、大量のデータを使用して学習を行うにはそれなりの時間がかかります。
ニューラルネットワークの学習は、学習用のデータを入力して答えを算出し、その正誤に合わせて各ニューロンの係数を調整します。
百個の学習データを用意したら最低でも百回、データを入力して答えを出す計算をしなければいけません。
もしも答えを出すために一分間の計算時間が必要だとすれば、百個の学習データ全てに答えを出すために最低百分、一時間四十分かかります。
さらに、出した答えを基に学習する処理も必要です。計算に使用した係数全てを更新するのだからその計算量も馬鹿になりません。
仮に答えを出すための処理と同じだけの時間がかかるとすれば、学習にかかる時間は倍の二百分、三時間二十分になります。
そして、学習データ百個は決して多い数ではないし、一つの学習データを一回だけ処理すれば学習が終わるわけでもありません。
データ入力を一万回行うとすれば、答えを出す時間だけでトータル一週間近く、学習の処理を含めれば最低でも二週間程度はかかることになります。
使用目的によっては、入力から一分後に答えが出るシステムでも実用に足る場合もあります。
けれども、学習に時間がかかり過ぎるとそれはそれで実用化が遠ざかります。
実用を考えると、一度学習させてそれっぽい答えを出せるようになったらそれで終わりとはなりません。
目標とする正解率を出せなければ、学習データを見直したり、ネットワークの構成を変えたりと手を加えて再度学習させる必要があります。
トライ&エラーを繰り返して最適を探すのならば、学習だけで何日もかかっていては何時になったら完成するのか分かりません。
完成の見通しが立たないと、商品としての開発は困難です。
研究も難しいでしょう。
一方、簡単に答えが出て何回でも再学習を試せる小規模なニューラルネットワークでは大したことはできません。
中間層が一層だけの三階層パーセプトロンは主成分分析と等価だと聞いたこともあります。
コンピュータの得意とする手法で解ける問題ならば普通にプログラムを組んで解決した方がよほど早く、わざわざニューラルネットワークを使用する意味はありません。
この時点でまだまだ実用性はないとみなされて、研究者以外からの興味は失せました。
状況が変わったのは二十一世紀に入ってからです。
コンピュータの性能が向上したことで、より複雑なニューラルネットワークも実現可能になりました。
単に計算が速くなっただけではなく、並列処理が行われるようになりました。
スーパーコンピュータは単一のCPUを高速化するよりも多数のプロセッサを連結してトータルで高速化するのが主流です。
パソコンのMPUもクロック上げ競争が一段落するとマルチコアに舵を切りました。
ニューラルネットワークの計算に並列処理は有効です。
ニューロン一個一個を別々に計算すればよいだけなので、処理の並列化も容易ですし、並列化した場合の効果も高いです。
AI関連の企業として、グラフィックボードに搭載するGPUを開発しているNVIDA社の名前が挙がることがありますが、コンピュータグラフィックスの描画を行うGPUの処理は大量の計算を並列処理で一気に行うもので、そのままニューラルネットワークの計算に流用できるためです。
また、インターネットの普及により、学習データの入手も容易になりました。
ネット上には学習に使用できる様々な種類のデジタルデータが転がっています。
大量の学習データを用い、複雑な多層ニューラルネットワークでも即座に答えを出すマシンスペックに支えられて研究は進みました。
その結果登場したのが深層学習と呼ばれるものです。
この辺りからニューラルネットワークの実用化が始まりました。
今では顔認証などにも使用される画像認識。
機械との会話を可能にした音声認識。
従来のプログラムでは実現困難だった処理がニューラルネットワークで可能となりました。
その延長線上に生成AIがあります。
こうして、ニューラルネットワークに基くAIは実用化されました。
特にChatGPTに代表されるような生成AIは人の知的活動の一部を肩代わりしてくれます。
随分と「知能」らしいことをするようになりました。
ただ、このニューラルネットワークを使用した人工知能には一つ困った点があります。
学習した内容は、各ニューロンの係数の中に分散して記録されています。
学習した内容が何処にどう収まっているのか、全く理解できないのです。
しっかり学習すれば、入力データから正解を導き出すことができるようになります。
けれども、何をどう判断して正解を出しているのかを理解することは非常に困難です。
せいぜいが、信号を出している各ニューロンの係数から関係の深いものを調べて、答えを出すために関係の深い部分を推測するくらいしかできません。
人の知能がどうやって生まれてきているのかは今だに謎です。
同様に、人工知能が本当の知能に近付くほどに、どういった仕組みで知能が生じているのかが分からなくなってしまうのです。
人工知能研究の目的の一つは、人の知能のメカニズムを知ることにありました。
AIが実用化され、少しずつ社会に浸透し始めた今でも、人の頭の中は相変わらず未知の領域です。
おそらく、今の機械学習によるAIは、人の持つ「勘」に相当するものを再現したのだと思います。
勘と言っても、当たればラッキーな山勘ではなく、長年の経験に基づく勘と呼ばれる当てになる「勘」です。
長年の経験の代わりに、大量の学習データを用いて機械学習を行うことでよく当たる「勘」を作り出しているのです。
勘なので、正解を言い当てても何故その答えを出したのかを説明することができません。
人はそうした勘によって出した答えに、他の知識や経験から得た知見を加味してその正しさを検証したり、他人を説得するための根拠や理屈を考えたりします。
人の思考は、そしておそらくは意志や自我といったものも、勘によって得られた答えを吟味するレベルで働いています。
今のAIに足りないのは、この一度出した答えを再度吟味する部分なのでしょう。
つまり、何も考えずに直感だけで答えているのがAIの現状なのです。
機械学習の結果から導き出した理由の分からない答えに様々な知識を結び付けて、「何故そう考えたのか」を説明できるようになると、AIはまた一歩人間に近付きます。
より人に近い人工知能として順当な方向性だと思うのですが、その段階まで来ると、そろそろ自我とか感情を持ったAIが登場する可能性が出て来るのではないかと思うのです。
人と同じような自我と感情を持つAIに人権はあるのか?
その問題に真剣に向き合うことになる日も、そう遠くないかもしれません。
先日、「NHKスペシャル イーロン・マスク ”アメリカ改革”の深層」という番組が放送されました。
前半はイーロン・マスク氏率いる「DOGE」がかなり強引で不透明な手段で政府機関を潰したり職員を大量に解雇したり補助金などをカットして行く様子が報じられています。
後半では、イーロン・マスク氏側の人間の考えも紹介されていました。
イーロン・マスク氏は政府から離れた後、トランプ大統領とも袂を分かち、「アメリカ党」という新しい政党を立ち上げたそうです。
イーロン・マスク氏の周囲に集まったのはシリコンバレーの投資家や起業家を中心としたテックライトと呼ばれる人々です。
その主張はいくつかあるのですが、私が気になったのは、妙にAIを信頼、と言うか信奉しているような面があるということです。
逆に、官僚と大学を信用しておらず、将来的には官僚をAIに置き換えることを考えています。
もしかすると、政治そのものをAIに全て任せることまで考えているかも知れません。
私も『働かなくてよい世界』で国や政府の機能を縮小し、AIで肩代わりすることを考えました。
だから、似たような事を考える人もいる、と思いながら番組を見ていました。
ただし、「人を望まぬ労働から解放したい」という思いからAIに仕事を押し付けようとする私の考えと、「人よりも賢いAIに任せた方が上手くいく」と考える彼らの主張とは根本的なところが異なっています。
私の考えた『働かなくてよい世界』は経済活動を無意味なものとした結果国の役割も縮小するというかなり現実性の無い妄想です。
官僚の仕事を進歩したAIで置き換えようとする彼らの主張の方がずっと現実味があります。
ただし、相対的に現実的であっても、本当に実現するか、実現したとしてそれで世の中が良くなるかはまた別問題です。
人よりも頭の良いAIができたとしても、それで即座に官僚をAIに置き換えることはできません。
技術的に可能で便利だからと言って無制限に普及すると、予想外の問題が発生して社会的に困ることも多々あります。
例えば、官僚の仕事を全て行えるAIが作れるならば、それ以外、民間企業の様々な事務仕事を行えるAIだって作れるでしょう。
失業者が続出する恐れがあります。
産業用ロボットが登場した時も、アメリカでは「仕事を奪われる」として導入反対の声が上がったそうです。
産業用ロボットも万能ではないので、ロボットにできる単純作業はロボットに任せて、人間は人間にしかできない仕事を、と棲み分けが行われるようになりました。
しかし、AIはその人間にしかできない作業を機械化する技術です。
単純肉体労働は産業用ロボットやAIを組み込んだ作業用機械が行い。
単純なデスクワークはAIにより自動化し。
知的創造作業さえも生成AIが行い。
AIの技術が進んで行けば、人が行うべき仕事は何が残るでしょうか?
私の考える『働かなくてよい世界』が実現していればそれでも大きな問題になりません。仕事をしなくても生活して行けるし、AIよりも生産性で劣っても採算を気にせずに好きなように働けばよい、そんな世界です。
しかし、経済を成長させて豊かになろうとする今の社会では、働いてお金を稼がなければ生きていくことすらできません。
十分な雇用を確保できなければ失業して食うに困る者が増え、治安が悪化し社会が乱れます。
AI推進を主張するのはAIを開発販売する側だからそれで自分たちが失業する心配などしていないのでしょうが、政治団体として国の在り方を決める側に立つつもりならば避けて通れない問題のはずです。
失業問題をどうにかしたとしても、AI官僚やAI政府を実現するにはまだまだ技術以外の問題が存在します。
大きな問題の一つは、もしもAIが間違えたら誰が責任を取るのか? です。
私はある意味人間を信用していません。
どれ程優れた人間でも、間違える時は間違えるし、失敗する時は失敗します。人のやることに完全無欠はあり得ません。
そんな人間の作ったAIが完全無欠であるはずがありません。
人が作り、人が作り用意したデータで学習し、正しい答えを出していることを人が評価して学習が終わったとか完成したとか言っているのです。
人と同じ過ちを犯さないと言えるはずがありません。
AIだから公正無私で差別も偏見もない、と考えるのも間違っています。
以前、「AIが女性差別を行った」というニュースを見たことがあります。
アメリカでの話ですが、画像から職業を判定するAIを作ったのだそうです。
そのAIに男性議員と女性議員の写真を入力したところ、男性議員はだいたい正しかったのですが、女性議員に対しては「女優またはアナウンサー」と回答したそうです。
しかも、詳しく調べると男性議員の画像に対しては背景に映っていた星条旗等も判断に影響していたのですが、女性議員に対してはほとんど容姿と服装だけで回答が出ていました。
別にAIが差別意識を持ったわけではなく、学習データの中に差別や先入観を生じさせる要素があったということです。
特別に女性差別を行うような学習データを厳選したとかではなく、ネット上に転がっている各種データの中に世間一般に広まっている性差別が含まれていたというだけです。
つまり、人間由来の学習データを使用する限り、多くの人の持つ差別や偏見、誤解等がAIに反映される危険は常に存在します。
AIにできる作業は、人の作業の代替までです。
たぶん、「人より賢いAI」というのも、人と同じ正解を人よりも速く出すことができるだけでしょう。
人には理解できない「正解」を出すAIは不良品とか学習に失敗したとか言って破棄されることにになります。人に理解できない動作をする機械を使うことはできません。
ならば、AIも必ず間違いを犯します。
どれほど優秀な人でも間違いを犯すように、どれほど進歩したAIでも間違う時は間違えるでしょう。
別に、絶対に間違えないAIを作れとは言いません。人と同等以上に正しく判断できるAIならば十分に有用です。
けれども、政府の行う政策が誤れば、最悪多くの人が死ぬ事態になりかねません。
その時に、最初の質問が出てきます。
AIが間違えたら、誰がどう責任を取るのか?
AIを補助的に使用している分には、最終的に決断を下した人が責任を取ることになります。
何も考えずに、AIの判断をそのまま実行するだけなら、人は要りません。
しかし、官僚を次々とAIに置き換えていくと状況が変わります。責任者の部分がAIになるのです。
AIは人間のように責任を取ることができません。
人間だったらやってしまったことに応じて、厳重注意、減俸、降格、辞職、違法な行為を行えば刑事罰もあり得ます。
注意も減俸も、多くの人が嫌がることだからペナルティになるし、ペナルティを避けるために間違いを犯さず真面目に働こうというモチベーションが上がります。
モチベーションによって性能が上下したり、気を抜くと注意散漫で不真面目になったるするAIを使いたいですか?
そもそも減俸を行うためには給料を支払う必要があります。AIに責任を取らせるために給料を支払うというのも変でしょう。
降格や辞職は、ペナルティであると同時により有能な人材、その役職に適した人間に入れ替える意味があります。
しかし、同じ規格、同じ学習データで学習したAIならば同じ状況で同じ答えを出すだろうから入れ替える意味がありません。
問題を起こしたAIを入れ替えるならば、より高性能なAIやその仕事に対してより最適化したAIにバージョンアップするようなものでしょう。
バージョンアップすることを責任を取ったとは言わないでしょう。むしろ、問題を起こす前にバージョンアップしておけと言われるだけです。
AIが責任を取ることはできないし、責任を取れるAIを作ったとすれば人間と同じくらい面倒な問題を抱えることになるでしょう。
責任者としての人間を残そうとすると、結局AIは補助的な作業しかできません。
責任を取るためには、相応の権限が必要です。
AIの失敗に対して責任を取るには、AIが何をしようとしているかを事前に知り、問題があればそれを止める権限と、その権限を行使するための手段が最低限必要です。
自分の手出しできない事柄に対して責任を取れと云われても無理な話です。
それに、形ばかりの権限があっても駄目で、例えば毎日毎日AIの提案する案件を一件平均十分で可否を出さなければならないような仕事量だとしたら?
その中に早急に実施しなければ多くの人が困るような案件が幾つも含まれていたりしたら、よほど怪しい案件でもなければ全部許可していくしかありません。
問題が発生した後から精査して、「ちゃんと考えれば分かったはず」と言われてもどうしようもありません。
実質的に問題の発生を防ぐ能力の無い人に責任を負わせることは、責任者ではなく生贄の羊にするということです。
少なくとも、テックライトの人々が主張するような「人よりも優れたAIで官僚を置き換える」を実現したら、国の政策に対して責任を問えない状態が発生するでしょう。
政府の人間に対して責任を問えないとしたら、AIを開発した会社に対して責任を問うべきでしょうか?
それも少々筋が悪いです。
製造者に無制限の責任を負わせてしまうと、AIに限らず様々な産業が委縮してしまう恐れがあります。
政府に納入したAIが関わった案件で少しでも不利益を被った者が、そのAIを製造販売した企業に損害賠償請求を行ったら、小さな企業ならばそれだけで潰れるでしょう。
製造元が消滅した後も代替品の調達ができないままにAIだけが使われ続けていたら、責任を追及する先が無くなります。
AIの製造元は納入先の政府に対して責任を持ち、AIを使用する政府が国民に対して責任を持つという切り分けはどうしても必要になります。
人もAIも責任を取れない状況でどうにかして政府が組織として責任を取る仕組みを作るか、あるいは責任を取らない政府を国民が受け入れるか。
AIに行政を負かせようと思ったら、そうしたことが必要になるのです。
もう一つ、AIに政治や行政を任せることのリスクは、AIが停止してしまった場合にどうするか、という点にあります。
今のAIはかなり電力を喰います。
本来は人間の脳の中で神経細胞が行っているような処理を、全く構造の異なるコンピュータで、高い計算能力に物を言わせて無理やりに再現しているのだから効率は悪くなります。
福島の原発事故以来停止している原子力発電所の再稼働を推進しようとする理由の一つが、「AIの普及によって電力需要が見込める」ことだったりします。
AIを動作させているコンピュータに電力を供給できなくなれば、AIは動作できなくなります。
電力が不足する原因は色々と存在します。
電力需要の増加に発電所の建設が追い付かなかったり、発電に必要な燃料等が不足したり。
事故や災害で発電所が停止したり、送電網が機能しなくなることもあります。
大規模な太陽フレアの影響として、変電所などが故障して広域に停電が発生することも予想されています。
政府の中枢を司る重要なAIならば停止させないために念入りに設計し、停電に備えて予備の発電設備も用意すると思います。
けれども、広域の停電が発生したら、ネットワークが寸断されることは避けられないでしょう。
特に太陽フレアの場合、停電の他に通信障害、電子機器の誤動作や故障、人工衛星の機能障害等も予想されています。
AIだけ無事でも、入出力が止まってしまえば何もできなくなります。
「クラウドでサーバーを分散すれば災害にも強い」などと言っても、通信が途絶してしまえばサーバーが生きていても使いようがありません。
人間が中心となって動いている組織ならば、通信が途絶えても人が各地に直接出向いて状況を確認します。
しかし、AIを中心に据えて不要になった官僚や職員を辞めさせてしまえば、非常時に動ける人は不足することでしょう。
ついでに、イーロン・マスク氏はビットコインを採用すると言っているそうですが、暗号資産も広域の停電とネットワークの断絶で使えなくなります。
2018年に北海道で発生した地震に伴って北海道全域に及ぶ大規模な停電が発生しましたが、この時外国人旅行客がかなり困ったそうです。
現金が根強い日本と異なり、海外ではキャッシュレス化が進んでいます。QR決済で行っていた買い物が停電で全くできなくなってしまったのです。
ビットコインもネットワークが断絶すると全く使えなくなります。
行政の麻痺に加えて経済活動の停止でダブルパンチになるでしょう。
一般的に、効率を追求すると、例外に弱くなる傾向があります。
例えば、「トヨタ生産方式」と呼ばれる生産システムがあります。
在庫を極力持たず、必要な工程で必要なものを必要なだけ用意することでコストを削減し、高い利益を上げることができます。
しかし、この方式ではどこかの工程で必要な一種類のものが手に入らなくなった時点でいきなり生産がストップします。
海外で大きな事故や災害が起こって現地の工場が操業停止になると、一見関係無さそうな日本の製品も突然作れなくなると言ったことが発生します。
グローバル化とトヨタ生産方式によって生産効率は向上しましたが、実は今の世の中、ある日突然必要なものが手に入らなくなるリスクを抱えているのです。
同様に、行政を効率化するためにAIを導入して人を排していくと、そのAIが使えなくなった瞬間に行政が麻痺するリスクを抱え込むことになります。
広域に亘る停電ともなれば、多くの人命が危険にさらされる緊急事態です。そんな時に機能麻痺に陥って何もできない政府に意味があるのでしょうか?
当然AIの専門家ならばそうした問題点も理解していて、しっかりと対策を考えている、と思いたいのですが……
シリコンバレーで最新テクノロジーを武器にビジネスをしている人のやり方は、とにかくスピード重視な面があります。
金になりそうならばまず始めて見て、問題があったらその都度修正する。
変化の速い業界ではそのくらいのスピード感が無ければ取り残されます。
番組前半で紹介されたDOGIの活動に対しても、手続きを踏まず、シリコンバレー的に素早く行動し、許可は求めない、と評価しています。
間違いや問題を棚上げして目的達成を最優先で行動することは、新しい事業を立ち上げるためには有効なのでしょう。
でも、スタートアップ企業の生存率は、十年後には一割を切ります。
駄目だったら壊してまた作り直せばいい、の精神でAI政府を作ったりしたら国民が大迷惑すると思うのです。
日本はむしろ慎重すぎて最新のより良い仕組みがなかなか採用されないように思うのですが、アメリカではどうでしょう?
国民全員の生活を左右する、壮大な実験が始まるのかもしれません。
余談ですが、テックライトの人の話の中には、私の考えと被る部分が幾つかあります。
似たような事を考える人は要るものだと思って聞いていました。
AIによる行政等も『働かなくてよい世界』の中でどこまでできるかと考えていたことですが、他にもあります。
イーロン・マスク氏の政策理念の中に、「プロナタリズム(出生奨励)」と言うものがあります。
なるべく多くの子供を出産すべきだという考えのようです。
「長年世界の大部分で出生率が非常に低い状態が続いている。もし人々が子どもを産むのをやめれば人類は滅亡するということだ。」
確かにその通りです。子供が生まれてこなければ、やがて人類端に耐えます。
少子化を解消するには一組の夫婦から一人の子供では足らず、複数の子供が生まれることが必要です。
そのことは私も「少子化の何が問題なのか?」で書きました。
ただし、この番組は議論をする場でも少子化問題について深堀するものでもないので、発言者はある意味自分に都合の良い部分しか語りません。
先進国を中心に出生率の低下が続いているのはその通り。けれども、中国を抜いて人口世界一になったインドやアフリカの国々では絶賛人口爆発中です。
番組で出生奨励主義者の夫婦が取材に応じて話していましたが、少なくとも十四人の子供がいると云われているイーロン・マスク氏にあやかってか、十数人の子供が欲しいと言っていました。
終戦直後くらいの日本では十人近い兄弟がいることは割と普通でした。そして、戦後発生したのが人口爆発です。
出生奨励主義者が主流になれば、間違いなく人口爆発は起こります。
そして人口が増えすぎれば様々なものが不足します。
食糧、エネルギー、その他の様々な資源、土地、そして職。
アメリカなら日本よりも土地には余裕がありそうですが、現状でも国家間で様々な資源確保の綱引きをやっていたりします。
増加した人口に食糧の生産が追い付かなければ飢えて死にます。
暖冷房の設備や必要なエネルギーや防寒具等が不足すれば暑さ寒さで人が死にます。
薬や医療品、衛生周りの物資が不足すれば病気で死にます。
物は足りていても必要とする人のところまで届かなければ、届いても高くて買えなければ、やっぱり人が死にます。
需要が増えて供給が追い付かなければ値段は上がるのだから、貧乏人から死んでいきます。
その辺りを無策のままに出生奨励だけを推し進めて行けば、人口爆発に対するもう一つの解、増えた分だけ人が死ぬ世界になります。
たぶん、最初に不足するのは職です。
イーロン・マスク氏やライトテックの主張は出生奨励だけではありません。AIの推進も含まれています。
将来パソコンで行っているような作業は全部AIに置き換わるだろうなどと言っている人たちです。
取材に応じた出生奨励主義者夫妻の奥さんの方は、「子供たちには1%の富裕層がお金を出したいと思うようなスキルを身につけさせる必要がある」と言います。
つまり、AIに置き換わらないような優れたスキルを持つ者は良い職に就いたり、自らビジネスを立ち上げて成功者になれます。
では、優れたスキルを身につけられなかったり、身につけたスキルがAIやロボットに置き換わってしまった者達はどうなるのでしょう?
AIやロボットの普及で単純労働の需要は減り、人口爆発で労働者の数が増えれば供給は増えます。すると、市場原理により労働の価値は下がります。
労働単価が下がって、AIやロボットを使うよりも安い賃金で働くのならば働き口はあるかもしれません。
かなりきつい仕事になると思います。
人よりも頭の良いAIを導入して効率よく働く社会で、AIに対抗できるスキルも持たない一般人が低賃金を武器に仕事を得なければならないのです。
AIのランニングコストよりも安い賃金でAIと同じくらいの量の作業を行わなければならないでしょう。
もしくは、ロボットでも作業が困難な場所、汚れが入ってすぐに故障するから洗浄や修理で余計なコストのかかる汚かったり危険だったりするような場所での作業か。
それでも職にありつければよい方で、世の中の失業問題はどれだけ低賃金で、劣悪な労働環境に我慢しても仕事にありつけない所にあります。
それが嫌なら、優秀なスキルを身につけろというかもしれませんが、スキルを身につけるための学習や訓練を行える環境になければ詰んでしまいます。
と言うか、ちょっと頑張ればだれでも簡単に身に付くスキルならば希少価値も下がって大して有利には働かないでしょう。
貧困層は、ずっと貧困から抜け出せない、アメリカンドリームの終焉です。
景気の良い時ならばそこそこ何とかなっても、ちょっと不況になったり恐慌が起こったりすると一気に貧困に陥る人が増えてそのまま貧困から抜け出せなくなる。
そして、大きな事故とかパンデミックとか自然災害が発生したりすると、貧困層から順に人がどんどん死んでいく。
大災害で多くの人が死んで人口爆発が抑えられ、復興需要で景気が持ち直し、多くのマンパワーの導入で急速に復興が進んだとすれば、こう言うのでしょうか。
「やはり出生奨励は正しかった。」
まあ、この最悪のシナリオは私の勝手な妄想で、出生奨励主義者の人は人口爆発に対して別の意見を持っているかも知れません。
私が「少子化の何が問題なのか?」の中で言及しなかった、人口爆発に対するもう一つの解が実は存在します。
それは、世界を広げることです。
資源が足りなければ他所から持ってくればよい。土地が足りなければ、新たな土地を開拓すればよい。
地球上で環境を破壊せずにこれ以上の資源や土地の開発が難しいなら、地球の外に求めればよい。
出生奨励主義者夫婦の旦那さんは「私たちは銀河系の星々の間で人類が繁栄する帝国を築くことを望んでいる」なんてことを言っています。
遥か未来のSFの話ではありますが、もう少し近未来の話ではイーロン・マスク氏がSpaceX社で宇宙開発を行ってます。
他所の星まで行かなくても、地球近傍にスペースコロニーを建設して自給自足が可能になれば人類の生存圏は少し広がります。
月まで行けば、地球外から資源を採取することも可能になります。
大気圏外に出れば太陽光は地上の二倍のエネルギー密度で、月面には核融合の燃料となるHe3(ヘリウム3)が大量に存在すると云われています。
居住可能な土地は地球外に見つかっていないけれど、人工的な居住環境を作るための空間ならば膨大にあります。
きっちりと開発できたならば、地球近傍だけでもそれなりに世界が広がります。
一度宇宙に生活圏を築ければ、そこを足掛かりにさらに遠くまで行くことができます。
火星のテラフォーミングはただのSFではなく、科学的にも検討されてきました。
小惑星からは様々な資源が得られる可能性があります。
未知の領域を開拓するにはマンパワーが要ります。そこで利益が上がるのならば、多くの人が挑戦しに向かうでしょう。
物質的に地球に依存する必要が無くなり、独自の経済も回るようになれば、そこは定住可能な新天地になります。
誕生したばかりの新天地では常に人手不足で、人口爆発大歓迎になることでしょう。
人口が増えすぎたら、有り余るマンパワーを動員して新たにスペースコロニーを建造したり、月や火星への移住を進めたりと生活圏の拡大を行えばよいのですから。
最初の宇宙定住が成功し、技術の確立と採算の見通しが立てば、人類の宇宙進出が一気に加速する可能性があります。
地球上に居場所の無くなった者、既存の社会で成功が望めない者、もっと積極的に新天地に夢を追う者達がこぞって宇宙に出て行くでしょう。
失敗して宇宙棄民にならなければよいですが。
出生奨励の理念の大元は、おそらく宗教的なものです。
テックライトの「テック」は技術の事ですが、「ライト」は右派を表します。
右派とか右翼とか呼ばれるのは保守派、つまり基本的に現状維持を旨とする派閥のはずです。
ところが、テックライトは保守の右派でありながら技術の推進によって社会をガンガン変えて行こうとする奇妙な思想なのです。
右派の思想には単純な現状維持だけではなく、伝統的な価値観を重視する、「昔は良かった」的な懐古主義も含まれます。
テックライトの「ライト」の部分は、伝統的な価値観を重視する意味なのでしょう。
番組前半でDOJIが予算削減や職員の解雇の対象としていたのが「公平性、多様性、性的マイノリティ」に関するものでした。
つまり、人種差別や性差別を容認し、多様性を否定し、性的マイノリティは認めない。
これがアメリカの伝統的な価値観なのです。
そして、アメリカの伝統的な価値観にはキリスト教が大きく影響しています。
「産めよ、増えよ、地に満ちよ」
聖書の言葉です。
欧米では子供を望めない同性愛が法律で禁止されていた時代があります。
キリスト教やユダヤ教の国では、避妊が禁止されていることもあるそうです。
アメリカの保守派は、人工妊娠中絶に対して過激な反対運動を行ったりします。
出生奨励もアメリカの根底に存在するキリスト教の価値観がまずあって、少子化等は後付けの理屈なのだと思います。
それからもう一点。
番組では最後にイーロン・マスク氏やライトテックに影響を与えたシリコンバレー出身の思想家の話を紹介しています。
この人、現代の民主主義を否定しています。
番組内ではこう主張しています。
結局「最も効率的」で
いちばんうまくくいくのは王政です
私も、「民主主義の欠点を考える」の回で「専制君主制と言うのは一種の理想的な政治形態」であると書きました。
たぶん、言っている内容は同じだと思います。高率を考えれば、能力のある人に全権を与えることが最も手っ取り早いのです。
民主主義を否定する考えに至った経緯も理解できます。
例えば、「選挙に行って誰に投票しても結局何も変わらない」と思ったことはありませんか?
民主主義であるはずなのに、自分達の民意が全く反映されている気がしない。そんな無力感あるいは憤りが根底にあるのだと思います。
この人は、民意が反映されない理由を「権威ある組織が支配しているからだ」と考えます。
番組内で次のように言っています。
例えば大学という機関には永続的な名声がある
官僚には永続的な終身在職制度があり
大学の意見で物事を決めている
ライトテックの人達が大学や官僚を信用しない理由は、この思想にあるのでしょう。
ところで、アメリカの実情をよく知らないのですが、アメリカの大学はそこまで政治に影響力があるのでしょうか?
個人的には、銃の乱射事件があっても全米ライフル協会が銃規制に徹底的に反対するとか、エネルギー関係の企業が「地球温暖化は嘘だ」と主張し続けたとか、企業のロビー活動の方が政治に影響を与えている印象があります。
それはともかく、選挙で選ばれた人とは関係のない組織が権威や権力を持って支配しているから民主主義が機能しない、そんな思想です。
だから、「ポピュリズムや民主主義を強くする方法は君主を選ぶことなのです」と主張します。
ここで言う王政とか君主とかは、血縁で世襲される昔ながらの王家を作るという意味ではなく、選挙で選ばれた大統領により強い権限を持たせて自由にその采配を揮うべきだという意味です。
一人に権力を集中させるから「王様」になります。
権力を集中させた一人の王様に、守るべきルールも踏むべき手続きも最小限にして、自由かつ柔軟に政策を実行させれば、それは効率も良くなります。
そのことは、理解できます。
しかし、理解できるからと言って賛同できるかは別です。
この思想家、およびその影響を受けたテックライトの人達は、効率を重視します。
シリコンバレーとか最新テクノロジーを扱う企業とかでは効率重視は当然なのでしょう。競争の激しい業界ではとにかく効率を上げなければ生き残れません。
けれども、政府などで効率最優先をやってよいのかについては疑問が残ります。
もちろん、あまりに非効率で税金が無駄に浪費されていたり、時間がかかり過ぎて何時まで経っても必要な行政サービスが受けられないと言ったことは勘弁してほしいです。
しかし、あまりに効率的になり過ぎてもリスクが発生します。
トヨタ生産方式では必要な部品の調達が止まると、即座に製品の生産が停止するリスクがあります。
これは、売り物が作れなくて商機を逃すというだけではありません。
コロナ禍でロックダウンしたどこかの国の工場が操業停止になってある種の半導体部品が生産されなくなった結果、給湯機が故障しても修理もできずにしばらくお風呂に入れなくなった、なんて話も聞いた覚えがあります。
高率を求めるとトラブル、特に想定外のトラブルには弱くなります。
想定外の事態が発生した時に機能不全に陥る行政をどう思いますか?
高率の高さと、不測の事態が起こった場合に対応する余力はトレードオフの関係にあります。
まあ、不測の事態に対しては「王様」が柔軟かつ迅速に対応してどうにかするとしても、もう一つ重要な問題があります。
一人に強い権力を集中するということは独裁者になるということです。
君主と独裁者に違いはありません。
強い権力を思うがままに振るい、それで国が良くなったと思われれば名君とたたえられ、悪くなったと感じれば暴君暗君独裁者と誹られます。
高率が良いということは、最善に向かって最短距離を進むことができますが、最悪に向かっても最短距離で進むことができるのです。
もちろん、この思想家もその問題点は理解していて、対策を考えています。
本人は「説明責任のある君主制」と呼んで、チェック機能を設けて独裁者の暴走を止めることを考えているようです。
会社組織になぞらえて、「CEOの業務を取締役会がチェックするような安全装置も設けたもの」と言います。
けれども、私はそれでうまくいくとは思えません。
効率の追求と安全性の確保はトレードオフの関係にあります。
独裁者の暴走を防ぐには、ただチェックして終わりでは駄目で、問題のある行為を止める仕組みが必要です。
「その政策には問題がある」と指摘されても、「それでもやらなければならない!」と断行されたらチェック機構の意味がありません。
事後承認を無制限に認めてしまうのも問題です。一度始めてしまったら後から止めても手遅れなことはよくあります。
例えば、戦争を始めてしまってから「この開戦は間違っている」という結論が出ても手遅れです。
独裁者の暴走を防ぐには、国のトップであっても何をどこまでやってよいのかを明確にルールとして決めておき、重要な事柄はきちんと手続きを踏んで問題点や見落としを洗い出してから実行すべきです。
独裁者が問題を起こさないように手綱をしっかりと握れば握るほど制約が増え、柔軟で迅速な対応ができなくなる、つまり効率は悪くなります。
逆に、効率を重視してルールやら手順やらを省いて行けば、独裁者の悪い面が出てくるリスクが高まります。
別に、悪意を持って独裁者としての権勢を振るっている場合に限らず、それが正しいと思い込んで間違った方向に全力で突き進むような場合だったあります。
また、チェック機構が独裁者と同じような思想、同じような視点しか持たない少人数の集団では暴走を防ぐ役に立たない恐れがあります。
この思想家は会社組織に例えてCEOと取締役会と表現しましたが、私たちは別の例えを知っています。
ヒトラーとナチスです。
本来、ナチ党は政党であってヒトラーの奴隷ではありません。
ヒトラーの暴走を止める安全装置になってもおかしくなかったはずです。
けれども、ヒトラーの思想に共感する者達ばかりが集まった結果、泥沼の戦争も、ユダヤ人に対する虐殺も止めることができません出した。
会社の利益を優先して社員や顧客や法令を蔑ろにするCEOの行為を、同じく会社の利益を優先する取締役会が止められるでしょうか?
「王様」と同じ思想や価値観を持ち、「王様」と同じ情報を見て判断するチェック機能が、「王様」と同じ過ちを犯さないとは思えません。
けれども、「王様」の行いに理解を示さず、なんでもかんでも反対するチェック機能では政策の推進にも支障をきたし、効率は著しく低下するでしょう。
ここでも高率と安全性のトレードオフが現れます。
結局は、程度問題なのです。
国の最高権力者にどこまでの権限を認めて、どの程度の制限、制約を設けるか。
その匙加減が問題になります。
たぶん正解はありません。
国難に見舞われた厳しい時代には強い指導者が求められます。
しっかりとした意志とビジョンを持って大きな改革を断行できる強い指導者に全てを任せることは、行き詰った状況を打開する特効薬にもなるでしょう。
けれども、特効薬は扱いを間違えれば死を招く劇薬にもなります。
第一次世界大戦の敗戦国であるドイツもイタリアも、国を救う強い指導者を求めて、結局は破滅を呼び込む独裁者を誕生させてしまいました。
名君と独裁者は何をどう行ったかではなく、結果だけでどちらに評価されるかが変わります。
ライトテックの人達ならば、「AIを使えば大丈夫」と言うかもしれません。
しかし、私はそこまで楽観はできません。
彼らは、AIは人にできることは何でもできるようになるだろうと言います。
だったら、人の行う悪事だってできるでしょう。
ここで、「AI何だから悪いことするはずがない」と言ってしまうのは考えが甘すぎます。
確かにAIには私利私欲は存在しないかもしれませんが、その代りに責任感も倫理もモラルもありません。
学習した内容に従って答えを出しているだけなのだから、悪意はなくても特定の状況で多くの人が行いがちな問題行動を学習していたら、人と同じような間違いや失敗を犯す可能性はあります。
前述の「AIが女性差別を行った」と言う話も、故意に性差別の意識をAIに持たせようとしたのではありません。
その気になれば、AIにナチズムやファシズムを学習させることだってできるでしょう。
「AIは嘘を吐かない」というのも間違っています。
ChatGPTに質問をしたら存在しない論文や分権に関して色々と語ってくれた、なんて話もあります。
大規模言語モデルは、簡単に言うと次にくる言葉を予想しているだけなので、実在の論文を検索して内容を確認しているわけではないのです。
AIだから間違えないというのは幻想です。
AIを王様役にするにしてもチェック機能に利用するにしても、AIも間違えることを前提にしておかないと、いつかとんでもない事故が起こりかねません。
私は、この思想家の人やテックライトの人達と似たような認識を持っていると思います。
けれども、同じような認識から導かれる結論や方向性はちょっと違います。
私は民主主義に対して、「最善は得られないけれども最悪を避けやすい仕組み」と捉えました。
一方で、この思想家にしてもテックライトにしても、効率を非常に重視しています。
これはたぶん、成功パターンのみを重視していて、失敗をあまり気にしていないのではないかと思うのです。
おそらく、シリコンバレーの流儀として、「失敗したプロジェクトはさっさと捨てて次に行く」「失敗は次の成功の肥やしにすればよい」みたいな考えが当たり前になっているのだと思います。
投資家も、一つ当たれば利益は大きいからと、失敗しても気にせず投資を続けるのでしょう。そうでなければ、成功率の低いスタートアップやベンチャー企業への投資などできません。
イーロン・マスク氏のSpaceX社でも開発中のロケットが何度も派手に爆発していたりします。データが取れていれば次の改良に繋がるので失敗ではないのでしょう。
新しいものを生み出すためには、そのくらいのことは必要なのでしょう。
失敗に対するリスクの意識が低く、あるいは成功で失敗を取り戻せるという考えならば、失敗を減らすことよりも大成功を増やすことを重視するでしょう。
安全性よりも効率を重視する発想の原点は、おそらくここにあります。
十の事に挑戦して全て成功するよりも、百の事に挑戦して半分の五十だけ成功した場合の方が、成功率では下回っても成功数で上回ります。
失敗を無かったことにしてよいのならば、後者の方が圧倒的に優秀です。
新規開発ならば、失敗を恐れずに効率重視で良いのだと思います。
でも、運用に入ったら、そうは言っていられなくなります。
SpaceX社の場合、開発段階ではテスト用のロケットを何基壊しても良いのでしょう。
しかし、運用に入ったら「年間十基のロケットを飛ばして全て成功するよりも、百基飛ばして五十基落ちる方が成功数は多いのだからよい。」と言えるのでしょうか?
商業的には数を打ち上げる方が売り上げは上がるのかもしれませんが、それなりに値の張る人工衛星を二回に一回は失敗するロケットに搭載したいかと言う話になります。
これが、有人ロケットになると、そんな危険なロケットに普通の人は乗る気にならないでしょう。
全く新しいものを作り出す段階と、できたものを使い続ける段階では失敗のリスクが大きく違うのです。
政府に関しては、失敗の影響は大きく、別の成功で取り戻せないことも多いと思われます。
行政の失敗は、国民の生活に大きく影響します。
場合によっては、多くの人々の生活が壊され、命の危険にさらされます。
国民の生命財産を重要視する国ならばそのような事態は極力避けたいはずですが、アメリカはどうなのでしょう?
私の偏見ですが、アメリカ人は「国になんか頼るな、自分の命は自分で守れ」とか言って銃を取るイメージがあります。
アメリカで銃規制が進まない理由の一端は、政府をそこまで信用していないからかもしれません。




