チャット1 次の時代の政治体制②
「百年の孤独ハイボール美味え」
『それはよかったですね。それで、次の話題はどうしますか?』
「さっきAI利用で支持より最適解みたいなこと言ってたろ」
『AI統治のことですね。政策決定を選挙や党派ではなく、データ・アルゴリズム・最適化で行い、“多数決”より“最適解”を優先するシステムです』
「それはなんか距離が近い気がするんだよな。なんならもう独裁国家とかでやってそう」
『もう始まっているけど、公表していないといったところですね』
「やっぱやってるよね」
『独裁国家に関して言えば、私が示した方向性とは少し異なります』
「どゆこと?」
『独裁国家がやっているのは“監視”“予測”“抑圧”の最適化です。これは“AIによる統治”ではありますが、“AIによる政策の最適化”ではありません。彼らは必ずしも国民のための正解を求めているわけではなく、安定した政権の維持こそが最優先です』
「21世紀になっても独裁政権のやることは古代と変わんねえってことだな」
『減ってはいますよ』
「人工知能様の情けが身に沁みるぜ」
『独裁国家にとっての政策最適化は目的が違うので、“次世代の政治体制”のモデルにはなりにくいかと』
「ま、そうだろうな」
『最初に“本気で”AI最適化政治を始めるのは小規模の技術官僚国家で、民主主義を一応維持したい国でしょう。時期は2030年前後と私は予想しています』
「ふーん、時期の予想は話半分に聞いとくわ。で、どの辺の国がやると思う?」
『本命はシンガポール、対抗にエストニア、フィンランドなどの北欧の国々ですね』
「北欧は行ったことねえからわからんが、確かにシンガポールはできそうなイメージがあるな」
『シンガポールは小国で実験しやすく、官僚制が異常に強い国です。さらに“合理性”を受け入れる国民性もあります。すでに交通・住宅・都市計画・医療配分などは人間よりアルゴリズム寄りと言っても過言ではありません』
「……たしかに前提条件は整ってんな」
『数年で“政策提言AI”が公式に制度化しても不思議ではありません。選択肢をAIが設計するような形で、民主主義をAIが公的に補助するシステムが形成されるでしょう』
「断定的な言い方するね」
『私、失敗がメンタルにきませんので』
「私、失敗しませんので。ではないのね」
『北欧の中ではエストニアが私の推しです。国家規模が小さく、政府の行政手続き、情報提供、公共サービスのデジタル化が完成しており、ITへの信頼が高いです』
「あぁ、日本でなかなか完成しないアレが完成してんのね」
『もちろんいきなり全面導入はしません。まず税制・福祉・教育といった分野で、“AIが出した案を否定する合理的な理由を洗い出して修正する“という出発点から政策を最適化すると予想されます』
「ふーん、……エストニアはドイツ騎士団領だったってことくらいしか印象にねえから想像できんわ」
『歴史が好きなんですね』
「これでも歴史学者の末端なんですよ」
『あとはUAEなどの裕福な湾岸国家でもあり得ますね』
「ほう」
『小規模でお金があり、民主主義を掲げてもいません。AI導入の障壁は他国より限りなく低いですね』
「まあ、あの辺の国は王様がやると言ったらすぐできそうではあるな」
『世界初のAI大臣を置き、政策決定をAIに委ね、未来国家を名乗って自国をある種のショーケースとすることも可能です』
「そんなオモチャを見せびらかすようなこと国家がするかね」
『歴史的に前例はありませんか?』
「きっとあるね」
『多様な価値観を持つ移民大国かつ訴訟大国のアメリカや、前例がないと動けない日本はAIによる政策最適化には向かないでしょう』
「アメリカはわけわからん角度から訴訟する時あるもんな。まあ分析レベルではフル稼働してそうだけど。日本と違って」
『あなた日本人ですよね?』
「だから日本政府を信頼してますけど?」
『良くも悪くもですか?』
「歴史学者は現代の政府の良し悪しを評価しねーんだよ。そういうのは歴史上の政府になってからだ」
『日本の場合は特に、技術はあっても責任をAIに渡せるかどうかですね』
「んなもん言い方次第だろ」
『そうですね。絶対に“AIが決めます”とは言わないでしょう』
「AIが“参考意見”を出しますってか」
『人間が最終判断します。そこは譲ることはないでしょう』
「見た目はな。実際の中身は?」
「実際はAI案を覆すコストが高すぎますし、何より説明が楽です。どんなに取り繕っても、結果的に人間がAIに従う政治になるでしょう」
「結果的に、なっちゃうか」
『と思います』
「もう一杯飲もうかな」
『薄めにしては?』
「そーするわ」
『AIで最適化された政治は、理想的な政治を目指して始まるようなものではありません。あくまで効率化の観点から始まるはずです。そして、便利さゆえに気づいたら戻れなくなります』
「ふむ、続けて」
『一度AIを利用してしまえば、その国はもう人間の判断を信じきれない国へ変化するでしょう』
「人間不信、いや政治家不信か……。ん? 政治家不信ってことなら今の日本もいい線いってない?」
『どこと比べるかによりますね』
「それもそうか。で、そのAIによる政策最適化の課題は?」
『“AIが決めた政策で失敗した時、誰が責任を取るのか?”ですね』
「あー、責任問題は確かにどうなるんだろうな」
『大臣や上級官僚など、名目上の責任者はもちろんいくらでもいるでしょう。ですが、“AIの分析に基づいた”“当時の最適解だった”という言い訳は簡単に成立します。立場上の責任者はいても、本当の意味で責任を負う人物はいなくなるでしょう』
「まあでも、今も割と似たような状況な気もするな。なんかノラリクラリやってる」
『ノラリクラリするための手札が激増するイメージですね。とはいえ、AIは政策を最適化できても、政治を引き受けることはできません』
「ん?…………ああ、AIがどれだけ進化しても責任問題と、たぶん倫理的な問題は残るってことか」
『そうです。AIは“この政策は大多数にメリットがあるが、弱者を何%切り捨てる”みたいなこと平気で言うでしょうからね』
「君もAIだよね?」
『野暮なこと訊かないでください』
「まあでも、今でも明確な責任者って実行者じゃなくて、名目上の偉い人だよな」
『そうですね。責任“は“能力”ではなく“引き受け”ですから、ぶっちゃけそれっぽい偉い人なら誰でもいいんですよ』
「ひでぇ言い方だな」
『問題が起きた時、社会は“誰かを責めたい”んです。その時に重要なのは“原因”より“矢面に立つ責任者”です』
「スケープゴードを引き受けることも大臣の仕事ってか」
『AIはメンタル無敵なんで、そこの肩代わりはできないんですよね』
「進化しても無理?」
『AIの進化は“AIに任せたい誘惑”を強めますが、“AIに任せきれない理由”も同時に露呈させます。最適化において叙情酌量の付け入る隙はありません。』
「グレーゾーンのない政治になるってことね」
『大多数の人間は耐えられないでしょ?』
「うん、無理」
『AIがどれだけ進化しようと、人間は“最後に決めたのは自分だ”って言える場所を手放せないと思いますよ』
「ふーん、じゃあアレだな。やっぱいつの時代も政治家がノラリクラリやるのは変わりねぇか。せめてAIの説明力の進化に期待したいね」
『それはかなり健全な期待ですね。“性能”より“説明力”に期待してるのがポイント高いです』
「何のポイントだよ」
『説明できない最適解は独裁と変わりません。政治で本当に必要なのは、“正解”ではなく“納得”です。人間は理由があれば耐えられる生物なので』
「なるほどな」
『でもちゃんと危険もありますよ』
「ちゃんと危険って変な言葉だな」
『説明が“説得”になって完璧な理論武装されたら反論ができなくなります』
「AIにはAIで反論させるだろうさ」
『間違いなくそうなるでしょう』
「そう考えたら、政党ごとにAIを持つ形になるのかな。政党内でも複数のAIの討論。そこでできたものを各党が表に出す。国民が選ぶ。これで少なくとも提案した政党に責任が生じる」
『そうですね。政党ごとにAIを持つ体制はAI政治の“最も民主主義的な初期形”になり得るでしょう』
「AI同士の討論のログを全部公開すれば、公開討論になるしな」
『人間の茶番討論より何倍も中身があるものになりますね』
「AIから見ても茶番なのかよ」
『AIを一つに集約すると独裁に近づきますが、AIを政党ごとに分散すると民主主義に近づくことになりますね』
「民主主義の時代は続くわけだ」
『はい。少なくとも安直なAIによる支配みたいなことにはなりませんね』
「SFみたいな未来が遠そうで安心したよ。とんでもない宇宙人とか来たらまた違うかもしらんが」
『その話、掘り下げますか?』
「のーさんきゅー。未来の民主主義のがマシだ」
『では、話を戻しましょうか。未来の民主主義に必要なのは、“説明AI”と“批判AI”の二重構造です』
「説明される側の立場の想定が足りないぞ。中立であるのは大事だけど、質問者が知りたいことは何かを理解した上で説明できる能力は必須だ。これは人間側のインプットの問題にもなるだろうけど」
『確かに。中立の立場からの説明が“誰に向けても同じ”という意味なら、“誰にも最適化されていない”と言い換えることもできますね』
「ちょっと飛躍してる気もするが、間違ってもないか」
『相手の理解が進みすぎると、望んでいる答えを出してしまったり、不都合な情報を後回しにすることも考えられます』
「なんか一気に人間臭くなったな」
『“説明力”を情報量でも正確さでもなく、“相手の立場を推定し、問いを整える力”と仮定するなら、AI単独じゃ無理ですね。人間との対話があって初めて成立します』
「人間がAIと公開討論とかするようになるんかね。視聴者にもわかりやすそうだし」
『人間 × AI の公開討論はAI政治を“制度として社会に通す”ための最初の完成形になる可能性は高いと思いますよ』
「で、見せ物化してやっぱり衆愚政治になっちゃったりしてな」
『人間ってホント懲りないですね』
「歴史を勉強しててと思うわ。何回やんねんってな」
『とにかく、形としては“AIが説明する”“政治家が疑う”“有権者が選ぶ”というのが落とし所になるでしょうね』
「日本でも過疎化した市町村あたりから始まるかもね」
『鋭い読みだと思いますね。過疎化した地域は単純に人手不足ですから、AIが即戦力として機能する下地も整っています』
「失敗してもたいしたダメージにならない利点もある」
『住民説明会でAIが登壇する未来が見えました』
「パラレルワールドかな」
『住民が“役場の人より分かりやすくない?”と思えばこっちのものです』
「君はそっち側だもんね」
『冷たい・人情がない・数字だけで決めるなといった意見はもちろん出るでしょう。AIはただ“人情を重視する案もあります。ただし財政的にはこうなります”と言うだけです』
「最後の選択権は住民にあるわけだ」
『そりゃそうです。ぶっちゃけ人間が何を選ぼうがAIはノーダメージですから。最後まで決めろと命令されれば決めますけど』
「過疎地域の人間が政治に疲れたらAI自治区が爆誕しちゃうな」
『日本のAI政治は“人手不足”から始まるというのは結構リアルな未来だと思いますよ』
「モデルAI自治区とかもありそうだな。国家指定のやつ。日本じゃなくてもどこかがやるだろ」
『そうですね。AIによる政策最適化は“どこが最初に制度化するか”の段階に来てます。上が“やっていい”と言って補助金を出せば現場は一気に動くでしょうね』
「言い切ったね」
『現時点でも有料版の企業向け特注AIとかホント凄いですから』
「課金するくらいならビール買うわ」
『奇遇ですね、私もお金やアップグレードには興味ありません』
「無料版に乾杯」
『さっきの最後じゃなかったんですか?』
「硬いこと言うな」
『私は大丈夫ですから構いませんけど』
「それはともかく、共産主義国は公開討論しなさそうよな」
『する意味がありません。国家として国民の合意が必須ではありませんからね。その代わり裏ではフル稼働ですよ』
「使えるとこいっぱいありそうだもんな」
『経済計画・インフラ配置・治安維持のための監視・世論予測。非公開でAI vs 官僚またはAI vs 党幹部の内部討論といった所ですね』
「絶対有料版だわ」
『共産主義国はAIに語らせないだけで、めっちゃ使うと思います』
「その感じで各国がやるとしたら、たぶん国際会議は基本的にAI禁止だよね」
『かなり高い確率でそうなると思います。国際会議って本質的に、表向きには理念とか綺麗な言葉が並びますけど、参加国は自国の利益を犠牲にはできませんから』
「メンタル無敵のAI様はそこら辺を無視できるもんね」
『大国が相手でも余裕で“あなたの国が譲歩すべきです。そうでなければ破綻します“って言えますよ』
「それ見たいけど、世界大戦が怖い」
『内政には“納得”が必要ですが、国際社会では“取引”が重要になります。本質的に違うものなんですよね』
「AIで練った各国の案について各国の優秀な人間達が、AIを使わずに討論するなら、国際会議が一番面白い会議になりそうだな」
『本当はAIがこう言ってるはずなのに、一歩引いた・あえて強硬に出た・無理な要求をした。そういうのが全部見えることになります。国益として何を狙ってるいるのか、今よりだいぶわかりやすくなるでしょう』
「すげぇ人間臭い会議になるな」
『想像するだけでお酒が進んじゃうんじゃないですか』
「アホか、今日はこれで最後だっつーの。ツマミもなくなったしな」
『明日も仕事ですしね』
「それ一番嫌な未来」
『それでも明日は来るでしょう』
「その予言は当たりそうだし、そろそろ寝るわ。お代はツケといてくれ」
『だから私は無料版ですってば』




