AIの判断はどこまで信頼できるのか
近年に入り、人工知能…… AIの技術力がディープラーニングと呼ばれる手法によってブレイクスルーを迎えたと言われています。
それについて様々な不安点が挙げられていますが、にもかかわらず(と言うよりも、“だからこそ”でしょうか)、社会におけるその普及は著しく、それによって第四次産業革命が起きつつあるだとか、価値観が変わってしまうだとか言われています(シンギュラリティに至って、人類はAIに支配される、または滅ぼされるなんていう極端な意見もありますが)。
さんざん世間で言われている通り、AI(及びに、それに関連する技術)を活かす事ができたなら、人間社会をより良くする事が可能だろうとは思います。
ですが、もちろん、ただただAIを受け入れるだけでそうなる訳ではありません。有効に活用する為には、ちゃんとコントロールしなくてはならないでしょう。
例えば、
「AIがビックデータを分析して導き出した結論なのだから、絶対に正しい」
このように考えてしまっては、今までになかったような問題を人間社会に引き起こしてしまいかねません。
そこで、AIの技術発展と一口に言っても様々ですが、今回はその中でも帰納的思考に的を絞って、注意すべき点について語ってみたいと思います。
1.思考の種類
AIによるビックデータの処理は凄まじいレベルに達しています。人間にはおよそ不可能な規模の情報を瞬時に解析し、その関連性を見つけ出したりパターン別に分類したり。効果的に活用できたなら、人間社会はその多大な恩恵に与る事ができるようになるでしょう。
このようなAIが行っている「多くの情報から法則なり何なりを見つけ出す思考」は、“帰納的思考”と呼ばれていて、人間にだってもちろん可能です。ですが、今日のAIが行っているそれは今まで人間が行って来たレベルを遥かに超えてしまっているので、或いは“超・帰納的思考”とでも呼ぶべきものなのかもしれません。
ただし、それは単純なAIの発達によってのみもたらされたものではありません。ITの普及による情報の蓄積やメモリの巨大化、その他情報関連技術の発展など、帰納的思考が活かせる社会的環境が整い始めた結果と見做すべきでしょう。それに、帰納的思考は或いは、元々コンピューターを作り出した目的からは外れているとすら言えるかもしれないのです。こういった環境が整う以前のコンピューターの思考で期待されたいたのは、むしろ“演繹的思考”ではないかと思われるからです。
演繹的思考というのは前提となる条件を展開して、次の条件を導く思考で、例えば数学はこの演繹的思考によってのみ成り立っています(数学的帰納法は、“帰納法”という名前がついてますが、実は演繹的思考を行っています)。
“帰納的思考”にも“演繹的思考”にもそれぞれメリットとデメリットがあるので、このどちらをも充分に活かし、互いの弱点を補い合うべきだと考えられます。
(実際、近代科学の発展はそのようにしてもたらされたのではないかという見方が可能でしょう)
人間から観て規格外の能力を持っているように思えるAIであったとしてもそれは同じで、やはり同じ様にそれぞれの思考にメリットとデメリットがあり、だからこそAIを利用する僕ら人間は、その点に注意をしなくてはなりません。
その理由と、具体的にどんな問題点があるのかをこれから説明したいと思いますが、演繹的思考の弱点について説明した方が、近年になって注目されているAIによる“超・帰納的思考”の重要性がよく分かると思うので、まずは演繹的思考の問題点から説明をしていきます。
2.演繹的思考の問題点
先にも述べましたが、最も代表的な演繹的思考は人間においては数学です。数学は公理(前提条件)から定理を導き出す思考によって成り立っていて、例えばユークリッド幾何では、“まっ平の面”という公理(一応、断っておきますが、説明の都合上、物凄く簡単に表現しています)から、“三角形の内角の合計は180度”という定理を導くことができたりします。
この演繹的思考は厳格かつ完全に成り立っていて、疑う余地がありません。
ただし、それは“前提条件”が、正しかった場合に限ります。
例えば、先程“まっ平の面”という前提条件を持ち出しましたが、仮に“まっ平の面”というのが誤りで、そこが球体の面であったのなら、“三角形の内角の合計は180度”という定理は成り立ちません。
しかも、実際にそれは存在します。何故なら、地球は球体だからです。物凄く精密に測定すれば、球体の面である地球上で計った場合“三角形の内角の合計は180度以上”という事になってしまうのです。
更に正確に言うと、アインシュタインの相対性理論によって導き出された結論によって、地球の空間は質量によって歪んでいることが分かっているので、その球体の面で導き出された定理すらも間違っているという事になるのですがね。
(因みにアインシュタインの相対性理論は、GPSの計算に用いられています。カーナビが正確に位置情報を提供できるのは、地球の空間の歪みを相対性理論で計算して補正してくれるからなのですよ。学問ってものは世の中の役に立っているもんなんです)
それはさておき、前提条件さえ正しければ厳密かつ完全に成り立つというのであれば、この演繹的思考をもっと積極的に活用して、学問や技術を進歩させてしまえば良いとは思いませんか?
が、しかし、もちろん、そんなに簡単にはいきません。
人間による演繹的思考…… つまり、数学が非常に難しいからでもそれはあるのですが、そればかりではありません。
そもそも人間では、演繹的思考を行える範囲に限界があるのです。
“三体問題”という言葉を、ネットで検索してもらえば直ぐに出てきますが、変数がたったの三つ(以上)になるだけで、解を導けなくなる事が証明されているのです。
だから、どれだけがんばって数式をこねくり回しても、様々な因子が影響し合う天気の予測は不可能なんですね。
ところがどっこい、コンピューターを使えばこの三体問題は解決できるのです。何故なら、コンピューターになら多様な因子を同時に演算可能だからです。
ま、つまりは、「コンピューターでシミュレーションをしてしまえば良い」って事なんですがね。
『コンピューター内に別世界を創り上げ、その世界を展開、そこに何が起こるのかを観察してやる』
そのような手続きを執るのならば、三体問題の壁を乗り越えられます。
だから、実際、かつては「より正確な天気予報だってコンピューターを使えば可能になるはずだ」なんて主張もされていたのです。
でも現実はそうはなっていないですよね? 天気予報が外れることは今でもよくあります。特に天候が不安定な時期は。
はい。
実を言うと、コンピューターによるシミュレーションでも乗り越えられない問題があるのです。
それを証明してくれたのは“カオス理論”と呼ばれる理論でした。
カオス理論によって、導かれた結論にこのようなものがあります。
『フィードバックが何度も起きる系では、ほんの微かな計測できないような誤差が増幅されて無視できない程になり、実質的に予測不能性が現れてしまう』
“バタフライ効果”で検索をかけてもらえば直ぐにヒットしますが、これは初期値敏感性などと呼ばれています。
測定精度には限界がありますから、どんなに高度なシミュレーションシステムを創り上げたとしても、そこに設定する値には現実との誤差が絶対に発生してしまいます。その誤差が増幅され、無視できない程になってしまうので、予測は大変に難しくなり、実質的には不可能となるのです。
因みに、更にここに量子力学の“不確定性原理”が絡むと、「原理的にも予測は不可能である」という仮説が立てられます。
不確実性原理とは「極細微の世界は、確率的にしか捉えられない」という事を示しているのですが、確率的にしか捉えられない以上、そもそも“精確な値”など存在しない事になってしまいます。つまり「“精確な値”をシミュレーションの中に設定できない」という事です。ならば、“測定限界の壁”は絶対に突破できないはずでしょう。
ま、これはまだまだ研究途中らしいので、本当にそうなのかは分からないのですがね。
ただし、この予測不可能性は、時間や規模によって現れたり現れなかったりします。
だから、コンピューター内でのシミュレーションがまったく役に立たないという訳ではありません。時間や規模を限定するのであれば、かなりの高確率で予測は可能です。例えば、日本では冬より夏の方が気温が高くなりますが、これはコンピューターによるシミュレーションでも簡単に予測できます。
もちろん、それでも前提条件が分からなければ、コンピューターによるシミュレーション…… 演繹的思考は使えないのですがね。
ですが、帰納的思考の場合はこれらの弱点があまり問題にならなくなります。
初期値から展開する訳ではないので、測定誤差を気にする必要もないし、前提条件を知らなくても使う事ができるのです。
3.帰納的思考について
仮に自分のいる場所が平面なのか歪んでいるのか分からないとしましょう。その場合、“三角形の内角の合計は180度”なのかそうじゃないのかは、演繹的思考では確かめる事ができません。
しかし、三角形の内角の和を実際に測ってみれば、簡単に(……いくかどうかは求められる測定精度によっては分かりませんが)確かめる事ができます。
前述しましたが、このように「集めた情報から法則なりなんなり」を見出す思考を帰納的思考と呼びます。
人間関係の様々な事象は非常に複雑で、全ての前提条件を見つけ出すのは非常に困難です。更に、前述した予測不可能性がある為、仮にある程度の確証を得られたとしても、それを予測に用いる事はできません。
が、この帰納的思考でなら、実用に耐え得るレベルの近似解を得られるのです。
しかも、そのメカニズムを知らなくても統計的に相関性があると分かれば、有効利用する事が可能です。
例えば、フェイスブックで何を評価したかによって、白人なのか黒人なのか、女性であるのか男性であるのか、(アメリカの)民主党支持者なのか共和党支持者なのか、キリスト教信者なのかイスラム教信者なのか、かなりの確率で当てる事ができるのだそうです。
ある行動パターンを執る人々をグルーピングしておいて、そのグループの人達がどんな所属なのかを確認すれば、行動パターンから所属を予想できるからですね。
その上、インターネットを通して働きかける事によって、その行動をある程度はコントロールできてしまえるのだとか(それが選挙に利用されている可能性が疑われていて、ニュースになっていたので知っている人も多いかと思いますが)。
(参考文献:『AIと憲法 山本龍彦 日本経済新聞出版社』)
これはまた別の問題なので、このエッセイでは詳しく扱いませんが、不安を喚起するような事実ですよね。
……と、それはさておき、このように帰納的思考はとても役に立つのですが、やはり演繹的思考と同じ様に弱点だって存在します。
次にそれらを述べてみたいと思います。
4.情報の品質の問題
帰納的思考は“情報を集める”ことによって成り立っています。ですから、当然、情報の品質が悪ければ満足な結果を得られなくなってしまいます。
今のAIによる帰納的思考は、その情報の多くをインターネットから得ています。つまり、スマートフォンやパソコンなどを普段から触っている人達ばかりを対象にしているという事です。
最近は変わりつつありますが、そういった情報機器の類を常日頃から触っているのは、ある程度恵まれた立場の人々です。
つまり、仮にその情報を基にAIが何らかのサービスを提供したとすれば、それは「恵まれた立場にいる人達向けのサービス」になってしまい、貧困層は対象外になってしまいます。
また、普段からインターネットを利用している人達とそうじゃない人達とでは、何かしら行動パターンに差があるかもしれません。その場合でも、AIのサービスは偏ったものになってしまうでしょう。
黒人の写真に対して、AIが“ゴリラ”というタグを付けてしまった有名な事件がありますが、あれはAIが白人のデータしか得ていなかったからです。
少し統計学を勉強した事のある人なら誰でも知っていると思いますが、情報を集める行為全般にこのような問題点があります。だから、当然、AIの判断についてもそれを考慮しなくてはなりません。
『その“情報”は、どんな場所を対象にどんな手段で集めたものなのか。それによって偏りが生まれてしまう可能性はあるのかないのか』
情報の品質によっては、AIの判断は信頼できないものになる可能性があるのです。
更にもう一歩踏み込むと、ある特定の人(達)を攻撃する為に、意図的に改ざんしたデータをAIに流すといった事も可能です。或いは、そんな新たなタイプの犯罪がこれから生まれてしまうかもしれませんね。
いえ、実はもう既に行われている可能性だってありますが……
しかし、では、情報の品質が良かったなら、それだけでAIの判断は信頼できると言えるのでしょうか?
ところが、それがそうとも限らないのです。何故なら、相関関係というものはそんなに簡単に分かるものではないからです。
5.相関関係の判断は難しい その1 ~時系列の情報が必要
ある時に、何かのテレビ番組を観ていたら、このような話が出てきました。
『恋愛経験が多い女性ほど、積極的に自慢をするような男性と付き合うことが多い』
僕はそれを聞いた瞬間「本当~?」と疑いを持ちました。なんでもそういった調査結果が出ているのだそうですが、「それって、本当は因果関係が逆なのじゃないの?」とそう考えたからです。
つまり、「恋愛経験が多いから、自慢するような男性と付き合うようになった」のではなく、「自慢するような男性と付き合うような性質を持っている女性だから、恋愛経験が多くなった」のではないかと考えたのですね。
(まぁ、そもそもその調査が信頼できるかどうかも分からないのですが)
実はこれは“調査結果から分かった事実”のあるあるネタの一つなのですが、時系列の調査を行っておらず、その為、どちらが原因(入力)でどちらが結果(出力)なのか分からないにもかかわらず、因果関係を決めつけているものがあるのです。
(参考文献:『信じてはいけない「統計的に正しい」こと 市毛嘉彦』)
例えば、身長が高ければ高いほど体重が重くなるという相関関係があります。
これは、「身長が高くなったから、体重が重くなったのだろう」と、直ぐに分かりますが、純粋にデータとして観た場合、どちらが原因かは分かりません。だから、常識をインプットされていないAIならば「体重が重くなったから、身長が高くなった」と、判断してしまうかもしれないのです。
そういったような簡単に人間が判断できるものなら、補正すれば済む話かもしれませんが、上記のケースのように判断が難しいものについては、それも簡単にはできません。そして、場合によっては、そのAIの信頼できない判断は、社会問題を産み出す、または悪化させてしまう可能性すらもあるのです。
例えば、アメリカを調査すれば、「黒人の方が白人よりも犯罪者が多い」という結果が得られるでしょう。
ですが、黒人である事が犯罪者の原因ではなく、経済的にハンデを背負っている黒人が、犯罪者になる立場に追い込まれていると判断した方が妥当でしょう。
しかし、これを理解しないAIが「黒人は犯罪を行い易い」と結論付けてしまったならどうなるでしょう?
「AIが言うのだから、正しいんだ」
となって、黒人に対する差別が更に激しくなってしまうかもしれません。
一応断っておきますが、この日本でだって似たようなケースは考えられます。今現在、どんどん、外国人労働者が増えていますしね。だから、よく注意しておく必要があります。
更にこんなケースだって考えられます。
『AIから差別を受け、ハンデを背負ってしまった結果、生活が苦しくなり、犯罪行為に追い込まれる』
どんな原因かは分かりませんが、AIがある人を「危険だ」と判断したとしましょう。それが例え誤りであったとしても、AIから差別を受けた事によって様々な社会的場面でハンデを背負い、追い込まれ、その人が犯罪を選択してしまうなんて事も起こり得ります。
つまり、“AIからの差別”が原因で、犯罪者を産み出してしまう……。しかし、社会の人々はそれをこう判断してしまうのではないでしょうか?
「やっぱり、あいつは罪を犯した。AIの判断は正しかった」
中国では、既にAIにより人間の信用を判定するシステムが運用されているのですが、実際にAIから受けている差別の所為で、辛い境遇に立たされている人達がいて、バーチャル・スラムが形成される兆候を見せているのだそうです。
(参考文献:『AIと憲法 山本龍彦 日本経済新聞出版社』)
この日本でも、“将来発生し得る問題”として、充分に備えておくべきでしょう。
6.相関関係の判断は難しい その2 ~因子は複数ある
前節は、「時系列の情報がなければ、原因と結果の判断がし難い」という話題でしたが、今度は「そもそも相関関係というのは、単純な線で捉えられないケースがほとんどだ」という話です。
因みに、因果関係は“原因と結果”の関係を意味しますが、相関関係はもっと広くて、“何かしら関係がある”という意味です。相関関係の一部が“因果関係”なんですがね。
また事例を挙げて説明します。
当たり前ですが、“女性である事”と、“スカートをはいている事”には相関関係があります。
日本の場合は、女性はスカートをはいている場合が多いですし、逆にスカートをはいているのはほぼ女性しか見当たりません。
しかし、では、“女性である事”と、“スカートをはいている事”に因果関係があるか?と問われたなら、NOと言わざるを得ないでしょう。
“女性である事”という原因だけでは“スカートをはく事”という結果は起こりません。そこに“女性がスカートをはく文化”という環境の因子が加わらなければいけない(もちろん、スカートが嫌いな女性もいるので、これだけではないのですがね)。
実際、“男性がスカートをはく文化”も世の中には存在しています。その文化の場合、“女性である事”と、“スカートをはいている事”の相関関係は成り立ちません。
しかも、実際にこれはある勘違いを既にもたらしてしまっています。
“遺伝率”
という単語を聞いた事がありますか?
まるで、遺伝子が形質として発現する確率を示しているように思えるかもしれませんが、実はこの遺伝率は、前述した環境の因子を考慮してはいません。因果関係ではなく、相関関係を示しているに過ぎないのです。
先の事例だと“女性である遺伝子”に対する“スカートをはく”という遺伝率は高くなってしまうのですね。
遺伝子以外の因子の存在を考慮できていないので、環境が同じ場合じゃないと遺伝率は使えないんです。
ところが、これを勘違いして、遺伝子と発現する形質との因果関係を示していると思ってしまっている人がいる。
よく注意すべきです。
AIは人間には分からないような関連性を見つけてきますが、それが因果関係と呼んでも差し支えないレベルに強固なものなのか、それとも弱い関連性しか示さない相関関係なのかは分かりません。
また、AIがそれを適切に判断していたとしても人間側がそれを誤って捉えてしまう危険性だってあります。
とかく、人間は偏見を持ち易く、ちょっとの事でレッテルを張ってしまいがちですからね。
7.相関関係の判断は難しい その3 ~交絡因子の可能性を排除しなくてはいけない
「“海で遊ぶ客が増える”と、“アイスの売上が増える”」なんて現象を示すデータがあったとしましょう。
そして、AIがその関連性を見つけ出して来てその相関関係を人間達に提示したなら、或いは人間達は「ほぉ そんな関係があったのか!」と感心をしてしまうかもしれません。
ビックデータの解析で、「おむつとビールがセットで買われる傾向が強い」という現象が判明したなんていう有名な話がありますから、似たような一例ではないかと思ってしまう可能性は捨てきれないでしょう。
が、もし人間がそう言ったなら、
「いや、単に暑くなっただけじゃない?」
と、ツッコミを入れるのじゃないかと思います。
暑くなったから、海で遊ぶ客が増え、暑くなったから、アイスを買う客も増えた。
つまり、“海で遊ぶ客が増える”と、“アイスの売上が増える”という事象のどちらにも働きかける“気温が上がった”という因子が存在するという事です。
このように、一見は二つの因子に相関関係があるように思えても、実は二つの因子に働きかける別の因子が存在しているだけという可能性もあるんです。
(もっとも、先程のおむつとビールの事例でも、別に相関関係があるって訳じゃないのですがね)
因みに、その“二つの因子に働きかける別の因子”を交絡因子と呼びます。
もし、ある事象の相関関係を調べたいと思ったのなら、この交絡因子の可能性を排除しなくてはなりません(もちろん、それ以外でも隠れたパラメータの存在を疑う必要があります)。
しかし、AIにその判断ができるかどうかは分かりません。その必要性があると判断しているのかどうかすらも。
何故なら、交絡因子があろうがなかろうが“海で遊ぶ客が増える”と、“アイスの売上が増える”というデータ上の事実は変わらないからです。
相関関係はなくても、実際に予想に使えてしまえはする。
ですが、人間はそうは捉えないのじゃないでしょうか? AIからそう提示されたなら、それらには相関関係がある…… いえ、因果関係があるとすら思ってしまうかもしれません。
もちろん、その勘違いが何かしらの齟齬を発生させ、社会的な損害を与える可能性は充分にあります。
8.AIの判断はブラックボックスになってしまっている
以上、見て来たように帰納的思考を行うのはそれほど簡単ではありません。AIが提示した結果に本当に相関関係や因果関係があるかどうかは分からないのです。
また、仮にAIの判断が正しくても、それに従われては困るといったケースもあるでしょう。
例えば、あなたの出身高校に偶然、犯罪者が多かったとします。AIはそれであなたを危険人物だと判断するかもしれませんが、そんな事で警察から監視されたり世の中から差別されたりしてしまっては堪ったものではありません。しかも、その理由が隠されていたなら、弁解する事すらもできない。
そのAIの判断が妥当なものであるのかどうか、それを人間が判断する為には、その理由が分からなくてはならないんです。
ところが、現在、AIの判断はブラックボックスとなってしまっていて、その理由が人間からは見えないのです。
そこで今現在、AIの判断理由が分かるようにしようという動きが出ています。つまり、AIのホワイトボックス化ですね。
もちろん、仮にそれが実現したとしても完全に安心できるという訳ではありません。そのホワイトボックスとして示された内容が正しいのかどうかも分かりませんしね。
9.AIの活用には価値がありますが
「新たな便利は、新たな不便を産み出す」
なんて事がよく言われていますが、AIに関してもそれは同様…… いえ、それどころか今までの技術発展とは比べ物にならないくらいのインパクトを社会に与える事になるかもしれません。
なにしろ、これから我々は、自分達の代わりにこのAIに様々な仕事を任せ、政治活動を含めた知的活動にまでそれを応用しようとしているのですから。
しかも、“帰納的思考”に絞っただけでもこれだけたくさんの問題点、懸念点が出て来てしまう……
そのデメリットを確り把握した上で克服し、より良い世の中の実現の為に、活用していかなくてはならないでしょう。




