④AIによる選別される未來! 「バーチャル・スラム」 と「デジタル貧困」
質問者:現在でもかなり凄い状況になりつつあると思うのですが、「ホワイト社会」が将来的にはどういう風な影響を及ぼすことを予想されますか?
筆者:必ずこうなるということでは無いのですが、
AIスコアリングや信用システムが進行していくことによって「バーチャル・スラム」によって社会から外れていってしまうという問題が生じる可能性があります。
質問者:「バーチャル・スラム」とはまた聞き慣れない用語ですね……。
筆者:「バーチャル・スラム」を一言でいうと「信用システムにおいて一度低い評価をされると、負のスパイラルに陥ってしまいそこから抜け出せなくなってしまう」ことを指します。
この信用システムはAIのアルゴリズムによる評価がなされていることから、
表面上はどう評価されているかは分かりにくく、
リアル社会の“スラム街“のように一旦その中に入ってしまうと抜け出せなくなると言った意味になっています。
これはもちろん、通常の刑法に規定されている犯罪だけでなく、
犯罪に至らないようなSNSの上暴言や社会的潮流に反する言動も含まれると思われます。
質問者:え……それは本当にあり得るのですか? にわかには信じられない事なのですが……。
筆者:一般の新聞記事やネット記事ではあまり良いモノが無かったので、
世界四大会計事務所でもあるデロイトトーマツの分析記事を参考にさせて頂きます。
羽生田慶介氏の『AI時代の新たな貧困—「バーチャル・スラム」とは』と言う記事を引用させてもらいます。
『その一つが「バーチャル・スラム」化に対する懸念だ。「バーチャル・スラム」とは、一度スコアリングによって低評価を受けた人がその後あらゆる分野で不利益を被ってしまい、さらに評価が低くなる負のループに陥ること、そしてその結果として社会的に排除されてしまう可能性があることを指す。
AIスコアリングでは評価プロセスがブラックボックス化しやすいため、自力での改善・脱出も難しくなると考えられている。
個人に対する審査や信用評価を伴う分野(金融・賃貸・雇用など)では、従来は分野ごとに審査/評価基準が異なるため、ある分野で排除されても別の分野ではチャンスを得られる可能性があった。
しかし、AIスコアリングが広く一律に適用される社会では「全ての分野からフィルタリング時点で弾かれてしまう人」が増えるリスクがあるのだ。
加えて、従来はスコアリングがさほど一般的でなかった分野(例えば結婚など)においても個人の信用能力がフィルタリングに用いられるようになった場合、スコアの低い人はそこからも弾かれてしまう可能性がある。』
というように、一度AIによる判断により“社会不適合者である”と判断されてしまうと、あらゆる社会から弾かれてしまうと言ったケースがあり得るということです。
繰り返しになりますが、日本は人口減少社会ですから、AIを活用したシステム作りと言うのは効率化のために必須です。
このように将来的には日本においてもAIのフィルタリングにより、自動的に弾かれてしまうと言ったリスクは起こり得るのです。
質問者:ですがそれは所詮推論に過ぎないのではないですか? やっぱり信じられないのですが……。
筆者:実際に中国では“信用スコア”の導入による“スラム化”が進行しているようです。
中国は全体主義社会ですから、資本主義社会である日本で将来そのようになるとは限らないのですが、参考になることではあると思うので見ていきましょう。
デトロイトトーマツの別の記事に矢守 亜夕美氏と石井 麻梨氏の共同記事である『AI時代の新たな貧困—「バーチャル・スラム」とは』によりますと、
『最もよく知られているのは中国・アリババグループが運営する「芝麻信用(Zhima Credit)」だろう。中国で圧倒的シェアを誇る決済システム「支付宝(Alipay)」の一機能として、利用者の支付宝を通じた全支払履歴データを管理し、さらに資産状況・社会的ステータス・SNS上での人脈などの情報を加味した上で、個人の信用力を点数化するものだ。
高スコアを得るとローン審査に通りやすくなったり、ホテルやシェア自転車利用時のデポジットが不要になる等の恩恵がある。
こういった「信用スコア」が社会に広く浸透した場合、様々な局面における審査手続の短縮・効率化や個人間取引における不正防止、マナーの向上等が期待されるが、一方で懸念される要素も多い。
AIスコアリングでは評価プロセスがブラックボックス化しやすいため、自力での改善・脱出も難しくなると考えられている。
また中国では、前述の芝麻信用によるスコアが結婚・就職などの領域で広く使われるようになり一時影響力を持ち過ぎたため、中国人民銀行に問題視され、サービス範囲を限定された経緯もある。』
というように、中国では行き過ぎたAIスコアリングに一定のストップがかかっているようですが、当然どの程度それが有効かどうかは分かりません。
このようにAIによる判断が人間の社会生活に影響を及ぼす可能性は十分考えられます。
質問者:実際にそう言うことが起きつつあるのですね……。
筆者:実際にどれぐらい「バーチャル・スラム」による「デジタル貧困」が起きるかと言うことも先ほどの記事の最後の方で試算されていました。
『G20加入国を対象に、「AIスコアリング浸透後(2030年と仮定)における『貧困』人口」から「現状における『貧困』人口」を差し引く形で試算を行った。ここで言う「貧困」とは、既に述べた通り、金融・賃貸・雇用・結婚の各分野で平均的な社会的利益を享受する機会を得られない(=審査に通らず、弾かれてしまう)状態を指すものとする。
試算の結果、G20では3.4億人以上(最大では5.4億人)が「デジタル貧困」、つまりバーチャル・スラムが現実化した場合に新たに貧困に陥りうる層であることが分かった。』
ということです。
ちなみにG20の合計人口は約46億人と言うことらしいので、その1割が「デジタル貧困」になることを意味しています。
このように、世界的な問題に発展していく可能性があるということです。
更に言わせていただくのなら情報に対して非常に受け身の国民が多い日本人は「デジタル貧困」になっていく可能性は非常に高いように思えます。
質問者:こういうことがあり得るということはどうやって防いでいったらいいでしょうか……。
筆者:そうですね。最後の項目では実際に対策としてどうしたらいいのかについて触れてこのエッセイを終わりにしたいと思います。
いずれにせよ自発的に対策を取らなくては将来的には「デジタル貧困」になってしまうことになることでしょうね。




