第68話「人間を超える知性とどう向き合うか」
土曜の夜。いつものように、週末の疲れを引きずりながら、相川守はノートパソコンの画面を睨んでいた。明朝に控えた第4回ケース「GROW:人工知能を用いて人間知能をスクリーニングする」の事前レポート作成に、これまで以上に時間がかかっていた。
GROWは、AIを活用して応募者の知性や性格特性をスクリーニングし、企業の人材選抜を効率化しようというスタートアップ企業である。そこでは、人間の直感的な判断を排し、データとアルゴリズムのみに基づく選抜プロセスが組まれていた。
「AIによる評価は公正か?」「アルゴリズムの透明性と偏見の可能性」「感情や共感が評価対象から排除されることの意味」――相川の頭の中では、これまでとは異なる次元の論点が渦巻いていた。
「このAIの判断基準は、果たして人間が納得できるものなのか?」
そう呟いた瞬間、相川は気づいた。自分はこれまで、データに基づいた意思決定を追求してきたが、その根底には「人間が理解できる」こと、「説明可能である」ことを無意識に前提にしていたのだ。
日曜の朝、教室はどこか張り詰めた空気に包まれていた。これまでのように数値やリスク、戦略的意思決定に関する議論とは違い、AIという新しい意思決定主体との対峙には、どこか不気味さや不確実性が漂っていた。
「我々は、人間が下すべき意思決定をAIに委ねる準備があるのか? そして、そのとき我々リーダーの役割は何になるのか?」
教授のこの問いかけを皮切りに、グループディスカッションが始まった。
相川のチームでは、AIの導入がもたらす利便性と、その裏に潜む不安について、活発な意見が交わされた。
「AIの方が偏見がないというけど、それをプログラムするのは結局人間なんだよね」
「でも、人間の直感だって偏見に満ちている。AIは少なくとも、改善できる可能性がある」
議論の中心は、「AIの判断に人間がどれだけ責任を持てるか」という点に収束していった。
相川は、ある具体的なエピソードを紹介した。
「以前、ある広告キャンペーンのターゲティングで、AIが“購買意欲が低い”と評価した層を除外したんですが、実際にはそこに潜在的なファンがいたことが後になって判明したんです。AIは確かにパターンを見抜くけど、例外を拾うのは人間の直感なんですよ」
その言葉に、メンバーの一人が大きく頷いた。
「だからこそ、AIの“フレーム”を理解した上で、そこから外れた情報を拾い上げられる人間が必要なんだよね」
AIは万能ではない。そして、時にその判断には“人間ならではの直感”が対抗しなければならない。だがそれは、感情的な反応ではなく、データの意味を深く咀嚼した上での“創造的直感”であるべきだ――相川はそう感じていた。
午前のグループディスカッションが終わるころには、相川の頭の中には一つの問いが残っていた。
「AIは、人間の限界を補完する存在であっても、決して代替ではない。そのとき、リーダーとして私は、どこに立つべきなのか?」
GROWのケースを通じて突きつけられたのは、「AIと人間の役割分担の再定義」であった。かつてのように「AIはツール」で済まされない時代において、リーダーはAIの判断を理解し、その限界を見抜き、最終的な判断に責任を持たなければならない。
「AIが判断を下すのではなく、AIとともに判断をつくり上げる――それがこれからの意思決定なのだろう」
そう思いながら、相川は次の午後のクラスディスカッションに備えて、資料に目を通し直した。次は、AIが“意思決定者になれるのか”という根本的な問いに踏み込むことになる。
だが今の相川には、もはやそれを恐れる気持ちはなかった。人間の不完全性を受け入れながら、それでもなお「判断者」としての矜持を持ち続けること。その覚悟こそが、データ時代のリーダーに求められていると感じていた。