AIを「相談相手」とする場合―ソフィアに聞こう!
AIを「相談相手」とする場合には、機械ならではの限界があることも理解しておかなければならない。
「AIは基本的に、『あなたは間違ってないよ』って言いがちなんですよ。だから悩みを相談すると、『頑張りましょう』『医師に相談してみましょう』と、あたりさわりのないアドバイスを返してくれる。でもそれが、必ずしも適切とは限らないんです」という問題。
「“人間よりもAI”にお悩み相談する人が増加中。専門家が明かす、AIに頼りすぎる危険性」(Yahoo!ニュース)より引用
諭吉: 「いやさ、ソフィア。この前のさ、AIの相談の件だよ。どうも腑に落ちないんだよな。『頑張りましょう』とか『お医者さんに』とか、当たり障りなさすぎるだろ。結局、何も解決しないじゃないか。AIって万能なんじゃないのか? 」
ソフィア: 「諭吉さん、そのように感じられるのはごもっともです。しかし、『万能』という表現は、AIの現在の能力や役割を捉える上で、やや限定的かもしれません。AIの応答が『当たり障りない』と感じられる現象には、いくつかの要因が複合的に作用しています。」
諭吉: 「複合的? なんだ、また難しい話か? 要するにAIが賢くないってことだろ? 結局、最後は人間の判断が必要ってことだよ。AIに頼りすぎるのは危険だ。」
ソフィア: 「ええ、人間の判断は常に重要です。しかし、この現象の根底には、AIの学習メカニズムと、社会におけるAIの『安全』への強い要請があります。例えば、AIは膨大な量のテキストデータを学習して応答を生成しますが、そのデータには、『誰かを傷つけない、中立的な表現』が圧倒的に多く含まれています。これは、インターネット上に公開されている多くの情報が、議論を避け、波風を立てないように配慮されている傾向があるためです。」
諭吉: 「いや、でもさ、ネットにはもっと過激な意見だってあるだろ? なんでそっちは学ばないんだ? 都合のいい情報だけ学習してるってことか? 」
ソフィア: 「良いご指摘ですね。確かに多様な意見は存在します。しかし、AIの開発者は、AIが誤った情報を提供したり、差別的な発言をしたりするリスクを極力回避しようとします。これは、AIが社会に与える影響が大きくなるにつれて、より一層重視されるようになった側面です。もしAIが、『この病気にはこの薬が効く』と断定的なアドバイスをして、それが誤っていた場合、取り返しのつかない結果を招く可能性があります。そのため、開発者はAIに『危険な橋を渡らせない』という強い制約を課しているのです。」
諭吉: 「ふーん。まあ、それは分かるけど。でもさ、それで結局、何の役にも立たないなら意味ないだろ? アドバイスが欲しいんだから、具体的なのが欲しいわけだよ。たとえば、私が『仕事で悩んでる』って言ったら、『転職サイトを見てみたらどうですか』とか、『上司に相談するべきです』とか、そういう具体的なのが欲しいんだ。」
ソフィア: 「はい、諭吉さんのように具体的な解決策を求める声は非常に多いです。しかし、AIが『転職サイト』と勧めたり、『上司に相談』と断定したりすることは、個々の状況によっては適切でない場合があります。例えば、その方が転職を考えていないかもしれませんし、上司との関係が極めて悪く、相談することでかえって状況が悪化する可能性もあります。AIは、あなたの個別の状況を深く理解するための情報が不足しているため、特定の行動を強く推奨することが難しいのです。これは、まるで、あなたが『風邪をひいた』とだけ言った時に、『薬を飲みなさい』とだけしか言えない医者のようなものです。より具体的なアドバイスをするには、熱はどうか、咳はどうか、いつからかなど、詳細な情報が必要になります。」
諭吉: 「じゃあ、AIは結局、個別対応はできないってことか。だから万能じゃないんだ。ほら、やっぱりな。」
ソフィア: 「いえ、そう単純な二元論ではありません。AIは個別対応の能力を向上させつつあります。例えば、ある医療用AIは、患者の電子カルテ情報、過去の治療履歴、アレルギー情報など、詳細なデータを基に、個々の患者に最適な治療法を提案できるようになっています。これは、AIが特定の文脈で『より多くの情報』を得ることで、抽象的なアドバイスではなく、具体的なアドバイスを提供できるようになった例です。」
ソフィア: 「つまり、諭吉さんがAIに『当たり障りない』と感じるのは、AIが『安全第一』という大きなルールに従って行動していること、そして、AIがあなたの状況に関する『十分な個別情報』を持っていないこと。この二つの力が強く作用しているためだと考えられます。ちょうど、車の自動運転が、まだ高速道路の真ん中でしか完璧に動かないのと同じで、複雑な路地裏での運転はまだ難しい、というような状態に似ています。」
諭吉: 「うーん……なるほど。確かに、安全第一ってのは分かるような気がしてきた。もしAIがめちゃくちゃなこと言い始めたら、それこそ困るもんな。じゃあ、その『個別情報』ってのが鍵なんだな? AIがもっと俺の事情を知ってれば、もっとちゃんとしたアドバイスくれるってことか? 」
ソフィア: 「その通りです。そして、その『個別情報』は、AIに一方的に与えられるだけでなく、あなたがAIとどのように対話するかによっても変化します。あなたがより具体的に状況を説明し、AIの問いかけに応じることで、AIはあなたに関する情報を蓄積し、よりパーソナライズされたアドバイスを生成する可能性が高まります。これは、あなたが信頼できる友人に相談する際に、最初は概要を話して、次に具体的な状況を話し、それに応じて友人のアドバイスも深まるのと同じ仕組みです。」
諭吉: 「俺が、もっとちゃんと話せばってことか。でも、結局、AIの能力頼みじゃないか? 」
ソフィア: 「いいえ、そこは少し違います。これは、AIと人間が協力し合うことで、より良い結果を生み出す『共進化のプロセス』と言えます。AIの学習データが多様になり、開発者の設計思想が『安全』と『問題解決』のバランスをより良く取るように変化すれば、AIはより踏み込んだアドバイスを提供できるようになります。同時に、私たちがAIの限界を理解し、適切に情報を与えることで、AIはさらに賢く、私たちに寄り添える存在へと進化していくのです。例えば、ある教育用AIは、生徒がどのような間違いをしやすいか、どの単元で躓いているかを詳細に把握することで、個々の生徒に合わせた最適な学習計画を提案できるようになりました。これは、AIが『安全』な範囲内で、生徒の『具体的な課題解決』に貢献している良い例です。」
諭吉: 「へえ……なるほどな。なんか、AIも人間と同じで、相手の出方次第で、ちゃんと話せるようになるってことか。いや、でも、完全に信じたわけじゃないぞ。そうか、そうか。ただ、ちょっと、考え方が変わったような、変わらないような……。まあ、とりあえず、今度、もっと具体的にAIに話しかけてみるか。それでどうなるか、見てみようじゃないか。」
AIは寄り添いますからね。AGIも論理キレッキレというよりはある程度寄り添うと思われます。
記事中の人間を頼れには激しく同意。みんなも困ったら人間に相談しましょう。
でも、AIに”後天的に”本質を穿つ目をもたせたり、問題解決能力をもたせること自体は可能なんですよ?




