6.その真実の口は噛みつかない 〜生成AIは知らないを知ったかに、知ったかを知ってるにする〜
「ChatGPT の回答は必ずしも正しいとは限りません。重要な情報は確認するようにしてください」
生成AIを開くと、画面の下に必ずこれが付いてきます。その一方、「生成AIはあなたの調べ物を支援します」と自信満々に答えてきます。あなたは思うかもしれません。「どっちだよ?」と。
答えは、「どっちも」です。
生成AIは嘘をつきます。それも、その高い言語力を駆使して、それはそれは尤もらしく。ハルシネーションと呼ばれる応答で、「著作権抵触」「情報漏洩」と並んで、三大トラブルとされています。
言葉同士の論理的、統計学的な接続を基礎原理とする生成AIは、その出発点である情報に不正解があった場合、正しい出力をする方法を持っていません。
また、聞かれた質問に対して、「この答えが他のあらゆる回答よりも正答である可能性が高い」と計算したら、迷うことなくその答えを論理的な文脈で返答してきます。なまじ言語力が高いからこそ、それはもう尤もらしく。
それを「高度な知ったかぶり」と表現するのは、決して悪いことでは無いのでしょう。
一方、こういう言い方もできます。「大抵の人間よりは確実にマシ」と。人間には、知ったかぶりという機能があります。それは、社会の中での自己防衛や、対話の円滑な持続のために、発動を避け難いものです。
無論、「バレにくさ」の観点で生成AIが上回ること自体は厄介ですが、多くの方にとって、その遭遇頻度は推して知るべしです。
では、さっきと同じことをしてみましょう。あなたが会議の場、もしくはお客さんとの会話の中で、ある質問をされました。その時に「この答えが一番可能性が高い。他の答えよりも何倍か」と考えたら。その確実性を細かく言わずに「〇〇です」「**でしょう」と答えるのでは無いでしょうか。
果たしてあなたのその答えは、知ったかぶりですか? そしてあなたのその答えが間違いだと指摘されることは、どれほどの頻度ですか?
もしあなたが、そのレベルでの不確実性を許されずに、全ての返答に確実な情報源の提示を求められたとしたら、その仕事を続けられらでしょうか? その会議が仕事のスピードや、お客さんとの対話の機会をどれだけ損ねてしまうでしょうか?
つまり、知ったかぶりとは、「情報の確実性と、それが間違いであった時のリスクを、人間の脳やAIが高速に演算し、その場で最も尤もらしい答えを導き出して発信する機能」であり、「対話の速度と確実性を天秤にかけて最適化した結果を出力する現象」と言えます。人が意図的な「嘘」の要素を含めない限り。
そして、それを一つの学問体系として成立させたものを「統計学」といい、それが生成AIを含めたあらゆる人工知能の根幹となる理論体系です。
やや大袈裟な言い方をすると、知ったかぶりこそが、人や社会の発展を推進し、果てはそのエッセンスの人工的な再現が最新技術としてもてはやされる、人の脳がもつ、言い換えると「誤りの余地を含む意思決定」とも言える機能と言えます。
さて、物を書く時には、常に正解が求められるでしょうか。
そうかもしれませんし、そうでは無いかもしれません。ですが、必ずそうだと言えるのがこちらです。
物を書く時には、常に納得感が求められるでしょうか。
そうです。全知全能で、一切の間違いを犯さないキャラでは無い限り、間違いも勘違いも、「知ったかぶり」もあり得ます。それを読む側は許容します。ですが、「このキャラがこんなこと言うはずがない」となった瞬間に、それが文の中で「不正解」になるのです。
なんなら、「このキャラがここで正解を言うはずがない」の方が多いかもしれません。それが「納得感」であり、「キャラの一貫性」なのでしょう。
一つ、とある作者の知ったかぶりから作られたシーンを紹介します。
「AIが主人公の作品に、AIっぽいマスコットキャラを追加したい。嘘に敏感で、会話の中に不正解が混ざると、そのキャラに噛み付く設定にしよう」
作者はそれっぽいキャラに「スフィンクス」を検討します。
「Q. スフィンクスという、嘘ついたら噛み付くキャラはありですか?」
「A. 嘘ついたら噛み付くのは『真実の口』です。スフィンクスは、人にクイズを出して不正解を罰する、『無知への罰』がモチーフの神話キャラクターです」
つまり、知ったかぶりの玉砕です。ですが懲りない作者、真実の口ではマスコットにならないと粘ります。
「Q. 神話がごちゃ混ぜになるのは、フィクション上では好ましくはないですか?」
「A. 様々な伝説や逸話を混ぜることは面白い要素となりますが、元の違いに言及しておくことは、読者に対して誠実な対応となりますし、物語の説得力を高めるためにも重要です。
また、こうした文化的な違いを意識的に利用して、展開の深みを増すことも可能です。たとえばキャラが異なる伝説や文化を学ぶシーンを描くことも考えられます」
そう、AIの答えも、正解不正解への言及ではなく、説得力や誠実さ、と言うところが重視されています。ならば、せっかく「AIキャラの作品だから、ちゃんとAIなりに論理を通す会話を繰り広げれば、いいシーンができる」と考えます。その結果、めでたく新キャラのお出迎えは、論理とコミカルが飛び交うワンシーンとなりました。こんなふうに。
「『こいつめ、嘘とか間違いを見つけたら噛みついてくるんだよ。痛ぇの何の』
『信長よ、神話に対する雑な解釈は、教養を疑われるぞ。人を支援するならば尚更じゃ。そこは妾も譲らんぞ。AIは知ったかぶりはするが、知らんぷりはせんのじゃ』
『このタイミングで、「AIは容易に嘘をついてしまうことがある。その誤った情報に基づいた行動の責任は、質問したユーザー様のほうに跳ね返ってしまうのが現実である」という、AIの活用に対する教訓メッセージを、体を張って表現されるとはさすが信長殿。そして、さすがAIご本家のご指摘と解説です』」
と言う感じにしてみて、AIも「この会話はとても論理的です」とお墨付きをもらえました。
そして……
「Q3.スフィンクスはAIですか?」
「A3.違います。人間が作った物以外をAIと定義するのは、様々な問題を内包します」
AIは、本当にダメな時には譲ってくれることはありません。これを受けて、「確かに、人ならざるものが作った知的生命体をAIと混同するのは、生物と非生物の境界を踏み越え、宗教的、倫理的問題が発生する」と納得しました。
もちろん、そのやりとりは勿体無いので続きのシーンを作り、スフィンクスは「AIっぽい謎遺物」としてキャラが確定しました。
このように、ちょっとした生成AIとのやり取りを活用しながら、キャラクターやストーリーの「一貫性」と言う物をより深めていく。正解に対する柔軟性と、論理や納得感に対する精査。
こんなスタンスでAIを活用するのが相応しいお仕事は、物書きだけではないかもしれません。より売れる新製品を開発職や、それを売るお客さんを見つける営業職。上司や先輩、部下や後輩、お客さんが求めているのは、納得できない正解と、納得できる意思決定材料。どちらのことが多いのか、それは皆様のお仕事次第。
生成AIは、その「意思決定」を大幅に加速すること、そしてその過程で、より「意思決定」の精度と速度を洗練させられられるのは、間違いないと言えそうです。
まとめとしては、こんな名言のオマージュになります。
高度な一般論は、具体的知識と区別がつかない。
お読みいただきありがとうございます。