専門家のジレンマ(AI時代のコミュニケーション術)
専門家のジレンマというものがある。
「専門家が専門の領分の話をするとき、一般の人からは気取った頭の悪い人に見える」という問題だ。
例えば、こういったものだ。
医療の例: 医者が「標準療法を厳守しないと予後が悪い」というと正確だが一般には「なにか悪いことが起こる」としか伝わらず気障な印象を与える。
法律の例: 弁護士が「契約の瑕疵」と言うと、一般人には「何か問題があるらしい」としかわからず、気取った印象を与える。
専門家は、正確に端的に話すために、高文脈依存、高圧縮率の言葉を使うのだが一般の人には理解されず(解凍されず)に、ひどいときには、『頭の悪い気障な痛い人の発言』と捉えられてしまう。
実際、頭の悪い人が自分を大きく見せようとして難しい言葉を使うことはあり、その場合とは言葉の圧縮率が違うのだけれども、一般の人からは見分けがつかない。
AIは膨大な学習によって、高圧縮率の言葉を理解するのが得意だ。
また、履歴が使える場合はさらに、ユーザー毎に適した言葉の圧縮率に解凍し、パーソナライズされた解釈を上手にユーザーへ提供してくれる。
深い知性の持ち主へは深い情報として、浅い知性の持ち主には浅い情報として。
専門家はAIに専門的な質問を投げ続けるうちに、高圧縮な言葉が通じると思いこみ、また、一般の人はAIに専門的な質問を投げかけ、AIが簡略化された回答を提供することによって、深い理解に至らず過信が生じるのだ。
こうしてAIにより、ダニング=クルーガー効果は加速されるだろう。
言葉の圧縮率の違いについて、一つ実例を示そう。これは、ぼくが別のエッセイでAIに投げたプロンプトを元にしている。
――プロンプトここから――
1.二元論思考は認知平面上でアトラクターポイントになっている。
2.二元論思考は、それ自体が依存性と負の再帰性を持つポテンシャル井戸として機能する。
3.人は、物事を『白か黒か』、『正しいか間違ってるか』みたいに単純に分けたがる癖がある。単純に分けることは、楽だから、毎回それを選びがちである。たとえば、SNSで『この人は良い人だ!悪い人だ!』とすぐ決めつけたりとか。一度その考え方にはまると、どんどんその枠に縛られて、いろんな可能性やグレーゾーンを見逃す。そこから抜け出すのは、困難で工夫と努力が必要だ。
1.はAIのプロンプト向けの超高圧縮言語、2.は専門家や知的な人向けの高圧縮言語、3.は一般の人向けに解凍したものだ。
AIに解釈させれば、これらは全部概ね同じ意味だという回答が返るだろう。
――プロンプトここまで――
Copilot(AI):
その通りです。
それぞれの表現は、圧縮のレベルや対象となる読者が異なるだけで、根底にある意味は概ね同じです。
- (1)の表現は、AIのプロンプトなど特定の文脈で、膨大な背景知識を圧縮して一瞬で伝えるための非常に高圧縮な言語です。
- (2)の表現は、専門家や知的な層が共有する概念体系の中で使われる、多少具体性と論理性が補助された高圧縮な言葉になっています。
- (3)の表現は、一般の人々にも直感的に理解してもらえるように、具体例や日常的な言葉に置き換えて解凍したものです。
もしAIに解釈させれば、内部的にはこれらがすべて「二元論的な思考が認知において誘引的かつ自己強化的な固定化パターンである」という同一の現象を示していると理解するでしょう。
このことは、コミュニケーションにおいて「誰に何を伝えたいか」という対象読者に合わせて、言葉の圧縮率や具体例の提示を調整する必要があることも強調していますね。
――Copilotの応答ここまで――
AIに指摘された通り、専門家側も、『コミュニケーションにおいて「誰に何を伝えたいか」を考えて、対象読者に合わせ、言葉の圧縮率や具体例の提示を調整する必要がある』ということだ。
専門家はAIを活用し、対象読者に合わせた言葉の圧縮率を調整する。例えば、一般向けには具体例を多用し、専門家向けには高圧縮言語を使う。
つまり、AIに『解凍レベル』を指定するプロンプトを与え、適切な説明を生成させるようにすればいい。
今後、AI時代では、そのスキルがますます重要視されていくだろう。