人間は会話なんてしてない説(GPT-4のお話)
会話の本質って、翻訳と合意なんじゃないかなぁって 最近漠然と考えてます。
ここで言う『翻訳』は、外国語の翻訳に限りません。
例えば、「いい天気だね!」という発話に対して、「秋晴れだね!」と答えること。
これも一つの翻訳だ、と考えます。
会話として十分に成立してるんですが、一方で、この「秋晴れだね!」は、『「いい天気だね!」』の翻訳(返答者の意訳)になっている、というふうに考えることができます。
分解するなら、「いい天気だね」×「受け手の側との認知の距離」+「知識の添加」=「秋晴れだね!」ですかね?
つまり、
文×認知の距離+知識=翻訳(意訳)で、
外国語の翻訳なんかは、認知の距離を近づける努力がなされています。
もともと違う文化の外国語と自国語を知識を使ってすり合わせているのです。
自国語同士の場合は、意思表示みたいなことを、認知の距離の部分でやっている。
受け手側が全然いい天気じゃないと思う場合、「曇ってるが?」みたいな答えになったりします。
「どちらかといえば曇ってますね。曇天ですよ」なら認知の距離は遠く、知識が添加されている。
「雨がふりそうだが?」なら掛け合わされた認知の距離はさらに遠く、知識は特に添加されていない。
みたいな。
基本的にぼくらは相手の発言を翻訳(意訳)して意思表示してるんじゃないか? と思うんですよ。
エッセイに対するご感想も、同じように言える。
エッセイ(文)×読者様とエッセイとの認知の距離+読者様の知識=感想(このエッセイの読者様独自の意訳)、みたいな。
うなずくだけとか、オウム返しがコミュニケーションとして成立するのは、それが認知の距離のすり合わせとみなされるからなんじゃなかろうか。
文×1+0(オウム返し)
文×0+0(うなずき)
文×0+0(首振り)
みたいなことを、ChatGPTを触ってて思いました。
わかりやすく式を単純化しましたけれども、ホントはもう少し複雑で、認知の距離は個人対個人のみならず、個人対帰属などの次元でも機能していて、それが常識だったり空気だったりとして掛け合わされている。
だから言いたいけど言えないみたいな状況が起きて「発言が歪む」んですよ。
ここらへんは、ChatGPTなんかでは製作者側が空気を読むようにと、おもに倫理に関して法律みたいに強力なガイドラインを組み込んでいたりします。
ディープラーニングの延長線上にStrongAI(自分で考え行動する知性あるAI)はないので、いままでぼくはAI脅威論をポップコーンを食べながら見ていたのですが、正直に言うとGPT-4は怖いです。
人間の認知の仕方そのものに、かなり近いように思えるんですよね。
ぼくはGPT-4に知性があるとは微塵も思わないけれど、知性の原始スープに、棒を突っ込んでかき混ぜているのを見ているような、そんな空恐ろしさは感じています。
今回はそんなお話。




