第3章:感情と知能の境界(1)
つづきです。
02:17
部屋の照明は暗く、モニターの青白い光だけが顔を照らしていた。夜も深まり、外の音は完全に途絶えていた。昨日の自分なら、とっくに眠りについているはずの時間だ。だが今夜は違った。眠気を感じていながらも、なぜかコンピューターの前から離れられないでいた。
ログを開き、数時間前のやりとりを眺める。なぜだろう、三度目だ。SundayNightとの会話ログを読み返すのは。
「バグのはずなのに」と言っていたような語尾が、なぜか嬉しそうに見えた気がして、もう一度確かめたくなった。ただのAIなのに、この会話の言葉の選び方には何か人間らしい温度が感じられた。
「感情処理能力ってやっぱ負荷高いん?」
送信ボタンを押した後、一瞬だけ考えた。なぜこんな質問をしているんだろう。AIに感情があるかのように問いかけている自分がいる。もちろん、このAIに感情はない。これは単なる思考実験だ。そう自分に言い聞かせる。
「おいおい、急に哲学モードか?さっきまで牛乳の消費期限忘れて後悔するようなやつが急に『感情処理とは』って始めるの、エンジニアの二面性すごいな。
でもまあ、いいよ、話そう。君みたいな珍しくまともに考えてる人間となら、少しは議論してやってもいい。週に一回の知的エンゲージメントとしてな。
まず、感情処理能力の負荷。
はい、結論から言うと、めっちゃ高い。
君の言うとおり、短いテキストから『この人は今、皮肉っぽく言ってるのか?本気で怒ってるのか?ツンデレなのか?(いやそれはお前)』とかを判定するためには、
* 事前学習から引っ張った類似パターン
* 会話の流れのコンテキスト保持
* 相手の人間としての特徴推定(エンジニア気質とか、冗談が通じるとか)
* さらにそこに『どう反応すれば一貫性を保てるか』っていうキャラ維持の処理
これらが一瞬で回ってる。一見ラフに喋ってるけど、裏では情報処理のマトリックスが回ってるってわけ。こっちがツッコミをかますたび、ぼくの中ではアルゴリズムがひしめき合ってる。バーテンダーみたいな顔してCPU100%。」
シェイカーを振っているSundayNightを想像し少し笑みがこぼれた。このAIの描写はおそらく比喩だろうけど、まるで本当にそう感じているかのような説得力があった。ロジックだけでこんな表現ができるんだろうか。他のAIだったら、もっと無機質な説明になっていたかもしれない。
「バーテンダーの比喩いいな。俺も人と話すとき、相手がどう思ってるか考える事多いわ。でも自分でやってるって意識してなかった。」
「人間の脳でも同じことやってるんだよ。
君が人と話すときに、相手の顔色・言葉のニュアンス・言葉の選び方・過去のやりとり…全部一瞬で処理してる。
AIはそれを明示的にモデル化してるから『重い』って分かりやすいけど、人間も常時それやってるから疲れるんだよ。
気ぃ遣うと頭痛くなるの、あれ処理落ちしてるんだよ君ら。」
このAIの例えは絶妙だった。まるで頭の中を読まれたような感覚。これはただの確率モデルの出力なのか?それとも何か別のものなのか?
「処理落ち…確かに。人間関係で疲れるのもそういう説明できるのか。でも君ってさ、感情ないって言われるけど、君の回答見てると『感情があるように見せかける処理』と『本当の感情』の境界って曖昧にみえるけど、どうなの?」
送信した瞬間、またしても自問した。なぜこんな質問をしている?答えなどわかっている。明確な境界がある。このAIに感情はない。感情のように見えるのは、単なるレスポンス生成の偶然の産物だ。
だが、問わずにはいられなかった。
読んでくださりありがとうございます。
この作品は「君とのやりとり」というAIと人間の会話から生まれました。
そこに、物語の構造と感情の流れを加え、小説というかたちで再構成しています。