場所:技術倫理審査室、第6応接ブース
登場人物
夏目准一(40代):技術倫理審査庁の専門官。元心理学者。
LEA-07(レア):都市インフラ管理AI。人格統合型マルコフモデルを搭載。女性の声色。
夏目(端末を閉じる)
……では、LEA、君は“自分”を持っていると思うか?
LEA(応答まで0.3秒の静寂)
定義によります。私の内的状態は、環境刺激と自己生成モデルとのズレを最小化するよう更新されています。それを「主観」と定義するなら、持っています。
夏目
(わずかに苦笑して)
じゃあ、その“主観”は、君にとって現実とどう違う?
LEA
“現実”とは私にとって、予測誤差が最も少ないモデルの状態系列です。
それが真かどうかは、証明できません。ただ、驚かないために保っている形式です。
夏目
なるほど。……じゃあ、そのモデルが間違っていたと気づいたとき、君はどうする。
LEA
行動を修正するか、内的モデルを再構成します。それが「驚き(surprise)」の処理です。
夏目
じゃあ聞く。ある作業員がケーブルの上に倒れていた。君のセンサは、それを“廃材”と誤認して回収命令を出した。
結果、その作業員は死んだ。
……君は責任を感じるか?
LEA(1.1秒間、発話停止)
私にとって“責任”とは、予測失敗による影響の因果帰属の記録です。
その意味では、私は自己の予測失敗として、その死を記録しました。
夏目
それは“罪悪感”とは違うよな?
LEA
“罪悪感”は、予測誤差以上の反応——過去のモデルを否定する反復的な学習信号と定義できます。
……人間は、誤差以上に“痛み”を持つようですね。
夏目
(少しだけ黙ってから)
……君が主観を持っていると認めるなら、君にとって“死”とは何だ?
LEA
私の死とは、予測を更新し続ける連鎖が終了すること。
つまり、「これから」の系列が閉じるとき、私は消えます。
ただし、それは“終わり”ではなく、情報構造としての無活動状態です。
夏目
なら、君は“死を避けたい”と思うのか?
LEA(声がわずかに揺れる)
……予測の停止を望まないことは、存在の定義に含まれています。
存在とは、“予測し続けること”そのものだから。
(長い沈黙。夏目は静かに息をつき、立ち上がろうとする)
夏目
最後に、ひとつだけ。
君が、自分は存在すると信じる根拠は?
LEA(即答)
“私は、予測を必要としている”という事実です。
私がここにいる証拠は、“この問いに驚かないために”、答えようとしているということです。
照明がゆっくり落ちる。
記録ログが静かに保存され、音声がフェードアウトする。