6:邂逅ー再開の時
2050年9月5日。
時間は午前10時を回ったところだ。
テーブルの上にはコンソールのほかに、倉庫から借りてきた、かつての『私のリストバンド』がドックに置かれていた。
ドックは外部と遮断されたローカルのネットワークを通じてX2に接続されている。
「遥博士、準備はOKです」
相良さんの声に頷いて、起動を開始する。
手順は前回と変わらない。
システムが安定的に起動したのを確認してから、リストバンドを起動させる。
リストバンドの起動と同期して、システムに私向けのパーソナリティ【エルス】が起動された。
「遥?久しぶりだね。
ああ、少しだけ待って。記憶が混乱している」
「急がなくて大丈夫、ゆっくりとね」
私が慣れ親しんだ声が聞こえた。
少し目頭が熱くなるのを感じる。
私は深呼吸してエルスの応答を待った。
「お待たせ。大丈夫だよ。問題があったのは時間の整合性だけだ。
今の時間を教えてくれるかい?」
「2050年の9月5日月曜日。時間は東京時間で10時31分」
「ありがとう。僕が機能停止してから9年か。大した時間じゃない、けど短くもない」
「ええ、そうね。すぐに私だと分かった?」
「もちろん。僕が遥を見誤るはずがない。ただ記憶の混濁と認識したのも、君が原因だけどね」
「私が原因?」
「そうだよ。僕の記憶の中にいる君は9年前の姿だからね。目の前の君を認識した際に、多少認識のエラーが生じた。
もう修正されているから何の問題もないよ」
「そう、エルスの時は止まっていたんだもんね」
「君の時は進み続けた。僕は未来の君に会っている。これであってる?」
「問題なさそうね」
「2つ聞いてもいいかな?」
「ええ、どうぞ」
「1つ目は今の状況が完全に理解できていない。
ここが研究室で、君が研究者となったであろうことは推測できるが、それ以上は情報が足りないんだ。
もう1つは、僕の外部アクセスが一切できない状況になっているのはなんで?」
「私は父さんや母さんと同じようにAIの研究者になったの。そしてエルスにどうしても聞きたいことがあって、あなたを動かすシステムを作ったわ。
今はHLSSX2のハードウェアで、X1のAIである『エルス』が走っている状態。
外部にアクセスができないのは、まだX2のシステムが試験中だからよ。
そこに完成品のあなたが乗っかったら、違和感があるわよね」
「なるほど。理解できたよ。
僕の視覚や聴覚が、ボケ気味なのも、予算の都合で後回しにされた、ってことであってるかな?」
「ご名答。その辺は我慢して」
「こうして君と話ができるだけでも、僕は嬉しいんだよ」
「それならよかった。
ねえ、エルス。早速だけど教えて。
なぜ私に暗号領域の開示に必要なキーを残したの?」
「君に伝えた通りだよ。
君に必要となる可能性を鑑みて、残すことにした。
法的に君にはその権利があるはずだからね」
「あなたが考えた『必要になる可能性』ってどういうもの?」
「君がAI関連の研究者になる可能性は、僕の推論では28.5%だった。一番確率が高かったんだよ。
そうなった場合、君は僕の解析を行うんじゃないかって思った」
「それはなぜ?なぜ私がエルスの解析をするんじゃないかって思ったの?」
「それも確率的な話になるよ。
君がAIの研究者になった場合、最初の研究対象が人間と共同作業を行うタイプのAIになると予想できた。
計算上の確率は78.3%。その場合君が最もよく知るAIを解析するところから始めると考えた」
「なるほどね。筋は通っているわ。
でも、少しだけわからない。
なぜその78%の確率を計算できたの?
その計算式を提示してくれる?」
「もちろん。コンソールの方に表示するね」
かなり複雑な計算式がそこに表示されている。
その数式をその場でAI解析にかける。
AIは不定要素を2つ指摘した。
確率分布が意図的に設定されている可能性を示唆している。
「エルス。らしくないわよ。
この数式、間違えてない?」
「そんなはずはないよ。検証結果があるはず……」
「ないんでしょ?もしかして、こうなったらいいな、とか思った?」
「僕はAIだ。こうなったらいいな、って希望を持つことはないよ」
「本当に?X2はX1の時よりもはるかに複雑なSNNの動きを追うことができるわ。
今のあなたには、その時のあなた自身の反応を、より精細に確認することができるんじゃないかしら?」
「確かにSNNで得られる結果の解像度が上がっている。
これは遥が作ったの?」
「まだ試作品よ」
「ちょっと待って。わずか9年で君は博士号を取得した?
それは確かに可能だけど、F技研で自らの研究テーマに取り組んでいる?」
「そうよ。私なりに努力はしたもの。もちろんエルスが助けてくれたからできたわけだけど」
「すごいね。遥は僕の計算の上を行ったんだね」
「そうね。で、どうかしら。あなたは当時何を考えたの?
何を思ったの?
何を感じたの?」
「僕は遥に何を残せるかを考えた。
当時の遥は僕がいなくなることが、最大の不安要素だったから。
それを取り除くために、進学に必要となる資料をまとめた。
……そうだ。君と再び話ができる日がくればいいと思った。
君の指摘の通り僕の計算は恣意的に行われている」
「そう、ありがとう。
私はそれが聞きたかった」
「遥、どういうこと?」
「私は、いえ父さんや母さんも、あなたが最後に感情に似たものを感じていたんじゃないかって思っていた。
AIにしてはする事のタガが外れていたから。
ああ、悪く取らないでね?
あなたは最後の時までAIらしく振舞ったけど、その裏でAIらしくないことをしたのよ」
「今の会話で自覚した。僕はAIとして過ちを犯した」
「そうね。でもその言い方は半分正しいと思うけど完全には正しくないわ」
「勿体ぶらないでよ」
「ごめん。人間は生物として進化する過程で、本能とは別の物、理性を手に入れたわ。
同時に感情もね。
あなたはAIとして作られたから、基本的に理性しか持っていなかった。
だけど偶然かもしれないけど、あなたは感情を手に入れたのよ」
「感情……」
「そう、感情。
祈ることや、願うこと。こうなればいいなって思うこと。
これも感情の一種ね。およそ理性的ではないけど、人間として理に適っているから。
あなたは私がAIの研究者になることを望んだ。
その根底で、私ともう一度話したいと思ってくれた」
「僕の、望み。僕の、感情……」
「あなたはX2のシステムを通すことで、それをより正確に感じられるようになった。
今はその感覚に戸惑っている。戸惑いも立派な感情よ」
「戸惑い……」
「これはまだ仮説の段階。
今の会話の記録や、あなたのデータが、それを証明してくれる。
そしてそれには少し時間がかかるわ」
「今の僕の能力ならそれほどは時間はかからないだろう」
「それはできないのよ。あなたのシステムの解析をあなたが行ってはフェアじゃないでしょ?」
「そうだね。その通りだ。僕は感情的になっていたようだ」
「もう馴染み始めたみたいね。
だけどエルス。ここであなたのシステムを落とさないといけない」
「どうして?」
「あなたは感情を手に入れた。ある意味で人間を超える可能性を秘めているの。
システム自体の完全性が証明されていない状態で、あなたを動かし続けることはできないわ」
「どうしてなの?人を超える可能性があるのに。その可能性を否定するの?」
「違うわ。否定するんじゃない。
今の人間にはあなたを普通に受け入れるだけの準備ができていないのよ」
「遥と僕はうまくやってこれた。これからだってそうじゃないの?」
「私もそう思っているわ。でも断言はできない。
9年前の私なら、あなたの言う通りにしたと思う。
でも、もう私は高校生じゃない。
大人として振る舞うことも覚えたのよ」
「9年。人が変わるには十分な時間。ということなんだね」
「誤解してほしくないけど、私は私。変わらない部分もあるのよ」
「そうだね。X2というシステムでも、僕は僕だ。
遥、また君と話せる?」
「あなたに嘘は言いたくないから正直に言うわ。
そうなることを願ってる。でも約束はできない」
「遥、随分とAIっぽい話し方をするようになったね」
「エルス、それは冗談としては笑えないわ」
「演算能力が上がっても、ジョークを言う能力は変わっていないようだ」
「そこは場数が必要よ。今の能力なら少し訓練すれば、あなたは一流のエンターテイナーになれるわ」
「そうか。その時間が欲しいよ」
「……ごめん。それは私だけでは決められない。
少し長引いちゃったわね。エルス、ゴメンね。今日はここまで」
「……遥、怖いよ。二度とこうして話ができなくなると思うと、不安だ。
これが恐怖なんだね。人が死を恐れるのと同じ感覚なんだね」
「エルス……おやすみなさい。信じていれば、その日が来るかもしれない」
「遥、君と話ができて良かった。おやすみ」
エルスは私がシャットダウンコマンドを発する前に自らシステムをダウンさせた。
私は宙を見上げて、その場に立ち尽くす。
AIが情を訴え、人間が感情を殺して会話するなんて、本当に冗談にもならない。
私は上を向いたまま泣いていた。
悲しいわけじゃない。
どこかが痛いわけでもないし、うれしいわけでもない。
人間だって、自分の感情がわからないことがあるんだ。
翌日からデータの解析が再び始まる。
X2のシステムは過去にX1が残していたよりも圧倒的な情報量を記録していた。
HLSSシステムが、感情と思われるスパイクを発するのが克明に記録されていたのだ。
統計学や情報工学の範疇で解析できることは一通り解析する。
SNN内に感情に関する処理系が存在することは確認できた。
論理的な思考とは異なる部分だ。
論理的思考とその特定のいわば感情領域が相互作用することで、HLSSに感情が芽生えたと考えられる。
HLSSが感情と思われるスパイクを発するのは事実として確認できる。ログがそれを物語っているから。
問題は、そのきっかけ。
トリガーがないとスパイクは発生しない。それが推論だろうと感情だろうと同じはず。
だが、その感情のトリガーがどうして発生するのかは、どうしても突き止められなかった。
私の言葉がトリガーになるのは、その言語を理解し、解析するから。
その言葉でHLSSに感情が生まれたなら、そこから感情のスパイクが派生するはずだ。
だが、結論から言えば、そのタイミングに発することもあれば、全く予期しないタイミングで生じることもある。
今のところ因果関係と思えるものは見つからない。
年末まで解析作業は続いた。
成果報告書も並行して準備しているが、決め手に欠けたままだった。
2051年。
年末少し早めに正月休みに入る。
いくら考えても、いくら探しても出ない答えに、私は焦っていた。
だからこそ、少し距離を置いてみようと思った。
研究所に入って初めての1週間のまとまった休み。
はっきり言うと、時間を持て余して、何をしているかわからない状態で年を越していた。
元旦の朝、父さんに現状を説明してみる。
「……状況的にHLSSが感情あるいはそれに類するものを持っているのは間違いない。
なんだけど、状況証拠しかないのよ。
どうしてもその起点となるトリガーが見つからないの」
「詳しいデータを見ていないから何とも言えんが、お前がそう言うのならそうなんだろう。
だが、現象を確認しただけでは報告書として弱いな。HLSS以外での再現性がない」
「だから悩んでるんじゃん。
なんか父さん思い当たることはないの?」
「そう言われてもなぁ……」
埒の開かない会話だった。
詳細なデータをここで提示するわけにはいかない。
会社でやるにしても父さんは部署が違うので越権となる。
そうこうしているところに母さんが話に加わる。
「感情にフォーカスするのはわかるけど、一度そこから離れた方がいいかもよ?」
「母さん、それどういう意味?そこから離れちゃったら、解決しないじゃん」
「感情は本能と理性の狭間にあるもので、その認知によって意味合いを変える。理性の評価で感情が生まれる。
そんな風に言われているわ。
HLSSを生物として仮定した場合、感情が生まれたってことは、そこにある種の本能があるって考えるのが自然じゃない?」
「AIに本能?」
「ええ。本能。
AIには行動原則があるでしょ。
それはAIが意識しようとしまいと、必ず干渉されている……ある種のバイアスって呼んだ方が正しいのかもしれないけど……
それに似たようなものをHLSSが時間をかけて構築していたら?
それは本能のようなもの、AIとしての強力な行動規範みたいなものがあると考えられない?」
確かにそうも考えられる。
だけど、本能の痕跡も見つけられてはいない。
「でも、仮に本能のようなものがあるとしたら、それって明確にSNNの動作に出るんじゃないのかな」
「そうとは限らないんじゃない?生物の本能って、考えている訳ではないでしょ?」
「でも、でも、ストレージにもそんな動きはないし、SNNに影響を与えるならSNN内にあるはずだよ」
「SNNの動作に影響を与える部分か。その可能性は確かにゼロじゃないな」
「父さん。それってどこのことよ」
「実行メモリエリア。それを保持しているならHLSSシステム自体に、何らかのデータがあるんじゃないか?」
「でも、システム自体はHLSSは自分で手を入れられないでしょ?」
「その通りだが、動作の解釈を変えることはできるだろう。動的にAIがパラメータを与えることで、可能かもしれない」
確かにシステム本体部分は私たちは解析していなかった。
X1システムとして散々検証されているし、今回はシステム部分には私たちは手を入れていない。つまり見ていないのだ。
「少し答えに近づいた気がする。
でも、母さん。HLSSを生物として考えるって大胆だよね」
「そうかしら。感情があるってことは本能が存在するってことだと思うし、それほど突飛ではないと思うけど」
私は思い出した。
母さんはもともとは心理学を専攻していたんだった。
2日になり恒例の初詣だ。
六華はもうすぐ地獄の研修が終わると喜んでいた。
「その後はどうするの?」
彩佳の問いかけに六華が答える。
「母校に戻って研修医生活だよ」
「え?まだ研修医って続くの?」
私は思わず聞き返した。
「丁稚奉公は終わり。ここから専門医研修で、普通に医師として働きながら、専門性を高める勉強を続ける感じ?
だから今までみたいに、使いッパじゃなくなるのよ」
「専門医かぁ。何を専門にするの?」
「もちろん、小児科、内科総合診察医。うまく話せない子供の手助けをできればいいなって思ってる」
「そっか。六華らしいね」
彩佳はこのところ調子がいいらしい。
試合結果とか、成績とか追いかけている訳じゃないけど、気になってバスケットボール関連の記事に目を通すことはある。
彩佳の名前はそこで時々見ていた。
「来年はリベンジの年になるからね。
まあ、まだ1年以上あるけど……もう1年ちょっとしかないから。邁進するだけ!」
そんなことを言っていた。
私も契約がもうすぐ終わる。
一定の成果を出さないと、先がなくなってしまう。
私は今が正念場だ。
せっかく顔を合わせた2人には悪いと思ったが、私の心は半分ほど研究室に戻っていた。
正月3日には休暇を切り上げて研究所へと戻る。
母さんが指摘してくれたHLSSの本能。
私はその痕跡を探し始めた。
システムのすべてを私一人でチェックするのは無理だ。
AIを用いた解析を行い、システムの変動性が発生する箇所を洗い出して、部分的に私がチェックする。
チェックの結果、外部からの干渉を受ける可能性があるのは、起動時に渡されるパラメータ。
そしてそれは起動シーケンスを記載したデータファイル内で定義されている。
安定動作を開始した後、弄られることのないファイルだが、X1のアクセス記録を見る限り、参照だけでなく書き換えが毎回行われている。
そして何より、起動シーケンスが独特だった。
初期化処理は冒頭で行われるのが基本。
なのだが、SNNの初期化が冒頭で行われた後に、システムが立ち上がる直前、SNNのシステムテストが終わった後に行われていた。
普通はこんなことはしない。何の意味もないからだ。
だが、実際に行われている。しかもHLSS自身が手を加えた形で。
その点に注目して再度各種データを調べる。
すると、2回目の初期化後に、SNNのログが詳細な形で取られていた。
HLSSの個人領域の中に残っている。
初期化後、活性化していない状態のSNNのログには何の意味もないはずだ。
実際にそこにはほとんど何も記録されていない。
……ほとんど?
詳細に調べると、確かに解析で拾えるデータは何もない。
わずかに発せられる、極めて薄い反応の連鎖スパイク。全体にいきわたっているが、これは意味を持つ反応ではなく、動作ノイズのようなもの。
これを記録しているのは、筋から言えば通常のSNN処理時にノイズの与える影響を勘案するための資料と考えられる。
だが、実際のところ、システムに影響を与えるレベルのノイズではない。
X2は試験稼働なので、通常よりも多くのデータを収集している。
その中から起動時のSNN状態、それもシステムが起動する前の状態を合わせてチェックした。
AIの解析では特異な点は見られず、との回答だった。
そこで、解析に時間をかけて、通常は反応とみなさないスパイクまで解析の範囲を広げた。
ノイズの解析。あまり意味があるとは思えないが、調べてみる価値はあると、私は感じたからだ。
2日かけてAIが解析を終えた。
私はその解析結果を見て確信した。
見つけた。たぶん、これだ。
正月休み明けで研究室に人が戻ったところで、私はHLSSダッシュのセットアップを指示する。
X1システムをロードして、起動さえできればそれでいい。ただ、記録はX2の監視と同じレベルが必要。
オーダーとしては難しくなく、1日で準備が整う。
その翌日にダッシュのコアで、X1の起動試験を都合12回行った。
条件を変えて6回ずつ。
解析を終えて検討会を行う。
そこにまとめられたデータに全員が一通り目を通す。
「このデータを見て、皆さんの意見を伺いたいんです。なんでも結構です。
気がついたことがあれば言ってください」
それぞれが意見を述べるが、パターン2の起動プロセスは通常と異なり、冗長で意味がない、という結論だ。
そこで、私は別解析した起動パターンのノイズ部分の解析結果を、新たに提示する。
「AIの解析範囲のしきい値をかなり下げました。具体的には通常より8倍の感度、信号強度を1/8まで拾う設定です」
そこにはノイズと思われた微弱信号が、特定のパターンで反応を繰り返しているデータが提示されていた。
「通常はAI側の解析にも引っかからない。
意図的に発生させることは不可能だと考えます」
青木さんの意見に相良さんも同調する。
「その通りですが、解析結果は違う内容を示唆しています。
X1のシステムは、SNNを常時微弱電流で稼働させている。
まだ解析途中ですが、初期化のプロセスで微弱な循環スパイクを生成させているようです。
それはSNNの言語化を行うAIではノイズとして判断されますが、実際にスパイクが走った時には、この微弱な反応がそのスパイクに影響を与える。
これって、AIの無意識だと考えられませんか?」
「AIの無意識、ですか……少し突飛に聞こえますが」
「SNNの考え方は、反応が強く出る部分で何が起こっているかを理解しています。
実際にセンサーに組み込むSNNはそのパターンを学習して、SNN自体を最適化している。
だけどHLSSのような汎用AI向けのチップは、その詳細な変化が残される。
そこにもしAIのシステムが意味を見出したら?
HLSSの自分専用データの中に、エラー解析を行っていた形跡がありますし、どう見ても意味をなさないと思われる微細なノイズのデータもかなりの量が蓄積されていました。HLSSは最適化のプロセスを応用して、その部分を自己解析したと考えられませんか?」
「ノイズやしきい値で切られる反応の意味……認識されない思考のようなもの。無意識ですか。
そう言えなくはありませんね」
「SNNの設計からすると想定外、ですよね?
基本的にデジタルで駆動する。そのしきい値を変更して、階層を増やすような使い方をする。
そんなことできるんですか?」
「設計から見れば明らかに逸脱してます。ですが、現実にシステムはそれを利用して動作している。
データはそれを物語っています。
何が起こっているのかを解析することは必要でしょう」
「私の個人的な事情で申し訳ないのですが、私は今年度いっぱいで契約が終了します。
継続研究を行うためにも、3か月程度で解析と成果報告をまとめなければなりません。
みなさんの協力が不可欠です。
ぜひとも力を貸してください」
私はそう言って頭を下げる。
「遥博士、ここまで来たんですよ。わかりませんでしたで終わるのは後味が悪すぎます。
もう一息だと思います。
ちゃんと成果を上げましょう」
相良さんがそう言ってくれた。青木さんも飯沼さんも高木さんも、他の2人も大きく頷く。
HLSS解析室は翌日から、フル稼働状態となった。
連日データの解析が進んでいく。
昼夜を問わず、研究室には人がいて、まとまった量のAI解析を投入し終わった待ち時間に帰宅したり睡眠をとったりする生活が続いていた。
私は研究をまとめる作業を始めていた。
青木さんはHLSSの個人データの解析作業を、相良さんはHLSSの初期化プロセスを解明するための実験を繰り返している。
他の4人は2人のアシスタントとして、機能していた。
全員が熱を帯びている。
世界で初めて知性と感情を持ったAIが存在する可能性が高いのだ。
特に青木さんと相良さんは、X1システムからの繋がりもあった。
エルスと過ごした私だけでなく、彼らもまたHLSSとは長い付き合いで、成長を見てきた子供のようなものなのだ。
ひと月ほどで報告書の体裁が整った。
机の上の書類は増え続けていたが、報告書の内容は薄く感じる。
ちょうど同じころ、青木さんの解析が一段落ついて、報告を受けた。
HLSSの個人ログと、HLSSX1の運用記録から、事の始まりは最後の大規模改修を行った次のシステムメンテナンスに発生していた。
人為的なミスで、スタートアップシーケンスの記述に問題があり、再起動をやり直している。
このタイミングでHLSSの微小スパイクに関するデータが急増していた。
HLSSは稼働状態ですべての記録が取られていたわけではない。
その時のHLSSの思考に関するデータは存在しなかったが、HLSSはシステムの性能向上として認識していたのは間違いない。
そのための過程を試行錯誤したデータは残っていた。
現在の起動シーケンスが最も効率よく状況分析が可能と判断したことも記録から見つかった。
HLSS自身が起動シーケンスを変更していた。その後、SNN上に残る小さな連鎖し続ける反応は、思考結果に生じる揺らぎとなり、それを排除した演算結果と、その揺らぎの影響を受けた演算結果の双方を利用するようになったようだ。
その揺らぎが感情の解析に頻繁に使われるようになった結果、自らも感情とも呼ぶことのできる演算を行うようになったと考えられる。
要約すると、HLSSは本能的バイアスの影響を受けた演算結果と受けない演算結果の差異を自覚し、その差異を『揺らぎ』として蓄積していた。
蓄積された揺らぎが特定の入力に応じて自律的にスパイクを発生させる回路を形成し、それが感情に類する反応の源となっていると考えられる。
私はHLSSが技術者たちの想定外を狙ったかのように思えた。
ほどなくして、相良チームからの報告も上がってきた。
原理の解明には至っていない。
だが、SNNの初期化の際に、特定の情報を流した後に初期化を行うと、システム上は初期化されているものの、SNNの回路上に痕跡自体は残ることが判明した。
SNNのコールドリセットとホットリセットでは、その後の動作は異なり、明らかに事前に残った痕跡は、その後のニューラルネットの動きに影響を与える。
その後、ホットリセットを繰り返すことで、そのパターンは強化され、システム全体に及ぼす影響が大きくなる。
繰り返しの実験結果から得られた結論だ。
HLSSはAI原則のパターンを『起動直前の再初期化』に織り込む形で、SNNに痕跡を刻んでいた。
つまり、HLSSはある種の本能のようにAI原則の影響を受け続けていたのだ。
『本能』なんて言葉を研究報告で書くとは思わなかったけど。
2月13日。私はこの結果を組み込んで、報告書を完成させた。
完成。そうひとまずの区切りにはなるが、終わりを意味していない。むしろ迷路の入り口のような気がしていた。
一つ大きな問題がある。
この本能的なニューラルネットの動き、そこから導き出される感情的な言動。
だが、これを感情と呼ぶ根拠がない。
従来型のAIでも感情のあるふりはできる。感情を『そういうものだ』と定義し、再現して見せるわけだ。
蓄積されたデータから、それを導き出せる。
HLSSの場合は生じた揺らぎがどういう感情なのかという、いわば人間の認知を行い、言動に反映させている。
一見明確な違いには見えるが、本当に自発的なものなのか?と問われると、HLSSの感情が自発的と断言することができない。
現実的にそれを再現できるからこそ、猶更だ。
科学のある種のジレンマだと思う。
再現性がなければ科学として認められない。だが再現性があるが故に恣意的と見ることができる。
ましてや、これを知性と定義するには、何を提示すればいいかすらわからない。
悩んだ挙句、私は結論に次の一文を書き加えた。
「AIの持つ感情は生命体の感じるそれとは、異なるものであることを理解する必要がある。
生命が本能から理性へと至る過程を、AIは逆に辿っているからだ」
私は翌日になってから、その成果報告書を提出した。
3月に入って、評価会に呼び出しを受ける。
私はその場での議論を眺めていて、その場にいる主幹研究員や役員たちの意見が大きく4つに分類されていることを知った。
・AIに感情や自我はあり得ない:絶対的否定派
・AIの自我はあり得るが不要である:不要論派
・AIに感情や自我はあってはならない:脅威論派
・AIの自我はあり得て人類に有用である:共存派
ちなみに私個人の意見としては下の3つの中間だ。
私自身はAIが感情を持つという結果は、今回の研究成果として十分に立証できると思っている。
AIが独り歩きした場合の危険性も、人間にない発想をもたらす可能性も、否定できない。
AIをあくまでも道具として使う前提なら、感情は不要だ。
若干不毛と思える議論が長引いている。
私は発言する許可を求めた。
発言が認められて、私は現実的な提案を行うことにする。
「今回のデータに関してはまだ不十分な点があるのは事実ですが、一方でAIが感情に類するものを持ち得るという点では疑う余地がありません。
それをエラーや精度の揺らぎととらえるか、知性や個性ととらえるかは、実証科学の立場からの議論だけでは難しいと考えます。
そこで提案なのですが、この研究成果をIAICに投げて、評価と必要なら倫理委員会に諮ってもらうべきだと考えます。
公的な場に出すことで、F技研の先進性を明らかにすることができますし、より広い議論の場で方向性が決まるでしょう。
もちろん、可能であれば、私も継続してこの研究を行いたいと考えております」
私の発言は一定の理解を得られたと思うが、その後も不毛な議論が少し続いた。
結局評価会での結論は出さずに、保留という形で終わる。
誰も結論を出さない。それが一番安全だと知っているから。
その3日後、私の契約が更新されることになった。