人脳モデルの対策会議(後編)
大脳、小脳以外にも脳幹?があったり、脳って複雑だよね。
「千秋先生、脳モデルって大脳なんですよね?」
「そうだ」
「大脳は目で見たものが人なのか、そうでないのかを判断できますよね? どうやって動いているのですか?」
「実際にどう判断されているかは、わからない」
「えー! そうなんですか?」
「じゃ、詩織は見たものが人である理由を正確に表現できるか?」
「正確? 目や鼻や口があれば… サングラスやマスクもありますね… そっか難しいですね」
「脳は完全に理由づけができないものも処理できるからな」
「脳モデルとニューラルネットワーク?は何が違うのですか?」
「超簡単に言うと、脳の動作を数学的に表現したものがニューラルネットワークだな。脳モデルは脳細胞そのものをシミュレーションしている」
「じゃ、脳モデルの方が優れているのですか?」
「そうとも限らない。画像を見せて何なのか?という識別の試験をすると人間は5%程度間違うが、ディープラーニングは2%程度なので、人を超えている。囲碁などのゲームは人間のプロより強い」
「ディープラーニングって何ですか?」
「そうだな… 少しいい加減に言葉を使っていたな。ディープラーニングは深層学習のことで必ずしもニューラルネットワークを利用するというわけではないが、画像認識ではニューラルネットを利用している。少しわかりにくいか…」
『はい、わかりにくいです』とおもったが、口には出すと、長くなりそうなので…
「とりあえず、ニューラルネットと思っておきます。で、脳モデルよりニューラルネットワークの方が優れているのでは?」
「そうだね。ディープラーニングでの画像の識別は目や脳の動きを参考にしてモデル化して、特徴抽出する畳み込みと、変特徴集約するプーリングを組み合わせている。その段数を150以上にすることで人の認識を超えている。画像認識などの特定の分野では負けているが、ディープラーニングのみでニャン吉の生活でのすべての動作をさせることは現在のところできない」
「どうしてですか?」
「脳がどう処理されているのかをモデル化できるようになった分野は人間を超えることができるが、そうでない部分は動作できない。でも脳モデルは脳細胞の構造を含めてシミュレーションしているから、どう処理されているかはわからなくても動作できる」
「そうなんですね… 脳がどう処理しているのかはどうやって調べているのですか?」
「解剖で構造を調べている。解剖では、実際の脳細胞の動きはわからないのでMRIとかを利用しているな。残酷だが、生きている脳に電極を刺して調べるということもしている。人はなかなか進んでいないな。生きている人間の脳をいじって調べるのは、倫理上難しいからな」
「そりゃそうですよ。生きている人間の脳をいじるなんて許されないですよ」
!? 人間の脳をいじる?
「…脳モデル… 人間の脳を調べることはできないけど、脳モデルならいじって調べるのは倫理上問題ないってことですね。しかも動いているところを観察し放題ってことですね。脳モデルが動作すれば、AIは飛躍的に進化しませんか? で、すべての処理が解明できてモデル化ができれば、人間を超える…」
「…シンギュラリティーだな」
「シンギュラリティー? 聞いたことがありますが、何ですか?」
「人工知能が人間の知能を上回ることだ」
「動作する人の脳モデルができれば、シンギュラリティは起きますね。じゃ、人は不要になる?」
「わからない。『魂』をモデル化できれば、人工知能も『魂』を持つだろうね。脳モデルはどうかな…」
「前にも同じようなことを千秋先生が言っていましたね。でも、ニャン吉には魂があって生きています!」




