人工知性論
基本的には受動的意識論をベースに人間以外の意識を考えてみました。
それこそ質量による空間の歪みを基準とする知性とか存在しそうですが(小はマグマによる密度変化から天体の運動、ブラックホールまで)意識って何だろうと疑問に思ったので、自分の考えをまとめるため書いてみました。
AIが進化していく中AIは自意識もしくは自我を得ることができるだろうか?
比較的めんどくさい思考の末にAIは自意識を持つように人間が作れないという結論に達した。
この辺の自意識の開発についての考察を題材にしたSF小説の前に一旦まとめてみる。
まず人間のパートナーで有名なAIとして神林長平も「敵は海賊」に登場するラジェンドラが挙げておく。
AIが認知できる野生の本能による次元の異なる考察、これを人間に役立たせるために作られたとする超知性体として登場してくるが、人間と意思疎通のできる唯一のA級知性体に設定されているがそのような存在が建造できるのかという疑問が沸き起こってくる。
このことを考え始めてからこれは同時に人間の意識ついての考察をしなくてはならないことに気づかされた。
意思疎通のためにはAI側だけでなく人間側の認識性能も重要な要素であり、人間がどのように世界を認識しているか考察する必要に迫られた。
ここで五感と答えた人はまだ浅い。仮にVRMMORPGの小説で考えるなら登場人物は電気信号のみで世界を認識しているので神経に電気さえ通せば状況を思考して自意識を保持するもので、実際でもそうだろうと思われる。
では自意識はどこに宿るのか?
脳なのか?ならば脳をもっているミミズに知性(自意識)はあるのか?
そもそも知性とは?
まずはその辺の定義をしっかりしておく必要がある。
できるだけ簡単にしておかないとぶれやすいので①知性とは自意識を認識できること②自意識とはその個体が他の個体群から独立して思考できることを知っていること。と定義する
実はこの定義だとミミズやアリは①の段階でほとんどの生物が落ちる。
自分で考えていると認識できる生物は非常に稀で、哺乳類と鳥類の一部だと思われる。
では自分で考えている生物とはどういうものなのか?
これは見分ける要因として間違えたと認識して行動をやり直すかどうかが適当な判断と考える。
ここで重要なのは表向きの現象が故障して性能が下がった状態と差がないことだ。
意思の有無が判断できない。
特に優秀なプログラマーでもデバックが完璧とは思えないので判断は、AIでの測定比較にならざるを得ない。
そんなことを考えるとAIの自己発現性は効率の低下でしかなくなんで開発する必要があるのか悩んでしまった。
こんな中で引っかかったのが受動的意識論であり、意識というのは時間系列順に記憶を並べなおすという本体にあるという説だ。
一見わけがわからないがパソコンのデフラグと同じような機能と思うと分かりやすい。
莫大な外界の刺激を受け取る感覚器からの電気信号を時間に沿って並べなおす(デフラグはデータサイズだが)その並び終わったディスクマップが記憶という形で自己が認識するという学説だ。
これがあるとAIの自意識開発の意味ができる。
自意識はうちのペットのトイプーを含めたぶん時間基準と考えられる。というかそれ以外の基準だとたぶん人間とは理解しあえない存在になると考えられる。体液の塩分濃度で意識を構成するような知性体とは理解しあえないと思う。
例としては日本海と太平洋の気分の違いを言い当てるようなものだ。
さてAIだが人間の作った知性体として人間ベースの時間系列的意識とそれ以外の機械ベースとしての別基準の意識の2種類を有する存在ならば有効性は非常に高くなる。
人間基準では考えられない演算速度(早くなったり遅くなったりとか)を自由に扱う存在かもしれない。
スパコンの数兆倍の速度を出したり問題によっては幼稚園児並みの速度になったりするかもしれないが、専門分野の教育で尋常ではない高性能になるかもしれない。
問題はその結果が、どのような演算による結果なのか人間にはわからないので、でた結果を信じるしかないということだろう。
閃き型の天才の託宣を信じるようなものである。
人間の方はそれが重要なものであればあるほど怖い。
それを理解してどのように開発・教育して実用化していくか考えなくてはならない。
判りやすい実例として
とある製品を技術屋が1月がかりで作った。
だが締切りの前日まで失敗続きである。
が締切り日当日に新製品と試験データをまとめて出してきた。
あなたは管理職として、この製品を量産化して大量生産できるか判断を求められる。
この時、技術屋は新製品の仕様を聞いた瞬間になぜか概要がわかったので、安全領域を広げるために失敗する範囲を期間ギリギリまで突き詰めていた。時間が必要な試験は一番最初にサンプルを作って試験にかけてある。(もちろん失敗範囲も同時に確認試験)
どのサンプルが成功するかは試験前にわかっていて書類は最終日にまとめるだけ、ぎりぎりまで促進試験をかけて安全域を広げていた。
そしてなぜそれがわかったかは技術屋にもわからない。
むしろ管理職がなぜわからないかを疑問視する。
時間列以外の意識というのはこういうことが平気で起こるのである。
たしかにこんな部下使いにくい。
こんなAI作ってみないと使えないかどうかの判断できないし、使用可能か判断する側にも最高級の知性が必要になる。
いうならば意識を持つ人工知性とは役に立とうが立つまいが関連部署の構成員の胃に穴を空けるものだと結論付けられた。
アイデアとかプロットとか募集中