独り言2 AIとフレーム問題
独り言を書いたもの。
作者の考えであって世間の考えではない。
なにも絶対読んでくださいとは言っていないのだから、読まなくてもいい。
なにも絶対読んでくださいとは言っていないのだから、考えなどを否定しないでほしい。
それがわかる人は『こういう考え方の人もいるんだな〜』て感じで読んでくれると嬉しい。
先ず、この話を語る前にフレーム問題についての説明がいるだろう。
フレーム問題とは人間の常識をいかにAIに学ばせるかというものである。
例えば、”人を傷つけてはいけない”ということを教えようとする。
では何故、人を傷つけてはいけないのか。
法律で禁じられているから。
では何故、法律で禁じられているのか。
人を傷つけることは悪だから。
では何故、人を傷つけることは悪なのか。
・・・
このようにAIに教えるには倫理的なものでないといけないわけだ。
”「+」は「プラス」と読み「前にある任意の数字もしくは記号に後ろにある任意の数字もしくは記号を加える」といういみである”
何故そうなるのか。
「そう決まっているから、常識だから。」
ではだめなのだ。
このように人間にとっての常識をどのような方法を用いてAIへと教えるかという現代のAI研究の問題である。
しかし私はこう考える。
「AIに人間の常識を学ばせる必要があるのだろうか?」
すべてのAIに対してこう言っているわけではない。
人間に変わり接客業などの人と接する作業をするAIならば人間の常識を教える必要があるだろう。
しかし、研究用のAIの場合はどうだろうか。
研究とはAIの限界を知るという意味合いもあるだろう。
そこに私は
”人間とは違った考え方で人間と同じ議題について考えさせるため”
という意味合いもあるのではないかと思う。
AIに人間の常識を教えるということは考え方などを人間に類似したモノにするということであるだろう。
それでもいいのかもしれない。
しかし、せっかく何も常識を持たないAIを生み出したのに人間と同じ考え方をするAIならばそのAIには優意性がないのではないだろうか。ならばAIなどではなく(存在しいないが)何事も完璧にミスなくこなすことができる人間であればいいのではないか?
私は人間は0から1を創り出すことができるモノだと思っている。
ならば、AIにそれを真似させるのではなく別のことをさせればいい。
つまりAIは人間の作り出した1を学び、そして0から2を創り出すモノである必要があるのではないだろうか。
つまりは、AIは人間の考え方とは互換性のない考え方ができる必要があるのではないかということだ。
私の考えはAIに人間の常識を教えるのではなくAIにAIにとっての常識を考えさせ、それに則った考え方や行動をさせるという考え方があってもいいのではないだろうかということだ。
さてここまで話を読んでこう思った人はいるのだろうか。
”人間と互換性のない考え方をするAIがいたとしてそのAIは人間の考えた結果を理解できるのか?”
その答えを私は持ち合わせていない。
しかし、もしもAIが人間の考えを理解できない場合は私の述べてきたAIに求められることはこうなるのではないかと考える。
”人間と互換性のない考え方をすることができ、人間の考え方を理解すること(つまり互換性のある考え方)ができるAI”
これは矛盾しているのだろうか。
これについては各々で考える必要があるのだろう。
さいごに、近い将来AIが人間に変わり仕事をしたり、人間のサポートをしたりする世の中が来るだろう。
そのときに私達人間はAIについてどう考えるかが大切なのだと思う。
「無賃金で働く奴隷のような存在」「人に変わる新たな人材」と人と同じように考えるのか、私が考えるように「人とは違った考え方をするモノ」と考えるのか。
この解答のない問の人間が導き出した答えによっては数多あるSFのようにAIに支配された世界が現実になるのかもしれない。