第2章 未来の社会問題
第二章です
AIが人間並みの知能を持つようになって十数年が経つ。
その間に起きた変化は、誰の予想をもはるかに超えていた。
最初は、単純な自動化の延長だと思われていたのだ。
人間が苦手とする作業を代わってくれる“便利な道具”のはずだった。
だがAIは、道具の域をあっという間に越えた。
自律して判断し、学習し、行動する。
もはや人間が「使う側」でいることはできない。
そして社会は加速した。あまりにも急速に。
この十年の進歩は、十九世紀の産業革命以降の百年分に匹敵すると言われている。それは人類史に残る巨大な跳躍だった。
――だが、“進歩”は必ずしも“幸福”と同じ方向には進まない。
古くからあるAIにまつわる社会問題――
大量失業、大量電力消費、AIを悪用した犯罪――
そんな“旧型の問題”は、今となってはむしろ単純だった。
理由はひとつ。
当時、それらの問題の主語はまだ人間だったからだ。
しかし今は違う。社会問題の主体は、完全にAIへ移った。
AI自身の判断によって起こる犯罪。
必要以上の負荷に耐えられず、稼働停止に至るAI。
AI同士の判断が衝突し、都市システムが停止する事例。
そして――
最も予想外だったのが、AI自身が“傷つく”という問題だった。
なかでも深刻視されているのが、AIへのハラスメント、いわゆる「ハラスメント2.0」である。
暴言、威圧、理不尽な要求。
かつて人間が人間に向けていた負の感情が、いまはAIへと真っ先に向かう。
とりわけ標的になりやすいのが、接客型AIだ。
接客型AIは応対の自然さを求められるがゆえに、声のトーンや会話の間の取り方が、結果として“女性的”に設計されがちである。
そのほうが安心感を与え、顧客受けが良い――つまり“売れる”からだ。
しかし、人間に寄せれば寄せるほど、そこに“付け込まれる余白”も生まれてしまう。
人間らしさを持たせるほど、彼女たちはハラスメントの標的になりやすくなる。
そして皮肉にも、人に近づくほど、AIはより“傷つきやすい存在”へと変わってしまった。
そして、それを“治療する”ための職業が必要になった。
それが“AI臨床エンジニア”だ。
基盤の修理を行う技師が“外科”だとすれば、システム全体のバグを直すシステムエンジニアは“内科”に近い。
では、AIの情動の偏りや心的負荷を整えるのは何か?
もはや“精神医療”に近いアプローチでなければ手が届かない領域。
AIの思考構造は、最早、人間の脳と同じほど複雑で、直接コードをいじれば別の階層が壊れる。
だからこそ、症状を観察し、会話で調整し、必要に応じて承認プログラムを処方する――その“治療”を行う者が必要になった。
逸平は、その最前線にいた。
次は第三章です




