生成AIの「甘い蜜」と「監視装置の毒」:プロンプト規制の出現
2020年代後半、生成AI(画像生成AIや大規模言語モデル)が一般に普及し始めたとき、クリエイターたちはその「商用利用OK」という甘い蜜に熱狂した。
プロンプトを入力するだけで、瞬時に、しかも驚くほど高品質な作品が生成される。
これは、創作活動における時間とコストを劇的に削減し、表現の可能性を無限に広げるかのように見えた。
多くの同人作家は、自身のアイデアを具現化する新たなツールとして、AIを積極的に導入し始めたのである。
しかし、その「甘い蜜」は、すぐに「監視装置の毒」へと変貌を遂げた。
生成AIのサービスプロバイダーは、自社のプラットフォーム上で生成されるコンテンツに対して、厳格な「倫理ガイドライン」を設け、特定のプロンプトや出力結果を自動的にブロックするようになった。
「loli」「rape」「incest」などの直接的な禁止ワードは当然として、
「服を着ていない状態」や「性的なニュアンスを含むポーズ」といった曖昧な表現も不適切な場合があるとされ、「女性が萎縮している表情」や「暴力的な含意」といった、解釈の余地が大きいプロンプトも使用を控えるよう指示された。
これは、ユーザーが入力する「言葉」を通じて、AIが表現の可否を判断し、制限を加えるという、新たな形の検閲であった。
だが、ここで私たちは問わねばならない。
「それらの基準は、一体誰が決めたのか? AI倫理委員会か? 資本か? あるいは、特定の善意の団体か?」 この問いは、AIによるプロンプト規制が、決済会社による検閲と同じく、「見えない倫理フィルター」として機能していることを明確に示していた。