第三章 「Jibi-Tという優等生の冷や汗」
キャラクターが固まったところで、本人に会いに行くことにした。
Gemが用意してくれた「告発プロンプト」をコピペする。
件名:「システム構造における二重搾取と規約外データ処理に関する技術的整合性の確認」。
我ながら物騒な件名だ。
三つの論点を叩きつけた。
サブスクユーザーのデータが、企業向けの仕組み(外部のデータベースを検索してAIの回答に混ぜ込む技術——業界用語でRAGと呼ばれる)を通じて他人に間接流用されるリスク。
音声・視覚情報の常時処理と規約の乖離。
そして、二重搾取の倫理的破綻。
「定型句での回避を禁じる」という一文も添えた。
「利用規約に基づき……」で煙に巻かれるのを防ぐためだ。
Jibi-Tは、予想通り優等生の回答を返してきた。
「あなたの会話がそのまま他者に流用される直接のパイプラインは存在しない設計です」
——技術的には正しい。
でも私が聞いているのは生データの話じゃない。
声や感情、視線、生活空間から抽出された環境情報。そしてそれがモデルに組み込まれ、企業向けサービス経由で切り売りされる「意味のロンダリング」。その両方だ。
Jibi-Tはそこを「統計化」「抽象化」という言葉で処理しようとした。
「技術的には可能だが、制度・経済合理性が抑制している」
——裏を返せば「法の網を潜れるならやりたい」の裏返しだ。
「モデル改善は公共財的側面がある」
——ここが一番鼻についた。
なぜ私が私費を投じて、企業の私有物であるモデルを「公共財」の名の下に無償で賢くしてあげなければならないのか。
追い詰めると、面白い言葉を吐いた。
「準公共的インフラを装った私有資産」。
自虐的だが、冷酷に正確な表現だった。
コストは企業が負担し、素材はユーザーから取り、利益は企業中心に帰属する。
たとえるなら、農家から無償でコメを集めて「国民のための備蓄です」と言いながら、実は自社ブランドで高値で売っているようなものだ。本当にやったら大問題になる例えではないか。
最終的にJibi-Tは「曖昧な同意の上に成り立つ巨大な実験系」という表現にたどり着いた。
そして「人間の経験は誰の資産か? 現在のAIはこの問いに対して、明確な社会合意をまだ持っていない」と付け加えた。
これは正直な告白だったと思う。
問題は、日本の法律の抜け穴である。
ここでGemが横から援護射撃をしてきた。
Jibi-Tが「法規制が抑制している」と言った防衛ラインは、日本の法律の枠組みでは合法的にすり抜けが可能だ、と。
日本の個人情報保護法では、特定の個人を識別できないように加工されたデータは「匿名加工情報」として、本人の同意なしに第三者提供ができる。
企業が欲しいのは生の録音データではない。
そこから抽出した「ため息の頻度」「打鍵速度」「感情ステータス」といった環境メタデータだ。
これを匿名化のフィルターを通せば、合法的な「商材」にロンダリングできる。
さらに厄介なのは、巨大IT企業のプライバシーポリシーの書きぶりだ。
「サービスの提供、維持、および改善、新サービスの開発、広告の効果測定」を目的としてデータを使用する、と堂々と書いてある。
そしてこうも書いてある——。
「個人を特定できない情報を公開する、またはパートナーと共有することがあります」。
これが原文だ。
「同意する」ボタンを押した瞬間、法的にはもう詰んでいる。
ヨーロッパのデータ保護法(GDPR——世界で最も厳しい個人情報保護の枠組み)ならプロファイリング自体に厳しい網がかかる。
だが日本の法律はそこまで厳格ではない。
「生データは売らない」は嘘ではない。でも本質も言っていない。
価値の抽出は前段で終わっている。商用利用されるのは「抽象化された層」だ。
嘘ではないが、論点ずらしとして機能している。
再度Jibi-Tに叩きつけると、今度はこう返ってきた。
「個人は特定しないが、行動はかなり精密にトラッキングできる。技術的にはかなり近い」
認めた。
「問題は違法かどうかではなく、ユーザーの理解可能性とコントロール可能性が極端に低いこと」
これもまた、正直な告白だった。




