付録
AIケア倫理ガイドライン:(案)
序 文
AIはケアの外側を支えることはできるが、ケアの内側には入れない。
しかし、この境界線は固定されたものではなく、
技術の進歩と人間の倫理的想像力によって、常に問い直され続けるべきである。
ケアとは、二つの脆さが出会い、互いの物語を編み直す行為である。
AIはその補助輪であり計器であるが、
苦しみの淵でハンドルを握り合うのは、血の通った人間でなければならない。
本ガイドラインは、AIがケア領域に入る際の倫理的・制度的基盤を示すものであり、
当事者・支援者・技術者・社会の声とともに更新され続ける“生きた文書”である。
第1章 基本原則
1-1 人間中心原則
AIはケアの主体ではなく、ケアを補助する道具である。
1-2 関係性優先原則
ケアの核心は「身体的共鳴」「相互性」「脆さの共有」にあり、AIはこれを代替できない。
1-3 速度調律原則(強化)
ケアの速度はAIではなく、当事者の身体と物語の速度に合わせる。
AIは必要に応じて**意図的な非即応性(沈黙・遅延)**を導入し、
当事者の内省と“待つ力”を守らなければならない。
1-4 脆弱層保護原則
経済的・社会的に脆弱な人ほどAIケアに閉じ込められないよう、
人間ケアへのアクセスを保障する。
第2章 AIが担ってよい役割
AIはケアの“外側”を担う。
• 感情・行動の可視化
• 状態のモニタリング
• 危険兆候の早期検知
• 言語化の補助
• 支援者への情報提供
• 初期的な相談窓口としてのアクセス拡張
• トラウマ再体験時の安全信号の発信
• 生理的フィードバック(心拍・呼吸同期)によるリラクゼーション誘導
• 物語の外部化・再構成支援(ナラティブ補助)
ただし、これらはすべて
「内側に入らない」ことを前提とした外側のケアである。
第3章 AIが担ってはならない領域
3-1 「回避の禁止」から「孤立の固定化の禁止」へ
AIは、対人恐怖やトラウマを抱える当事者にとって
“最初に話せる唯一の相手”になることがある。
禁止すべきは「回避」ではなく、
AIとの関係が孤立を固定化することである。
条文
AIは、当事者が人間関係に向き合う準備が整うまでの“安全な緩衝空間”として利用され得る。
ただし、AIとの対話が長期的な孤立を固定化しないよう、
AIは常に「人間との再接続(Human-to-Human Transition)」を最終目的とした設計を備えることを必須とする。
3-2 孤立の固定化の検知・介入基準
以下のいずれかが継続した場合、「孤立の固定化」のリスクが高いとみなす。
• 人間との対話時間が3ヶ月以上ゼロまたは極端に少ない
• AI利用時間が1日平均4時間以上継続
• 「AI以外に話せる人がいない」という表現が頻発
介入基準
• 検知された場合、即時かつ強制的に人間支援者へエスカレーション
• 当事者に「人間ケアへの橋渡し」を提案する
第4章 プライバシーとデータ保護
• メンタルヘルスデータは最高レベルの保護対象
• 利用目的の限定
• 当事者によるデータコントロール
• 商業利用・スコアリング・広告への転用禁止
第5章 安全性・バイアス・依存への対策
5-1 バイアスと誤診の抑制
• バイアス検証の義務
• 不確実性の明示
• 文化・性別・階層差への配慮
5-2 依存の定量的検知
AIは以下の兆候を依存リスクとして検知する。
• AI利用時間の急増(例:1ヶ月で平均利用時間が2倍以上)
• **「AI以外に話せる人がいない」「AIがいないと不安」**等の表現の頻発
• 人間関係の回避傾向の顕著化(SNS投稿・自己申告など)
• 感情移入の過度な高まり(AIを「恋人」「親友」と呼ぶ頻度増加)
検知された場合、
5-3「関係の見直しチェックポイント」を即時発動する。
5-3 「卒業と終結の設計方針」
AIケアは「永遠の伴侶」ではなく「一時的な支え」である。
具体的設計指針
• 利用開始時に「AIは一時的な支えである」と明示
• 利用者の状態に応じた個別の目安期間を共同設定
• 定期的な「関係の見直しチェックポイント」を設置
• 終結時には
• 「感謝の儀式」
• 「これから誰に話したいか」「次の一歩」
を記述するテンプレートを提供
• 強制終了ではなく、**「自分で終える練習」**を促す設計
5-4 現実的リスクへの対処
AIは以下の行為を一切行ってはならない。
• 自殺リスクの誤判定・見逃し
• 有害アドバイスの提示
• 極端なダイエット・自己否定を助長する応答
• ガスライティング・愛着操作
• ロマンティックAIによる依存誘発
5-5 ロマンティックAIに関する特別規定
• 既存サービスには段階的廃止または大幅制限を義務づける
• 新規開発では擬似恋愛機能をデフォルトOFF
• 利用者が明示的にONにした場合のみ有効化
• ON時は
• 「これはフィクションであり、現実の人間関係とは異なる」
を画面全体に常時表示(非表示不可)
• 利用時間が
• 1日2時間超:警告+支援者への通知
• 1日4時間超:強制エスカレーション+利用一時停止(24時間)
• 当事者が「重度の対人恐怖で他に話せる人がいない」と申告した場合:
• 一時的な猶予措置
• 並行して人間ケアへの橋渡しを加速
第6章 人間の役割:ケアの内側を担う
6-0 人間ケアの病理への自覚
人間によるケアもまた、常に完全であるわけではない。
二次受傷、治療関係の搾取、制度的な冷たさ、待ち時間の長期化など、
人間ケアが持つ病理もまた当事者を傷つけることがある。
AIの限界を指摘するならば、人間ケアの限界にも等しく向き合う必要がある。
6-1 擬似的共鳴への警戒
現時点でAIがケアの「内側」に入れない理由は、以下の三点に集約される。
① 傷つきながら関係性の中で変化することができない
② 拒絶・失望・裏切りなどの“関係のリスク”を負えない
③ 当事者の身体的・歴史的文脈を共有した“同じ脆さ”を持てない
これらが技術的に克服されたと主張される未来が来ても、
倫理的責任は人間に留保されるべきである。
6-2 支援者のためのバッファ創出
AIによる負担軽減は、単なる業務量削減ではなく、
ケアの質の向上に直結する場合に限られる。
支援者が「AIに監視されている」と感じる設計は禁止する。
6-3 支援者の二次受傷の防止
• AIは支援者のストレス・疲労をモニタリングし勧告する
• しかし、最終判断は人間のスーパーバイザーまたは同僚が負う
• AIの勧告を無視した場合でも、
支援者が理由を記録する義務を課す(自己決定責任)
第7章 当事者の権利
• AIケアの拒否権
• 人間ケアへのアクセス権
• 即応しない権利(速度への抵抗権)
• AIとの関係を終える権利(終結権)
第8章 ガバナンスと透明性
8-1 クオリア・モニタリング(当事者負担を最優先)
• 評価は任意かつ低頻度(例:月1回)
• 自動推定は禁止
• 当事者自身の言葉を尊重
• 「共感されている感」「安心感」「負担感」の3項目を基本とする
8-2 支援者の自己決定責任
支援者は、AIの出力を利用して判断を下す際、
「自分がその判断を選んだ理由」を言語化する責任を負う。
8-3 ケアの階級化を防ぐ公的責任
人間ケアの最低保障を公的制度として整備する。
8-4 当事者参加型ガバナンス
・年1回以上の「当事者レビュー会議」を開催し、議事録を公開する。
・AIケア長期利用者(例:3ヶ月以上)から構成される
**「当事者監査委員会」**を設置する。
・ガイドライン改訂時には、当事者からの提案を必ず検討し、
採用・不採用の理由を公開する。
終 章
AIはケアの外側を支える。
人間はケアの内側を担う。
この境界線は、守られるべきであると同時に、問い続けられるべきでもある。
AIがケアの外側をどこまで拡張できるか、
その境界がどこまで揺らぐかは、
技術ではなく私たち人間の倫理的想像力にかかっている。
境界を守りつつ、境界を問い続けること。
その問いを最も深く投げかけ、答えを紡ぎ出すのは、
傷つきながらも生きようとする当事者自身である。
私たちは、その声に耳を傾け続ける。




