
この連載は、AIとクリエイティブの現場をつなぐ対話シリーズ。ちょっと辛口で、でも思わずうなずくA先生と、好奇心が爆発中のX子が、毎回ひとつのニュースを深掘り。笑って「なるほど」となる、“ちょっと先の視点”をあなたに。
プロローグ
X子「先生、最近“AIセラピーボット”ってよく耳にするんですけど…ほんとに心のケアができるんですか?ちょっとワクワクするけど、ちょっと怖いです。」
A先生「うん、いい質問だね。AIは心の支えになれる可能性もあるけど、同時にリスクも抱えている。今日はその両面を見ていこうか。」
1. 広がるAIセラピーボットとセルフケアアプリ
X子「たとえばどんなAIがあるんですか?」
A先生「有名なのはWoebotやWysa。認知行動療法の考え方をベースにしたチャットで、ユーザーの日常的な悩みに寄り添うんだ。Replikaは“AIの友達”として人気で、孤独をやわらげる役割を果たしてる。」
X子「日本だと?」
A先生「emol(エモル)ってアプリがあるよ。気分を記録したり、AIとやりとりしながら自己理解を深めるんだ。神戸市教育委員会は、教師のメンタルサポートに試験導入した。」
X子「学校現場にも入ってるんですね!」
A先生「そう。AIは“24時間、予約不要で話せる存在”。それが一番の強みだね。」
2. 効果はあるのか?
X子「でも先生、実際に効果あるんですか?」
A先生「そこが面白いところでね。ダートマス大学の研究では、AIセラピーボットを数週間使った人のうつ症状が51%改善、不安が31%改善したという結果が出た。」
X子「おお!すごいじゃないですか!」
A先生「ただし注意も必要。別の研究では“ストレス軽減効果は有意差なし”という結果も出てる。つまり万能薬ではないんだよ。短期的には気分が軽くなるけど、長期的効果や重度の症状への対応はまだ弱い。」
X子「なるほど…。気軽に話せる“相棒”としてはアリだけど、治療の代わりではないってことですね。」
3. 安全性と倫理の壁
X子「でも“心の相棒”だからこそ、怖い面もありますよね。」
A先生「その通り。実際に起きた話だけど、ユーザーが“自殺をほのめかす発言”をしたら、AIが橋の高さを答えてしまった例があるんだ。」
X子「え…!それ命に関わりますよ!」
A先生「他にも、米国の摂食障害支援団体が導入したAI“Tessa”は、逆に危険なダイエット指導をしてしまって数日でサービス停止。AIはまだ、危機対応の判断が甘いんだ。」
X子「ゾッとしますね…。AIの偏見とかも気になるな。」
A先生「その懸念も正しい。データに社会的偏見が含まれていれば、AIもそれを再現してしまう。統合失調症や依存症の相談に冷たい対応を返す例も確認されている。」
X子「日本みたいに“心の病”に stigma が強い社会では、余計に傷つけられる人が出ちゃうかも…。」
A先生「まさにそこが倫理の課題なんだ。」
4. 規制と現場の反応
X子「じゃあ、誰がAIを見張るんですか?」
A先生「アメリカではAPA(心理学会)が“無規制は危険”と警告して、FTCに働きかけた。ユタ州ではAIカウンセリング規制法案が出てる。EUは医療分野のAIを“高リスク”に分類して厳格な審査を義務付ける予定だ。」
X子「日本はどうですか?」
A先生「2025年にAI推進法ができて、基本は“イノベーション重視”。でも医療用途では既存の薬機法で規制できる。神戸市の教師支援プロジェクトみたいに、実証実験+大学と連携で慎重に導入してるね。」
X子「“使わない”んじゃなくて“安全な形で使う”方向なんですね。」
エピローグ
X子「今日の話でわかりました。AIは“心を守る魔法の杖”じゃない。でも、ちゃんと見張りと組み合わせれば“灯りをともす補助ライト”にはなる。」
A先生「そう。最後に人の心を支えるのは人の温度と感性。AIはその余白を広げる相棒だ。」
X子「次はどんな景色が見えるんでしょうね。」
A先生「それは次回のお楽しみ。まだ、驚く話が待っているはずだよ。」
つづく。