近年、人工知能(AI)の展開により、心理療法やサポートの方法が変わりつつあります。
特に、言語モデル(LLM)が心理的な健康状態を理解し、患者との対話や感情サポートに使用されています。
しかし、研究によればその使用法は一貫性がなく、臨床的検証が不十分なことが多々あります。
一部の研究では、LLMを用いた療法が心理的な幸福感を高めたり、不安やネガティブな考えを軽減したりする効果が確認されています。
また、特に青少年へのアプローチでは有望な結果が見られ、感情的なサポートや精神健康教育の可能性が見出されています。
しかし、実際の成果を計測する際の基準やスケールの標準化が不足しており、その評価基準はまちまちです。
今後は、安全性やプライバシー、有効性などの基本的な評価構造の設定に加えて、AIの透明性やテスト可能性などの概念を、研究や応用の場でしっかりと評価する必要があります。
AIとメンタルヘルスケアの融合は進行中ですが、その成功には十分な科学的根拠の提供と倫理的基盤の確立が不可欠であることが強調されています。
このダイナミックで新しい分野への第一歩を踏み出す際には、臨床的にも技術的にも慎重なアプローチが必要です。
出典 : A scoping review of large language models for generative tasks in mental health care – npj Digital Medicine https://www.nature.com/articles/s41746-025-01611-4