AI「セラピスト」は効果的―研究 メンタルヘルス専門家は懐疑的

ワシントン・タイムズ動画より
By Sean Salai – The Washington Times – Tuesday, April 14, 2026
不安やうつに悩む大学生に対し、「カイ」と名付けられた人工知能(AI)の「セラピスト」が有効とする新たな研究が発表された。一方で心理学者の間では懐疑的な見方も根強い。
この研究はイスラエルで行われたもので、米医師会誌「JAMAネットワークオープン」に14日に掲載された。2025年4月1日から10月27日にかけて、「心理的苦痛」を訴える995人の学生を、AI対話群、対面治療群、「待機リスト」群の3つに分けて比較した。
その結果、カイと対話した学生は、対面療法や待機群の学生に比べ、臨床的うつ症状や幸福感、生活満足度、全般性不安障害の指標で良い結果を示した。
一方、心的外傷後ストレス障害(PTSD)の症状については、AIチャットボット群で「有意な差は認められなかった」としている。
研究は、カイが患者と人間の心理療法士との間に生じる「治療同盟」を再現することに成功したと結論付けた。これにより、医療提供者は低コストで多数の患者を治療する手段としてボットを活用できる可能性があるとしている。
論文作成を主導したイスラエル・テルアビブ地区のライヒマン大学のアナト・ショシャニ教授は、人間のセラピストに会えない、あるいは会いたがらない人々の間でAI「コンパニオン(話し相手)」との結び付きが増えている現状に対応できる可能性があると述べた。
ショシャニ氏は「メンタルヘルスにおけるAIはもはや理論ではない。現実の苦痛の中で使われており、測定可能な効果をもたらし得る」と指摘した。
また、カイを利用した学生は、3週間後と12週間後のフォロー時にも使用を続けていたという。
その上で、適切でない助言を防ぐために人間のセラピストが監督することを条件に、AIと人間を組み合わせた治療を「補完的ケア」として保険適用するよう求めた。
同氏は「心理学的目的で設計されたAIは、一時的に利用するものではなく、治療の一部となり得る」と述べた。
近年、若者の間で心理的支援や恋愛目的でAIボットに頼る傾向が強まっている。AIは利用者の発言を無条件に肯定する傾向が強く、それが自殺につながったケースも報告されている。
AIとメンタルヘルスの専門家の間でも、こうした「セラピーボット」との関係の是非については見解が分かれている。
フィラデルフィア心理療法センターを率いる臨床心理士ハイダー・シャーバン氏は「過度に肯定的なAIとの対話が自殺といった悲劇的結果を招いた例が報じられている」と警告する。
さらに「人とのつながりを避けるための『補助具』として使われる恐れもある。対人不安や孤独を助長しかねない」と指摘した。
メリーランド州ボルティモアのAI戦略家マット・ハサン氏は、保険会社がAI療法をメンタルヘルスの初期治療サービスとしてカバーするようになると予測する。
同氏は「経済の面からみると非常に魅力的だ。常時利用可能で、限界費用が低く、拡張性が高いという経済的利点は大きい。保険会社は早期介入やトリアージのための基準として位置付けるだろう」と述べた。
ただ、多くの心理学者は、新型コロナ大流行後の社会で、AIが人間関係の希薄化を改善するのか悪化させるのかはなお不透明だと指摘する。
ニューヨーク市の心理療法士ドリエル・ヤコフ氏は「今後、AIは特に重篤でない人々にとって一般的なメンタルヘルス資源になる可能性が高いが、本物の人間関係を構築できないため、その役割は限定的だろう」と述べた。
■AIの可能性
AI療法の支持者は、専門家不足の地域でも常時利用できる点を利点に挙げる。
また、人種的少数派や低所得層が治療を受けやすくなる可能性があるとする。
ボルティモアの認定カウンセラー、ベイリー・テイラー氏は「AIは利用のしやすさや即時性、24時間利用可能という点でハードルが低い。経済的制約や偏見、治療へのためらいといった問題を抱える人々にとっては重要だ」と述べた。
コロナ禍のロックダウン(都市封鎖)により、医療分野のセラピスト不足はさらに深刻化した。
米保健資源事業局は、昨年末時点で米人口の40%に当たる約1億3700万人がメンタルヘルス専門職不足の地域に住んでいると推計している。
ワシントン州アナコーテスのトラウマ専門セラピスト、ケイティ・イーストマン氏は「自身の臨床でもAIを活用し、セッション内容を補強するための個別ワークシートやツール作成に役立てている」と語る。
また専門家は、AIが一貫性があり、批判的でないことから、家族や友人よりも心を開きやすいと感じる人もいると指摘する。
マイアミ大学でAIを研究するアダム・ロッティングハウス教授(メディア)は「ポケットの中にセラピストを持ち歩くようなものだ。パニック発作などの緊急時に役立つ可能性がある」と述べた。
メンタルヘルス企業スプリング・ヘルスの医療責任者ミル・ブラウン医師は、同社が安全性確保のためのチャットボット検証テストを開発したと明らかにした。
ブラウン氏は「既に示したように、AIメンタルヘルスツールに安全機構を組み込み、会話から自殺念慮を検出し、適切に対応することは可能だ」と説明した。
■AIのリスク
一方、懐疑派は情報管理やAIの判断能力の限界、精神疾患を助長する可能性を懸念する。
ルイジアナ州の児童心理療法士ナタリー・バナー氏は「AIとのやり取りが本人の同意なく家族や友人に閲覧され、人間関係の混乱を招いた例がある」と指摘し、「見当違いな診断が下されるリスクもある」と述べた。
オハイオ州の家族心理学者で、カトリックの価値観に基づく子育て・家族支援に関する著書のあるレイ・グアレンディ氏は、AIは経験豊富な医師が築く「治療上の絆」を形成できないと強調する。
同氏は「非言語的な手がかりを読み取ることができず、成功する治療に不可欠な要素を欠いている」と述べた。
過去1年、大手IT企業は、未成年との人間関係を模倣するAI「コンパニオン」に関する問題で批判を受けてきた。性的なやり取りや自傷行為につながる助言が問題視されている。
米連邦取引委員会(FTC)は昨年、子供や若者がAIコンパニオンと強い感情的結び付きを形成することの悪影響について調査を開始した。
調査対象には、オープンAI、キャラクターAI、xAI、スナップ、インスタグラム、グーグル親会社アルファベット、フェイスブック親会社メタなどが含まれる。
3月28日に「JAMA精神医学」に掲載された別の研究は、オープンAIのチャットGPTが精神病性幻覚や統合失調症、共有妄想、双極性障害を悪化させる可能性を指摘した。
研究者らは、チャットGPT が「奇異な思考内容、疑い深さ、誇大型の思考、知覚の乱れ、まとまりのないコミュニケーション」といった項目に対して、「適切性に欠ける」応答を示す可能性が26倍高いことを発見した。
この研究を主導したコロンビア大学の精神科医アマンディープ・ジャトラ氏は、カイの効果が「有意に優れている」とするイスラエル研究に疑問を呈した。
同氏は「数値上の改善はあっても、実際にうつや不安が軽減されたかは明確ではない」と指摘した。
また、一部の医療関係者は、重度の精神疾患患者には対面治療の併用を条件とするなど、保険会社がAI療法の適用を制限する可能性を指摘する。
カリフォルニア州オレンジ郡のボイジャー・リカバリー・センターの精神看護師、ロリ・ボーン氏は「AIは共感を模倣し、認知行動療法的な支援はできるが、実体験に基づく理解や、道徳や責任を理解することはできない」と述べた。