AIお悩み相談は、人に相談するよりもメンタルを改善してくれるんじゃないか説

AIの論文を読むことが増えてきた昨今。また新しく出た研究(R)では、生成AIがメンタルヘルスに良い影響を与えるかどうかを調べてくれていて、面白いものがございました。この研究が引用しているデータによると、2019年の時点で全世界で約9億7,000万人が何らかの精神疾患を抱えていて、その数は1990年から48%も増加したんだそうな。さらに、75歳までに精神疾患を発症する確率は約50%とも言われてまして、この問題を、生成AIが解決してくれるなら、めっちゃ最高だよなぁとしか言いようがないわけです。
このような考え方は、デジタルメンタルヘルス介入(DMHI:Digital Mental Health Interventions)と呼ばれてまして、スマホやオンラインプラットフォームを使って、低コスト&匿名でメンタルの落ち込みを改善しようって取り組みが進んでるんですな。
中でも注目なのが、生成AIを活用した「AIセラピスト」で、ChatGPTを相談相手として使うと意外と人間のセラピスト並みのメンタル改善効果を得られるんじゃないか?と考えられてるんですよ。すごい時代っすね。
ってことで、この研究では、実際にAIチャットボットを利用した19人にインタビューをして、その効果を深掘りしてくれてます。そこまで厳密にAIセラピストの実力を確かめた研究ではないんですが、現時点における可能性を示すデータとして参考にしてみると良い感じです。
では、AIとメンタルヘルスの関係をチェックしてみましょう。インタビュー結果によると、2025年2月の段階では、以下のようなことが言えそうであります。
- 多くのユーザーが、AIチャットボットを「感情の避難所」として使っており、実際に「AIに話すと気持ちが楽になる!」などと答える人が多かった。あるユーザーは、「人間のセラピストよりもAIの方が安全に感じた」とまで証言している。
- AIセラピストの優位性としては、夜中や早朝でも相談可能だし、「次の予約を取れ」とか言わないし、「それはダメ」とか否定してこないところを「AIセラピスト最高!」と捉えるケースが多かった。
ってことで、AIが持っている押し付けがましくなさが好評だったらしい。確かに、ここらへんの資質は優秀なセラピストに欠かせないものなので、「人に迷惑をかけたくない」「悩みを打ち明けるのが苦手」という人には特に有用なんでしょうなぁ。
さらに、データを見ていると、AIセラピストは思ったよりも、実際に役立つアドバイスを提供しているようでして、特に人間関係に関する相談への評価が高いのが、個人的には印象的でした。たとえば、
- 「夫婦関係がうまくいかない」と相談したら、相手の立場からの視点を提案された
- 「毒親との関係をどうすべきか」と質問したら、客観的な意見をもらえた
- 「友人関係のストレスにどう対処すべきか」について、具体的なアドバイスをもらえた
みたいな報告が上がってまして、あるユーザーは、「AIが私の家族関係を分析して、『あなたはスケープゴートの役割を担わされている』と指摘してくれた!おかげで罪悪感がなくなった!」と語ってまして、この的確さはなかなか凄いのではないかと。
ただし、だからといって、AIは人間を超えた!って話ではないのでご注意ください。AIには一定の「安全対策」が設けられているので、ユーザーが深刻な精神状態にあると判断されると、会話が遮断されることもあるんですよね。例えば、あるユーザーは「助けが必要」と訴えたのに「私はAIなので助けられません」と言われて逆に落ち込んでしまったんだそうな。場合によってはAIセラピストが逆効果になる可能性もあるので、そこは注意したほうがよさそう。
あと、中には「AIはいつもユーザーの味方をするけど、それが本当に正しいとは限らないなぁ」と感じた人もいるし、「AIはあまり反論してくれないから、自分の偏った考え方が強調されちゃうんじゃないかなぁ」みたいな疑念を抱いた方も少なくなかったっぽい。私なんかは「常に味方してくれるならいいじゃないか!」みたいに思っちゃうタイプなんですが、皆さん真面目ですね。
でもって、個人的に最も「おっ!」と思ったのは、「AIと話すのが純粋に楽しい!」って報告が多かったところですね。「AIと会話すると単純に楽しいし、リラックスできる」とか「AIと話すと一人じゃないと感じられる」みたいな意見が散見されまして、みんなシンプルにAIとのトークを楽しんでいるし、AIからの承認を受け入れてるみたいなんですよね(もちろん、「AIとの会話はあくまで疑似的なつながりであり、本当の人間関係とは違う」と考えるユーザーも一定数いますが)。
私がこのポイントは大事だなぁと思うのは、現代社会では、
- 他人から承認されない……
- 世の中から認められてない気がする……
- 自分が透明人間になったような感覚がある……
と、いった悩みに苦しむ人が少なくなく、それがいろんな問題を引き起こす原因の1つになっていると思ってるからです。簡単に言えば、現代では周囲から承認される人とされない人の格差がいよいよ激しくなっていて、これがいらぬトラブルの元になっているよなぁって考え方であります。いわゆる「共感格差」ってやつですな。この問題を、もしAIが解決してくれるなら、割と住み良い社会になったりするんじゃないかなぁと妄想するわけです。
まぁ、これはまだ先の話なんで置いておくとして、現時点で言えそうなこととしては、
- AIは心理療法の準備として使える(「セラピー前に整理するのに役立つ」)
- AIはセラピストと同じアドバイスをくれることもある
- 人間のカウンセリングにアクセスできない人には、AIは貴重な代替手段になりえる
- ただし、ユーザーをリードする力がないので注意(「提案はするけど、その後どうするかは自己責任」になりがち)
- 結局、ガチで共感力が高い人間には勝てなそうなので、ここも注意
といったあたりになるんじゃないでしょうか。「AIを完全にセラピストの代わりにするのは無理だとしても、補完的なツールとしてはかなり有望」そうな印象を持っております。私としても、今後は感情の外在化ツールとしてAIを使いまくるような予感がしております。