AI GENERATED ART BY NEWSWEEK JAPAN VIA CHAT GPT

<AIセラピストとの対話で心が軽くなる──そんな体験をする人が増えている。しかし、本当にそれは「治療」なのか? 人間の専門家に取って代わるには、AIには何が足りないのか>

先日、気付けば私はつらい胸の内をぶちまけていた。といっても相手は人間ではなく、スマホアプリの「ワイサ」だ。ワイサは私に気分を尋ね、呼吸を整えるエクササイズに誘導した。

神経科学者としては首をかしげずにいられない。アプリのおかげで、私の気持ちは本当に晴れたのか。それとも訓練の行き届いたアルゴリズムにそう思わされただけなのか。

AI(人工知能)を活用したメンタルヘルスアプリを使う人が激増している。だがその効果は本物なのか。便利さと引き換えに、私たちは何かを失っているのではないか。


アメリカではここ数年、メンタルヘルスアプリ市場が急成長中。マインドフルネス系アプリで知名度の高い「ヘッドスペース」と「カーム」は瞑想を指導し、心が静まる物語やサウンドを聞かせてユーザーを眠りへと導く。

「トークスペース」と「ベターヘルプ」なら、資格を持つ人間の専門家にチャットやビデオ通話で相談できる。「ハッピファイ」はゲーム感覚のエクササイズを通して、マイナス思考と戦う。

軽度の鬱には効果あり

その中間に位置するのが、認知行動療法(CBT)のトークセラピーを模倣するワイサや「ウォーボット」のようなチャットボット型セラピスト。無料の基本プランのほか、機能が充実した有料版もあり(月額10〜100ドル)、人間の専門家にセラピーを依頼することも可能だ。

チャットGPTなどの一般的な対話型AIにメンタルヘルスの相談をする人もいるが、思わぬ悲劇を呼ぶこともある。2023年3月、ベルギーである男性が6週間チャットボットとの会話にのめり込んだ末に、自ら命を絶った。

米フロリダ州では今年4月、精神疾患の診断を受けていた男性が警官を挑発して射殺された。チャットGPTとの対話で精神的に追い詰められたことが一因だと、男性の父親は主張する。

メンタルヘルスの領域にAIが関与することに、こうした事件は疑問を投げかける。

マイナス思考の暴走が止まらないときも、ただ昼寝が必要なときも、専用のチャットボットが対応してくれる。だが脳が複雑な感情を処理するのを、AIは本当に助けてくれるのか。AIセラピーは脳内でどう機能しているのか。

大半のメンタルヘルスアプリは、CBTを採用しているとうたう。ざっくり説明すれば、CBTとは専門家の助けを借りて自分と対話し、内面の混乱を整理していく療法だ。

日本の片付けコンサルタント、近藤麻理恵は「ときめき」を感じる物だけを残し後は処分するよう勧めるが、CBTはこれの思考版。「私はダメな人間だ」といった思考パターンを拾い出して吟味し、それが有益なのか単に不安をあおっているのかを見極める。

だが思考を書き換える手助けが、AIにできるのか。実はそれが可能だとする研究もある。オンラインのトークセラピーが軽度〜中程度の不安障害と鬱の症状を軽くすることは、複数の論文で示されている。

チャットボットは人間の専門家が行うトークセラピーを模倣する。ユーザーに共感を示し、質問を投げかけることで内省を促し、エクササイズやトレーニングをやらせる。

脳の最高中枢を活性化させ、心に浮かぶ思いに疑問を抱かせ、感情のコントロールを助けるCBTの効果は、神経科学でも裏付けられている。問題は、AIにCBTが再現できるか、そして、脳がそれを本物と認識するか否かだ。

「今週はつらいことばかりだった」とこぼす友人に、私はAIセラピストを勧めた。するとチャットボットは絵文字で彼女を励まし、心の状態に合ったリラックス法をはじき出した。友人は数日でよく眠れるようになったという。

人間の代替にはならない

これは特殊なケースではない。CBTに基づくAIとの対話で気分や集中力や睡眠の質が短期的に向上することは、多くのユーザー調査や臨床試験で明らかになっている。

AIセラピスト「ゼアボット」の臨床試験では鬱と不安障害の症状がほぼ半減し、人間によるセラピーと同等の効果が証明された。18件の研究を分析した調査でも、気分の改善とストレス解消、睡眠の質の向上に効果が認められると結論付けられた。

しかもチャットボットは人間の専門家に診てもらうより安上がりで、1日24時間いつでも相談できる。とはいえ、AIとの対話中にユーザーの脳内で何が起きているかを、科学は解明できていない。

ワイサのように、米食品医薬品局(FDA)に「ブレイクスルー・デバイス」に指定されたアプリもある。ブレイクスルー・デバイスは深刻な疾患の治療に有望な医療機器の開発・認可を迅速化するための制度だが、一方で根拠なく「FDA認定」をうたうアプリも多い。

またアプリは、精神状態や個人的体験の情報を収集する。そうしたデータが広告主や雇用主やハッカーの手に渡ったら? 23年には遺伝子検査サービス大手「23アンド・ミー」から700万人近いユーザーのDNAおよび個人情報が流出し、同社は巨額の罰金を科されて破綻した。

人間と違い、チャットボットは医療倫理やプライバシー保護関連の法律に縛られない。ユーザーは手軽にセラピーを受けながら、同時に個人情報を差し出している。

またAIは複雑な心の機微を理解し切れず、危機的状況では役に立たない。人間の専門家は微妙なニュアンスや過去のトラウマをくみ取り、その場で対応を調整するが、AIにそうした対応は望めない。

軽い不調ならチャットボットで短期的な改善を望めるが、限界はある。当面は人間の専門家からAIに乗り換えるのではなく、両方に相談するのが安全だ。

Pooja Shree Chettiar,Ph.D. Candidate in Medical Sciences, Texas A&M University

This article is republished from The Conversation under a Creative Commons license. Read the original article.


鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。