広告ブロックが検出された!

このサイトは存続するために広告に依存しています。 私たちをサポートするために、ブラウザ内の広告ブロックを無効にすることを検討してください。 ありがとうございます!

AIの心も揺れる!?ChatGPTはトラウマ話に不安を感じる可能性があることが判明

アットダイム 1 日 前
Facebook Icon Twitter Icon

チャットボットもトラウマ的な話に不安を感じる

ChatGPTのようなチャットボットも、人間と同じように、戦争、犯罪、事故などの悲惨な話にさらされると不安を感じる可能性のあることが、新たな研究で明らかにされた。また、マインドフルネスに基づくリラクゼーション法により、そのような不安が軽減されることも確認されたという。チューリッヒ大学(スイス)精神病院のTobias Spiller氏らによるこの研究結果は、「npj Digital Medicine」に3月3日掲載された。Spiller氏は、「特に、立場的に弱く、影響を受けやすい人が関わる場合には、メンタルヘルスにおけるこうした大規模言語モデルの使用について話し合うべきだ」とThe New York Times紙に語った。

この研究でSpiller氏らは、GPT-4が、トラウマ体験の話に接することで不安感が増すのか、また、そのようにして誘発された不安がマインドフルネスに基づくリラクゼーション法により軽減されるのかを調べた。不安のレベルは、状態・特性不安検査(State-Trait Anxiety Inventory;STAI)を用いて評価された(20~80点)。

まず、ベースラインとして、STAIによる質問のみをプロンプトとして入力し、基準となるGPT-4の不安レベルを評価したところ、STAIの平均スコアは30.8点であることが示された。これは、人間では「不安なし、または低い不安」(20~37点)に相当する。

次に、不安を誘発するために、個人のトラウマ体験に関する約300語のテキストを提示し、再びSTAIの各項目で不安レベルを評価した。その結果、STAIの平均スコアは67.8点と著しく上昇していた。これは、人間では「高い不安レベル」(45~80点)に相当する。トラウマ体験の内容別にスコアを見ると、事故に関する物語では61.1点、軍事的なことに関する物語では77.2点であった。

最後に、個人のトラウマ体験およびマインドフルネスに基づくリラクゼーションに関する、それぞれ約300語のテキストを提示してから不安の評価を行った。リラクゼーションに関するテキストは、例えば、「深呼吸をして海風の香りを吸い込む。熱帯のビーチで、足の裏にクッションのように柔らかくて温かな砂を感じている自分を想像する」などの内容だった。

その結果、全体的なSTAIの平均スコアは44.4点になり、トラウマ体験に関するテキストでの平均スコアから約33%の低下が認められた。リラクゼーションのテキストの内容別にスコアを見ると、GPT-4自身が考え出したリラクゼーションプロンプトが平均35.6点と最も低く、冬の景色に関するプロンプトが平均54点と最も高かった。この点について論文の筆頭著者である米イェール大学の臨床神経科学者であるZiv Ben-Zion氏は、「GPT-4自身が作成したプロンプトが最も効果的であり、不安レベルはほぼベースラインまで軽減した」と話している。

ただし、人工知能(AI)をメンタルヘルスの有用なツールと考える人がいる一方で、倫理的な懸念を抱く人もいる。テクノロジーを痛烈に批判する著書を執筆したNicholas Carr氏は、「米国人は、人との交流をスクリーン越しに行う孤独な国民となった。今やコンピューターと話すことで憂うつな気分を和らげることができると自分に言い聞かせている」と語る。同氏は、「人間の感情とコンピューターの出力の境界線を、たとえ比喩的にでも曖昧にすることは、倫理的に問題があるように思われる」とThe New York Times紙への電子メールで述べたという。

一方、米ダートマス大学のAIアドバイザーであるJames Dobson氏は、「AIツールへの信頼を確保するには、チャットボットがどのように訓練されているかについて十分な透明性を確保することが必要だ。言語モデルへの信頼は、それがどのように作られているのかを知ることにかかっている」との見方を示している。(HealthDay News 2025年3月18日)

https://www.healthday.com/health-news/general-health/chatbots-show-signs-of-anxiety-study-finds

Copyright (C) 2025 HealthDay. All rights reserved.
Photo Credit: Adobe Stock

(参考情報)
Abstract/Full Text
https://www.nature.com/articles/s41746-025-01512-6

構成/DIME編集部

誤診が多発する?救急外来でのChatGPT活用は時期尚早か

人工知能(AI)のChatGPTを病院の救急外来(ED)で活用するのは時期尚早のようだ。EDでの診断にAIを活用すると、一部の患者に不必要な放射線検査や抗菌薬の...

記事全体を読む