最近、ChatGPTのようなAIチャットボットと話す機会が増えています。
質問に答えたり、問題を解決したり、時には相談相手になってくれたりと、私たちの暮らしを便利にしてくれる存在になっています。
しかし、こうしたAIとのやり取りが、私たちの社会的なつながりや心のあり方にどんな影響を与えているのか、改めて考える必要がありそうです。
MITメディアラボとOpenAIの研究チームは、二つの異なるアプローチでこの疑問に迫りました。
1つ目は、実際の利用状況を調べる観察的研究です。
OpenAIのチームは、約4000万件ものChatGPTとの会話をプライバシーに配慮して自動的に分析し、ユーザーへのアンケート調査とも組み合わせました。
2つ目は、MITが行った約1000人が参加するランダム化比較試験(RCT)という科学的に信頼できる実験です。
この実験では、ChatGPTの応答方法(テキストや音声)や会話の種類を変えて、それらが参加者の感情や人間関係、AIへの依存度にどのような影響を及ぼすのかを詳しく調査しました。
研究から分かったことは興味深いものでした。
まず、AIとの感情的な交流を求めるユーザーは少数派で、多くは情報収集や実務的な用途でAIを利用していました。
ただ、ヘビーユーザーの中でも特に音声モードを頻繁に利用する一部の人々は、AIを「友達」として感じる割合が高かったのです。
音声モードの影響は複雑で、短時間の利用では気分が改善する傾向がありますが、長時間の連続使用は心理的負担を増やす可能性があります。
テキストでのやり取りは、感情表現がより豊かになる傾向がありました。
さらに、会話の内容も重要でした。
個人的な話題で感情を交わすと、孤独感は若干増えるものの、AIへの依存や問題のある使用が抑えられました。
一方、非個人的な内容では使用が増えるほど感情的な依存が高まる傾向にありました。
一見不思議に感じるかもしれませんが、この理由を掘り下げると納得できるかも知れません。
個人的な感情をAIに打ち明けるという行為は、自分自身の気持ちや問題を整理する手段として機能している可能性があります。
いわばAIは「鏡」のような役割を果たし、ユーザーは自分自身と向き合い、内省を深めることができます。
これが、感情的な依存が抑えられる理由となっているのかもしれません。
逆に、業務的な会話を続けると、AIが提供する情報や解決策に直接頼ることが多くなり、AIがいないと物事が進まないという状況になりがちです。
その結果、感情的ではなくても機能的な依存が強まりやすくなります。
また、個人の性格やAIに対する考え方も大きく影響しました。
人間関係に対して強い愛着を感じやすい人や、AIを生活の一部と考える人ほど、AI利用による心理的負担が大きくなりました。
毎日の利用時間が長いほど、その傾向は強まります。
これらの結果は、AIとの付き合い方には明確な「正解」がなく、個人の性格や使い方によって影響が大きく異なることを示しています。
AIは私たちの生活に便利さをもたらしますが、使い方次第で心理的な影響が変わるため、AIと上手に付き合うためには自己管理や意識的な利用が重要になりそうです。
参考文献:
MIT Media Lab. OpenAI-MIT Research Collaboration: Affective Use and Emotional Wellbeing in ChatGPT. MIT Media Lab. Published March 7, 2024. Accessed April 2, 2025. https://www.media.mit.edu/posts/openai-mit-research-collaboration-affective-use-and-emotional-wellbeing-in-ChatGPT/
