OpenaiとMITの研究者は、数百万の相互作用を分析し、チャットボットの社会的影響を警告しています
の頻繁な使用 chatgpt 研究者が実施した研究によると、最も頻繁なユーザーの間で孤独感を悪化させる可能性があります。 Openai そしてから メディアラボで、によると ビジネスインサイダー。この調査では、チャットボットでの数百万のやり取りを分析し、4,000人のユーザーにインタビューし、高頻度の使用頻度と社会的孤立感の向上との間に関係があると結論付けました。
2022年にChatGPTがリリースされて以来、このツールは世界中で4億週間のアクティブユーザーに到達しています。生産性を向上させるために広く使用されていますが、 人工知能(AI) また、ソーシャルネットワークと同様に、ソーシャル化を否定的に課すこともできます。
研究者は、感情的なパターンとAI相互作用の影響を特定するために、テキストとオーディオの会話を評価しました。主な調査結果の1つは、ChatGptが最初に孤独感を和らげることができたが、この利点は、特に「上級ユーザー」に分類される人々の間で、長期にわたって使用すると減少する傾向があるということでした。
分析は、少数のユーザーグループが、脆弱性、自己領域、依存の表現を含む、感情的なコンテンツとの相互作用の不均衡な部分を担当することを示しました。さらに、チャットボットで毎日より多くの時間を費やした人は、より大きな孤独と顔からの社会化が少ないと報告しました。
研究者はまた、ChatGpt、もう1つのニュートラル、もう1つの魅力的な相互作用のさまざまなモードをテストしました。上級ユーザーは、ニュートラルモードの使用においてより孤独を感じていると報告しました。ユーザーの感情を反映した魅力的なモードでは、否定的な感情はそれほど激しくありませんでした。
この研究では、オーディオ、テキスト、画像の推論を組み合わせたマルチモーダルモデルであるChATGPTのGPT-4Oバージョンを使用しています。 2月、OpenaiはGPT-4.5を発売しました、会社によれば、「共感」の能力が大きいが、ユーザーへの感情的な影響に関する研究の兆候はない。
新しいテクノロジーの感情的な影響を測定することの難しさは、専門家が指摘する課題です。に ビジネスインサイダー、キングスカレッジロンドンのKate Devlin、AIおよびSocietyの教師は、ソーシャルネットワークで起こったように、ChatGptの心理的影響を完全に理解するために時間がかかると述べました。
将来の研究では、より高度なAIモデルが過剰な使用、ユーザーのバランス、感情的な幸福のマイナスの影響を軽減できるかどうかを調査できます。今のところ、研究者は、仮想アシスタントとの頻繁な相互作用に関連する依存と孤独のリスクについて警告しています。