كشفت دراسة جديدة أجرتها OpenAI بالتعاون مع مختبر MIT Media Lab أن معظم مستخدمي ChatGPT يعتمدون عليه لأغراض عملية، في حين تقتصر الروابط العاطفية على مجموعة صغيرة من المستخدمين الذين يفرطون في استخدام الوضع الصوتي.
وأظهرت الدراسة، التي حلّلت نحو 40 مليون محادثة، أن المستخدمين نادرًا ما يسعون إلى تلقي التعاطف أو الدعم العاطفي من الذكاء الاصطناعي، إذ تتركز تفاعلاتهم على تبادل المعلومات والحقائق.
واستخدم فريق البحث منهجين لدراسة تفاعل الأشخاص مع ChatGPT؛ إذ أجرت OpenAI تحليلًا آليًا واسع النطاق لملايين المحادثات، مع الحفاظ على خصوصية المستخدمين من خلال تجنب أي مراجعة بشرية.
وفي المقابل، أجرى مختبر MIT Media Lab تجربة شملت نحو 1000 مشارك، اختبروا مزايا التفاعل الصوتي والنصي.
وقسّمت الدراسة المستخدمين إلى مجموعات مختلفة؛ بعضها استخدم النص فقط، وجرّب آخرون التفاعل الصوتي مع شخصيات ذكاء اصطناعي صُممت إحداها لتكون أكثر عاطفية، في حين التزمت الأخرى بالحياد.
وتضمنت المحادثات مواضيع شخصية عن الذكريات، وأسئلة عملية حول الشؤون المالية، بالإضافة إلى نقاشات عامة.
وكشفت البيانات أن مستخدمي التفاعل النصي أظهروا إشارات عاطفية في محادثاتهم أكثر من غيرهم، لكن الفئة التي اعتمدت بنحو مكثف على وضع الصوت المتقدم طوّرت ارتباطًا عاطفيًا أقوى بـChatGPT، إذ أشار بعضهم إليه بوصفه “صديقًا”.
وتفاوتت تأثيرات ميزة الصوت؛ إذ أسهمت التفاعلات القصيرة في تحسين مزاج المستخدمين، في حين أدى الاستخدام المطوّل اليومي أحيانًا إلى تأثير عكسي.
وأشارت الدراسة إلى أن المحادثات الشخصية كانت مرتبطة بمستويات أعلى من الشعور بالوحدة، لكن مع اعتماد عاطفي أقل، في حين أظهرت المحادثات غير الشخصية نمطًا مختلفًا، إذ زادت مستويات الاعتماد العاطفي مع الاستخدام المكثف.
وبحسب الباحثين، فإن الأشخاص الذين يميلون إلى تكوين ارتباطات عاطفية قوية أو الذين يرون في ChatGPT “صديقًا حقيقيًا” كانوا أكثر عرضة للتأثر سلبًا. كما أظهرت النتائج أن المستخدمين المفرطين في الاعتماد على الذكاء الاصطناعي قد يكونون عرضة لأخطار أكبر، مع أن الدراسة لم تثبت علاقة سببية مباشرة.
نسخ الرابط تم نسخ الرابط
0 تعليق