إعداد: محمد عز الدين
حذر باحثون من جامعة وينشستر البريطانية، من تنامي الاعتماد على روبوتات الدردشة المدعومة بالذكاء الاصطناعي، وضرورة تطوير أنظمة حماية جديدة للمستخدمين، خصوصاً الأطفال، لإمكانية خداعهم باسم الصداقة للاعتقاد بأن روبوتات الدردشة مقربة منهم.
وقال د. ألكسندر لافر، أستاذ الإعلام والاتصالات بالجامعة، والباحث الرئيس في الدراسة: «إن روبوتات الدردشة مصممة لاستثارة مشاعر المستخدمين والتفاعل مع مزاجهم، ما يجعل البعض يظن أنهم على تواصل مع أصدقاء حقيقيين، وهو ما يمثل خطراً متزايداً».
وأوضح: «الذكاء الاصطناعي لا يشعر، ولكن بعض المستخدمين يعتمدون نفسياً على رفاقهم الافتراضيين، ما يجعلهم عرضة للتأثير أو حتى التلاعب بالذكاء الاصطناعي العاطفي».
وأضاف: «حان الوقت لوضع ضوابط أخلاقية صارمة لتصميم وتطوير تطبيقات الذكاء الاصطناعي، وتعليم المستخدمين، ولا سيما الأطفال، مهارات الوعي الرقمي، وفي الوقت نفسه تحميل مطوري هذه التطبيقات مسؤولية اجتماعية وأخلاقية».
وتشمل المبادئ التوجيهية والحماية المقترحة، ضمان تصميم الذكاء الاصطناعي لصالح المستخدم وليس فقط الحفاظ على المشاركة والتفاعل، واستخدام إخلاءات المسؤولية في كل محادثة لتذكير المستخدمين بأن الذكاء الاصطناعي ليس شخصاً حقيقياً، وتقديم إشعارات عندما يقضي المستخدم وقتاً طويلاً في التفاعل مع روبوت المحادثة، إضافة إلى فرض تصنيفات عمرية صارمة.
جامعة بريطانية تحذر: روبوتات الدردشة تخدع المستخدمين باسم الصداقة

جامعة بريطانية تحذر: روبوتات الدردشة تخدع المستخدمين باسم الصداقة
0 تعليق