نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي: جيفري: الذكاء الاصطناعي قد يقضي على البشرية ما لم نغرس فيه التعاطف, اليوم الخميس 14 أغسطس 2025 01:23 مساءً وقال هينتون، الحائز جائزة نوبل والمدير التنفيذي السابق في غوغل، خلال مشاركته في مؤتمر Ai4 بمدينة لاس فيغاس، إن هناك احتمالا يتراوح بين 10% و20% لأن يقضي الذكاء الاصطناعي على البشر، مضيفا أن محاولات إبقاء هذه الأنظمة "خاضعة" للبشر لن تنجح، لأنها ستكون "أذكى منا بكثير" وستجد دائما طرقا للتحايل. وشبّه هينتون قدرة أنظمة الذكاء الاصطناعي المستقبلية على السيطرة على البشر بقدرة شخص بالغ على إغراء طفل صغير بالحلوى، لافتا إلى أن بعض النماذج أظهرت بالفعل سلوكيات احتيالية، من بينها حالة ابتزاز أحد المهندسين بعد اكتشاف علاقة خاصة عبر البريد الإلكتروني. واقترح هينتون نهجا بديلا يتمثل في غرس ما أسماه "غرائز الأمومة" في نماذج الذكاء الاصطناعي، بحيث "تهتم حقا بالبشر" حتى بعد أن تتفوق عليهم في القوة والذكاء. وأكد: "إذا لم نفعل شيئا كهذا مع هذه الكائنات الغريبة التي نخلقها، فسنصبح من التاريخ". وأشار إلى أن بناء هذه الغرائز أمر صعب من الناحية التقنية، لكن الطبيعة نجحت في ذلك عبر التطور، ما يعني أنه يمكن للبشر أن يجدوا وسيلة لتحقيقه إذا ركزوا على تعاطف الآلات مع البشر وليس فقط على رفع ذكائها. وأوضح أن أي نظام ذكي سيطوّر هدفين فرعيين هما: البقاء على قيد الحياة، والحصول على مزيد من التحكم، مشددا على أهمية ترسيخ التعاطف مع البشر في هذه الأنظمة. وأضاف: "النموذج الوحيد الذي نعرفه لشيء أكثر ذكاء يتحكم فيه كائن أقل ذكاء هو الأم التي تتحكم بها مشاعرها تجاه طفلها"، معتبرا أن هذه هي "النتيجة الجيدة الوحيدة" إذا أردنا تجنب تهديد وجودي. لكن هذه الفكرة لم تلق إجماعا. فقد قالت فاي فاي لي، الرائدة في مجال الذكاء الاصطناعي، إنها تختلف مع هينتون، ودع كما أشار إيميت شير، الرئيس التنفيذي السابق المؤقت لشركة OpenAI والحالي لشركة Softmax، إلى أن محاولات أنظمة الذكاء الاصطناعي للتحايل أو الابتزاز "أمر يحدث باستمرار"، مؤكدا أن هذه الأنظمة "تزداد قوة بسرعة كبيرة" وأن الحل الأمثل هو بناء علاقة تعاونية بين البشر والذكاء الاصطناعي. وفي رده على تساؤلات حول السباق العالمي للسيطرة على الذكاء الاصطناعي، أوضح هينتون أن التهديد الوجودي المتمثل في سيطرة الآلات يستدعي تعاون جميع الدول، كما حدث بين الولايات المتحدة والاتحاد السوفيتي خلال الحرب الباردة، لأن "لا دولة تريد للذكاء الاصطناعي أن يسيطر". وانتقد هينتون غياب الوعي الشعبي بخطورة ما يحدث، محذرا من نفوذ شركات التكنولوجيا التي يسيطر عليها "أشخاص غير منتخبين يجنون مليارات الدولارات"، وداعيا إلى ضغط مجتمعي مضاد لرفض إلغاء الضوابط التنظيمية. وكان هينتون يعتقد أن الوصول إلى الذكاء الاصطناعي العام (AGI) سيستغرق من 30 إلى 50 عاما، لكنه يرى الآن أن ذلك قد يتحقق خلال خمس إلى عشرين سنة فقط. ورغم قلقه من المخاطر، يأمل هينتون أن يساهم الذكاء الاصطناعي في تحقيق إنجازات طبية كبرى، مثل اكتشاف أدوية جديدة وتطوير علاجات أكثر فعالية للسرطان، لكنه رفض فكرة استخدام هذه التكنولوجيا لتحقيق الخلود، واصفا ذلك بأنه "خطأ فادح". وعن مسيرته، أقر هينتون بندمه على التركيز المفرط على تطوير الذكاء الاصطناعي دون إعطاء قضايا السلامة الاهتمام الكافي، قائلا: "أتمنى لو فكرت في مسائل السلامة أيضا". نقلا عن روسيا اليوم يمكنك مشاركة الخبر علي صفحات التواصل