الذكاء الاصطناعي والحرب النووية: هل يمكن أن يصبح القرار بيد الآلة

سعورس 0 تعليق ارسل طباعة تبليغ

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
الذكاء الاصطناعي والحرب النووية: هل يمكن أن يصبح القرار بيد الآلة, اليوم الجمعة 21 مارس 2025 01:42 صباحاً

الذكاء الاصطناعي والحرب النووية: هل يمكن أن يصبح القرار بيد الآلة

نشر في الوطن يوم 21 - 03 - 2025

1162751
مع التطور المتسارع في تقنيات الذكاء الاصطناعي، بات العالم يواجه أسئلة جوهرية حول مدى قدرة هذه الأنظمة على اتخاذ قرارات مصيرية، خاصة في المجالات العسكرية. فهل يمكن الوثوق بالذكاء الاصطناعي لإدارة أزمات قد تؤدي إلى إبادة جماعية؟ وهل يمكن لنظام غير بشري أن يفهم التعقيدات السياسية والعاطفية التي تحكم قرارات الحرب والسلم؟
وقد يكون الذكاء الاصطناعي أداة قيمة للمساعدة في تحليل البيانات، لكنه لا يجب أن يُمنح السلطة لاتخاذ القرار النهائي. حيث أنقذ التدخل البشري العالم في الماضي، ويجب أن يبقى ذلك المبدأ ثابتاً في المستقبل.
ثلاث لحظات
ولإدراك مدى خطورة إسناد قرار نووي إلى الذكاء الاصطناعي، لا بد من مراجعة ثلاث أزمات تاريخية كان يمكن أن تنتهي بدمار شامل لو لم يكن العنصر البشري حاضراً:
01 أزمة الصواريخ الكوبية (1962): قرار ضبط النفس ينقذ العالم عندما اكتشفت الاستخبارات الأمريكية نشر الاتحاد السوفييتي صواريخ نووية في كوبا، دعا معظم مستشاري الرئيس جون كينيدي، بمن فيهم قادة البنتاغون، إلى شن ضربات جوية استباقية. كان من الممكن أن يؤدي ذلك إلى رد عسكري سوفييتي فوري، خصوصا من الغواصات المسلحة بطوربيدات نووية، أو من القوات المنتشرة في كوبا.
لكن كينيدي اختار نهجاً أكثر حكمة، حيث فرض حصاراً بحرياً على الجزيرة، وأدار مفاوضات سرية مع الزعيم السوفييتي نيكيتا خروشوف، انتهت باتفاق لسحب الصواريخ مقابل تعهد أمريكي بعدم غزو كوبا وإزالة الصواريخ الأمريكية من تركيا.
لو كان القرار بيد الذكاء الاصطناعي، المدرب على العقائد العسكرية السائدة في ذلك الوقت، لكان من المحتمل أن يوصي بالتصعيد العسكري استناداً إلى منطق الردع، مما قد يشعل مواجهة نووية شاملة.
02 إنذار كاذب كاد يشعل الحرب (1983): قرار فردي ينقذ البشرية في سبتمبر 1983، تلقى الضابط السوفييتي ستانيسلاف بتروف إنذاراً من أنظمة المراقبة يفيد بأن الولايات المتحدة أطلقت خمسة صواريخ نووية عابرة للقارات. كان ذلك نتيجة انعكاسات ضوئية على السحب، لكن الأجهزة لم تستطع التمييز.
اعتماداً على حدسه، أدرك بتروف أن أي هجوم أمريكي حقيقي كان ليكون أضخم بكثير، وقرر عدم الإبلاغ عن الإنذار كتهديد فعلي، متجنباً بذلك رد فعل نووي كارثي من جانب الاتحاد السوفييتي.
لو كان الذكاء الاصطناعي في موقع اتخاذ القرار، فمن المحتمل أن يستنتج أن الإشارات الواردة تعني هجوماً حقيقياً، خاصة إذا كان مدرباً على العقائد العسكرية التي تتطلب رداً فورياً.
03 مناورة «إيبل آرتشر» (1983): سوء فهم كاد يؤدي إلى نهاية العالم في نوفمبر 1983، أجرى حلف الناتو تدريبات عسكرية تحاكي استعداداً لضربة نووية، وسط توترات متزايدة مع الاتحاد السوفييتي. أساءت موسكو تفسير التحركات العسكرية للحلف، وردت بوضع قواتها النووية في حالة تأهب قصوى، مما أثار قلق الاستخبارات الأمريكية.
لحسن الحظ، أدرك الجنرال الأمريكي ليونارد بيروتز خطورة الوضع، وأوصى بعدم اتخاذ خطوات تصعيدية. لكن لو كان القرار بيد الذكاء الاصطناعي، فمن المحتمل أن يفسر التصعيد السوفييتي على أنه نية لضربة أولى، ما كان سيدفع واشنطن إلى ردع استباقي، وبالتالي إشعال حرب نووية فعلية.
نقاشات عميقة
ففي أواخر عام 2024، توصل الرئيسان الصيني شي جين بينج والأمريكي جو بايدن إلى اتفاق تاريخي ينص على عدم السماح للذكاء الاصطناعي باتخاذ قرار شن حرب نووية.
وجاء هذا الاتفاق بعد خمس سنوات من النقاشات العميقة في الحوار الأمريكي الصيني حول الذكاء الاصطناعي والأمن القومي، برعاية مؤسسة بروكينغز ومركز الأمن الدولي والاستراتيجية بجامعة تسينغهوا.
استندت هذه المحادثات إلى دروس مستخلصة من الحرب الباردة بين الولايات المتحدة والاتحاد السوفييتي، حيث طُرحت تساؤلات حول ما كان يمكن أن يحدث لو أنظمة الذكاء الاصطناعي آنذاك كانت مسؤولة عن قرارات إطلاق الأسلحة النووية. في عالم تحكمه العقائد العسكرية الصارمة والمخاوف المتبادلة، كان بإمكان ذكاء اصطناعي مُدرب على بيانات تلك الحقبة اتخاذ قرارات كارثية تؤدي إلى نهاية العالم.
قرار بايدن وشي
وإدراكاً لهذه المخاطر، جاء قرار بايدن وشي ليؤكد ضرورة استبعاد الذكاء الاصطناعي من قرارات الحرب النووية، وهو قرار ينبغي أن يحظى بإجماع عالمي. فلا يمكن لأي آلة، مهما بلغت دقتها، أن تمتلك الحكمة أو الإحساس الأخلاقي اللازم لمثل هذه القرارات المصيرية. قرارات أفضل قد يظن البعض أن الذكاء الاصطناعي يمكن أن يكون أكثر دقة في تقييم المخاطر، أو أنه قادر على تقليل الأخطاء البشرية. لكن الحقيقة أن جميع الأزمات الثلاث التي كادت تؤدي إلى كارثة نووية تم تجنبها بفضل قرارات اتخذها أشخاص امتلكوا الحدس والإدراك العاطفي والتاريخي للحالة.
على سبيل المثال، خلال أزمة الصواريخ الكوبية، كان ذكاء اصطناعي مدرب على استراتيجيات الحرب الباردة قد أوصى بهجوم استباقي. كذلك، في حالة الإنذار الكاذب عام 1983، كان من الممكن أن يختار الذكاء الاصطناعي الرد النووي بناءً على تحليل البيانات دون إدراك السياق السياسي والعسكري.
لماذا يوصى بعدم ترك القرار للذكاء الاصطناعي:
1. غياب الفهم العاطفي والأخلاقي: الذكاء الاصطناعي لا يمتلك مشاعر أو قيما أخلاقية، مما يجعله غير قادر على تقييم القرارات من منظور إنساني شامل.
2. محدودية السياق والإدراك: الذكاء الاصطناعي يعتمد على البيانات المتاحة له، وقد يفتقر إلى الفهم العميق للسياقات المعقدة أو غير المتوقعة.
3.احتمالية التحيز والخطأ: الأنظمة الذكية قد تتعلم من بيانات منحازة أو غير دقيقة، مما يؤدي إلى قرارات خاطئة أو غير عادلة.
4. المسؤولية والمساءلة: عند ترك القرار للذكاء الاصطناعي، يصعب تحديد المسؤولية عند حدوث أخطاء أو نتائج غير مرغوبة.
5. التأثير على الإبداع والمرونة: الاعتماد الكامل على الذكاء الاصطناعي قد يحد من الإبداع والقدرة على التعامل مع المواقف الجديدة بطرق غير تقليدية.
6. الأمان والمخاطر الأمنية: بعض القرارات قد تؤدي إلى مخاطر أمنية إذا تُركت لأنظمة غير قادرة على التنبؤ بالعواقب البشرية والاقتصادية والسياسية بشكل دقيق.

انقر هنا لقراءة الخبر من مصدره.




إخترنا لك

أخبار ذات صلة

0 تعليق