"غدي نيوز" – إيليسيا عبود -
حذر خبراء أمنيون من أن الاعتماد المتزايد على أنظمة " الذكاء الاصطناعي " artificial intelligence يمكن أن يؤدي في المستقبل القريب إلى حرب نووية ، وحددوا النهاية بــ "حلول العام 2040".
ولكن هذا السيناريو المروع لن يفسر كيفية تخيل فكرة قيام برنامج الكمبيوتر بالضغط على زر " يوم القيامة ". وبدلا من ذلك، يمكن أن تؤدي التطورات التكنولوجية إلى قيام الحكومات بتخزين المزيد من الأسلحة النووية، والتحول إلى أنظمة الذكاء الاصطناعي للحصول على مشورة خاطئة حول موعد استخدامها، وفق ما أشارت صحيفة "الدايلي ميل" البريطانية.
قرارات مدمرة
وجاء في تقرير جديد صدر منذ أيام قليلة عن مؤسسة "راند كوربوريشن"Rand Corporation الاستشارية، أن "الأمر لا يتعلق بالقلق من الروبوتات القاتلة في أفلام هوليوود، وإنما يتمثل في الطريقة التي قد تتحدى بها الحواسيب القواعد الأساسية للردع النووي وتقود البشر إلى اتخاذ قرارات مدمرة".
وشملت الدراسة مدخلات من متخصصين في مجموعة من المجالات، بما في ذلك الأمن النووي والحكومات وأبحاث وسياسة الذكاء الاصطناعي والصناعة.
الاستقرار الجيوسياسي
وطُلب من الخبراء أن يتصوروا كيف ستبدو أنظمة الأسلحة النووية في عام 2040، وأن يستكشفوا كيفية تأثير الذكاء الاصطناعي عليها.
وتدعي الدراسة أن الذكاء الاصطناعي يمكن أن يقوض الاستقرار الجيوسياسي، ويزيل فكرة وضع الأسلحة النووية كوسيلة للردع.
ويتوقف هذا التوقع على التحول عن مبدأ "التدمير المتبادل المؤكد"، الذي طالما استمر الحفاظ عليه، أو "الثأر المؤكد"، وهو الذي يمنع دولة ذات قدرات نووية من ضرب عدو مسلح على قدم المساواة، بسبب الإبادة الكاملة التي سيعاني منها كلا الجانبين، وفقا لصحيفة "ذا صن" البريطانية.
أمر مثير للقلق
وفي هذا المجال، شدد التقرير أيضا على أنه يمكن اختراق الذكاء الاصطناعي وإدخال معلومات خاطئة. وسيكون هذا الأمر مثيرا للقلق بشكل خاص في المستقبل، عندما تعتمد الحكومات بشكل متزايد على أنظمة الكمبيوتر للحصول على المشورة حول شن هجوم نووي.
ولفت التقرير كذلك إلى خطأ مشابه كاد يحدث في عام 1983، وفقا لـ RT الروسية، عندما رصد الضابط العسكري السوفياتي السابق، ستانيسلاف بيتروف، تحذيرا غير صحيح على جهاز الكمبيوتر بأن الولايات المتحدة أطلقت عدة صواريخ. واعتُرف ببتروف، الذي توفي أواخر العام الماضي، بأنه الرجل الذي أنقذ العالم من كارثة نووية.