بقلم محمد السماك – هل يطلق «الذكاء الاصطناعي»… قنبلة نووية؟

25

تتمحور الصراعات الدولية في إطار لعبة الأمم حول تطوير الإنتاج كمّاً ونوعاً لاستقطاب الأسواق الاستهلاكية في العالم. وتتمحور أيضاً حول السيطرة على مصادر الطاقة والممرّات الآمنة من وإلى هذه المصادر. وتعتمد الدول الكبرى لحماية مصالحها على القوّة العسكرية الذاتية، سواء للردع أو حتى للمواجهة. وقد جاءت الحرب الأوكرانية لتضفي بُعْداً جديداً على هذا الواقع.

لكن مع تقدّم الذكاء الصناعي، وخاصة في الميدان العسكري، ومع تزايد الاعتماد عليه شرقاً وغرباً، فإنّ الدور التخويفيّ للآلة العسكرية قد ينفلت من الضوابط السياسية والدبلوماسية، ويتحوّل إلى دور تدميري… بقرار صناعيّ.

صحيح أنّ القرارات التي تتّخذها أجهزة الذكاء الصناعي هي أسرع وأكثر دقّة من القرارات التي يتّخذها الإنسان، إلا أنّها في الوقت ذاته تتجاوز حدود وضع القرارات إلى إصدار الأمر بتنفيذها.

ونظراً إلى سرعة التنفيذ الإلكتروني، فإنّ الأمر الآليّ بتوجيه الصواريخ لضرب قوات العدوّ في البرّ أو البحر قد يصدر ويُنفَّذ من دون أن يترك أيّ فرصة للتفاوض السياسي أو للدور الدبلوماسي، وهو ما يعني إلغاء أيّ فرصة لإعادة النظر.

إضافة إلى ذلك، لا تتمتّع أجهزة الذكاء الصناعي بحصانة ضدّ الاختراق. فقد حدثت عمليات اختراق فعلاً مرّات عديدة من دول، وحتى من «هواة» يجيدون استخدام الأجهزة الإلكترونية. وسُجّلت عمليات الاختراق هذه في البنتاغون (وزارة الدفاع الأميركية) وفي دول غربية أوروبية عديدة أخرى. وتعرّضت أجهزة وزارات الدفاع في روسيا والصين وكوريا الجنوبية لمحاولات اختراق مماثلة. وإذا اقتصرت تلك العمليات على «سرقة» المعلومات، فإنّ ذلك لا يعني أنّها لن تكون قادرة على توجيه التعليمات في المستقبل.

لقد سبق للعالم أن واجهَ مراراً أخطار انفجار صدام عسكري نتيجة خطأ آليّ، أو نتيجة معلومات استخباراتية خاطئة. وعاش العالم معظم القرن العشرين وطوال الحرب الباردة تحت هاجس هذه المخاوف. إلا أنّ إنتاج السلاح النووي فرَض أمراً واقعاً أوجبَ التوافق على ثلاثة ضوابط حالت دون اتّخاذ قرار خاطئ. وهذه الضوابط هي:

– الحدّ من سباق التسلّح.

– الاتّفاق على إجراءات متبادلة توفّر الاطمئنان بين الشرق والغرب.

– الإبقاء على الأقنية الدبلوماسية مفتوحة.

 

القرار بيد «الذكاء الاصطناعي»

لكن الآن عندما يصبح القرار في عهدة الأجهزة الإلكترونية العالية الذكاء، والسريعة في اتّخاذ القرارات وتنفيذها، فإنّ العالم قد يجد نفسه على كفّ عفريت.

كان أصحاب القرار في واشنطن وموسكو يدركون جيّداً أنّ استخدام السلاح النووي سوف يدمّرهما معاً. هذا الأمر ليس في حساب الأجهزة الإلكترونية اليوم. هذه الأجهزة مبرمجة لاتّخاذ القرار ولتنفيذه من دون الرجوع بالضرورة إلى الإنسان ومن دون أن تترك أيّ فرصة لإعادة النظر.

طوال الحرب الباردة تجاوزَ العالم مخاطر الصدام النووي بسبب الشفافية المتبادلة بين القوّتين العظميَيْن: الكرملين والبيت الأبيض. وكانت تلك الشفافية مقصودة في حدّ ذاتها لتجنّب اتّخاذ قرار مبنيّ على معلومات خاطئة. لكن ليس لمثل هذه الشفافية مكان أو دور في الأجهزة الإلكترونية المبرمجة للتصرّف بسرعة وبدقّة.

كان كلّ من الطرفين الروسي والأميركي يعرف تقريباً قوّة الآخر، حتى إنّه يعرف مواقع صواريخه الحاملة لرؤوس نووية في البرّ والبحر، وحتى في الجوّ أيضاً. كانت هذه المعرفة المتبادَلة تشكّل أساساً لمنع أيّ طرف من اللجوء إلى استخدام السلاح النووي. وكان ذلك قائماً على حسابات ومشاعر إنسانية للفعل ولردّ الفعل. غير أنّ هذه الحسابات لا تعني الأجهزة الإلكترونية الذكية والمبرمجة من غير مشاعر إنسانية.

أكثر من ذلك، لقد تمكّن العلماء الروس والأميركيون من برمجة الصواريخ الحاملة للرؤوس النووية بحيث لا تنفجر إذا ما جرى إطلاقها بطريق الخطأ. إلا أنّ أجهزة الذكاء الصناعي لم تُبرمَج على هذا الأساس بعد. وتعمل الشركات المختصّة التي صنعت أجهزة متطوّرة لقيادة السيارة من دون سائق، ولقراءة معمّقة للإنسان من خلال معالم وجهه وعينيه، على إدخال هذه التقنيّات إلى أجهزة الذكاء الصناعي صاحبة القرار اليوم في إطلاق الصواريخ النووية. فهل يشكّل ذلك ما يكفي من الضوابط لمنع وقوع الخطأ الكارثي في المستقبل؟!

أيّاً تكن الإجابة، فإنّ العالم يواجه اليوم خطراً غير مقصود بسبب احتمال وقوع مأساة مدمّرة نتيجة قرار يتّخذه العقل الصناعي بسرعة غير قابلة إنسانيّاً لإعادة النظر.

عن «أساس ميديا»

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.