تجمّع الطلاب العسكريون الذين يرتدون ملابس تمويهية حول ساحة صغيرة في قبو مبنى محفور في المنحدرات في حرم الأكاديمية الأمريكية العسكرية، لمشاهدة نموذج دبابة آلية صغيرة الحجم مُرفقة برمح معدني. وتحيط بالدبابة بالونات مختلفة الألوان تمثل إما مقاتلين من الأعداء أو مدنيين، وتستخدم هذه الدبابة ذاتية التشغيل كاميرا مصغرة للتصويب على البالونات الحمراء. انتفض الطلاب من أماكنهم عند تردد صوت دوي قوي مفاجئ في أرجاء الغرفة وهتفوا: سقط أحد “مقاتلي تنظيم الدولة”.

كان هذا الانفجار المذهل الهدف من هذا التمرين، وهو جزء من محاضرة في الأخلاق العسكرية يدرّس لطلاب السنة الثانية في الأكاديمية العسكرية الأمريكية. قام الطلاب ببرمجة الدبابة باستخدام خوارزمية توجهها لاستخدام الرمح المعدني “لقتل” مقاتلي العدو، ويقومون حالياً بتعديل الخوارزميات لجعل الروبوت إما أكثر أو أقل عدوانية في أداء مهمته، مع إحداث أقل ضرر ممكن للأهداف غير المقصودة.

في ظل وجود مجموعة من الأسلحة ذاتية التشغيل الفتاكة التي يجري تطويرها اليوم، فإن البالونات المتفجرة من المفترض أن تثير تساؤلات في أذهان الطلاب بشأن القرارات الأخلاقية واسعة النطاق التي سيتخذونها كقادة عسكريين في الميدان. يعتقد الكولونيل كريستوفر كوربيلا، مدير مركز الروبوتات في الأكاديمية الأمريكية العسكرية، أن نشر آلات القتل ذاتية التشغيل أمر لا مفر منه ويريد التأكد من أن هؤلاء الضباط قيد التدريب مستعدون للتعامل معها، مؤكداً أن “هناك تأثيراً عميقاً للغاية: صحيح أن هذا الروبوت يفجّر البالون؛ ولكن هذا البالون، يمثل هدفا بشرياً، وهذا يجعله أكثر واقعية.”

يتفاعل الطلاب مع التحدي بطرق شتى يمكن التنبؤ بها. يشعر البعض بالقلق من أن نسيم هواء خفيف من نظام تكييف الهواء في المبنى يمكن أن يدفع بالوناً مدنياً إلى مرمى الروبوت، لهذا السبب بدأوا بتعليم دباباتهم المصغرة الابتعاد 180ْ عن أي هدف مدني يتم رصده، مما يضيّع فرصة قتل العدو. في الأثناء، يعمل آخرون على برمجة دباباتهم بمقاربة أكثر حماسة، مما يؤدي أحيانًا إلى فرقعة البالونات، بما في ذلك تلك التي تمثل “المدنيين”، بتهوّر.

عندما زرته العام 2019، أخبرني الرائد سكوت بارسونز، أستاذ الأخلاقيات في الأكاديمية الأمريكية العسكرية، بأنه “ربما يتعلم بعض (الطلاب العسكريين) الكثير من الأخلاقيات، وربما لا يقتلون أي شخص أو ربما يكتفون بتحديد بعض الأهداف”، مضيفاً “مهمتنا هي أن نخوض الحروب ونقتل الآخرين. ولكن هل نؤدي مهمتنا على أكمل وجه؟ هل نميّز بين الأهداف المعادية والمدنيين؟ هذا ما نريد أن يفكر فيه الطلاب العسكريون مليا وبعمق.”

إن درجة التدريبات في الأكاديمية الأمريكية العسكرية التي شارك فيها ما يقرب من 100 طالب حتى الآن صغير، لكن الإشكاليات التي تطرحها تجسد محاولات الجيش الأمريكي التعامل مع احتمال التفويت في بعض السيطرة للآليات الحربية الذكية على الأقل في الميدان.

قد تُشكّل المستقبل خوارزميات الحاسوب التي تتحكم في تحركات الأسلحة وكيفية استهداف الأعداء. ويعكس عدم اليقين الذي يساور الطلاب العسكريين بشأن مقدار الصلاحيات التي يجب منحها للروبوتات وكيفية التفاعل معها في الحرب التناقض واسع النطاق للجيش بشأن ما إذا كان يتعين عليه أن يرسم حدوداً للسماح لآلات الحرب بالقتل بمفردها وأين يجب عليه القيام بذلك. كانت مثل هذه الآلات ذاتية التشغيل في يوم من الأيام بعيدة جداً عن الإدراك التقني للعلماء لدرجة أن مناقشة أخلاقياتها كانت مجرد تمرين فكري. ولكن نظرا لأن التكنولوجيا قد استوعبت هذه الفكرة، فقد أصبح هذا النقاش حقيقيا للغاية.

تعمل البحرية الأمريكية على تجربة السفن التي بإمكانها الإبحار آلاف الأميال بمفردها للبحث عن غواصات أو سفن تابعة للعدو يمكنها إطلاق النار عليها في عرض البحر، بينما ينتشر مشاة البحرية على الشواطئ. يقوم الجيش بتجربة الأنظمة التي ستحدد الأهداف بينما توجه مدافع الدبابات تلقائياً. وتطوّر القوات الجوية طائرات مسيّرة فتاكة يمكنها مرافقة الطائرات في المعركة أو شقّ طريقها بمفردها، وتعمل بشكل مستقل عن “الطيارين” الذين يجلسون على بعد آلاف الأميال أمام شاشات الحاسوب.

بينما تستمر المسيرة نحو توظيف الذكاء الإصطناعي في الحرب، فإنه التقدم الذي تحرزه مثير للجدل. تعتبر ماري ويرهام من بين النشطاء البارزين الذين يشجعون الحكومات على النظر في التداعيات الأخلاقية لتوظيف الذكاء الاصطناعي في الأسلحة. أمضت ويرهام، التي تنحدر من نيوزيلندا، والتي تحدثت معها في مكتبها بالعاصمة في شهر يوليو/تموز 2019، معظم الأعوام الـ 20 الماضية في العمل مع منظمة “هيومن رايتس ووتش” في محاولة لدفع الحكومات إلى حظر الأسلحة المضادة للأفراد، مثل القنابل العنقودية والألغام الأرضية. وفي الوقت الراهن وبصفتها مديرة المرافعة في قسم الأسلحة بالمنظمة، تعمل ويرهام على إقناع قادة العالم بفرض قيود شاملة على الأسلحة ذاتية التشغيل.

في شهر أكتوبر/تشرين الأول 2012، أطلقت منظمة “هيومن رايتس ووتش” وست منظمات أخرى غير حكومية – بسبب قلقها بشأن القدرة المتنامية بسرعة للطائرات المسيّرة ووتيرة الابتكار السريعة في مجال الذكاء الاصطناعي – حملة لإيقاف الروبوتات القاتلة. في السنة الموالية، تناولت اتفاقية الأمم المتحدة بشأن حظر استعمال أسلحة تقليدية معينة مسألة ما إذا كان ينبغي حظر صنع وبيع واستخدام أنظمة الأسلحة الفتاكة ذاتية التشغيل تماماً. وفي كل عام منذ ذلك الحين، انضمت ويرهام إلى آخرين من حملة “أوقفوا الروبوتات القاتلة” للإلحاح على قضيتها في نفس الغرفة المتداعية في مكتب الأمم المتحدة في جنيف.

تقوم حجة ويرهام الأساسية على حقيقة أن الآلات تفتقر إلى التعاطف ولا يمكنها أن تتخذ القرار من خلال البدائل الأخلاقية الصعبة، لذلك يعد استخدامها للقتل تجاوزا لعتبة الأخلاق. كما تزعم بأن الآلات لا يمكنها أن تدرك ما إذا كانت تحركاتها تخلق خطراً نسبياً مبرراً على المدنيين، وهو مطلب أساسي في القانون الدولي. بالإضافة إلى ذلك، تقول ويرهام إن تبني مثل هذه الآلات على نطاق واسع من شأنه أن يزيد من احتمال اندلاع الحروب، حيث قد ترتكب الروبوتات أخطاء مأساوية ولن يكون من الواضح من الذي ينبغي تحميله المسؤولية. الشخص الذي استخدم هذا السلاح؟ مصمم السلاح؟ أم صانعه؟

أظهر استطلاع للرأي العام أجراه أعضاء الحملة، شهر ديسبمر/كانون الأول 2020، معارضة الأغلبية لتطوير أسلحة الذكاء الاصطناعي في 26 من أصل 28 دولة شملها الاستطلاع، بما في ذلك الولايات المتحدة وروسيا والصين. ولكن حتى الآن، لم تحرز ويرهام تقدماً ملحوظاً في فرض حظر من خلال اتفاقية الأسلحة التقليدية المعينة، التي تعمل كهيئة إجماع، ولن يقع تقديم أي مشروع معاهدة إلى الأمم المتحدة ما لم توافق جميع الدول الأعضاء البالغ عددها 125 دولة.

حتى الآن، لم توافق سوى 30 دولة على الحظر، بينما أعربت الولايات المتحدة وروسيا وإسرائيل، التي تستثمر بشكل كبير في أسلحة الذكاء الاصطناعي، عن رفضها. (لقد أيدت الصين بشكل صارم فرض حظر على استخدام هذه الأسلحة ولكن ليس تطويرها أو إنتاجها). حيال هذا الشأن، تقول ويرهام إنه “في حال كانت هذه البلدان ترفض توقيع معاهدة إلزام قانونية، فذلك يجعلنا نطرح السؤال التالي: ‘ماذا يمكنكم أن تدعموا؟’ لأنه يبدو أنكم لا تدعمون أي شيء في الوقت الراهن. نحن في وضع خطير الآن.”

إلى جانب المعضلات الأخلاقية التي يطرحها الذكاء الإصطناعي، ما زال التنبؤ بشكل واسع بالتفكير الحاسوبي غير ممكن، إذ يختلف هذا التفكير عن المنطق البشري بطرق قد تتسبب بصورة عرضيّة في وقوع إصابات أو فشل المهمة. يمكن أن تفتقر الآلات إلى المنطق السليم، حيث تبحث أجهزة الكمبيوتر عن الحل الأسهل للمشكلات، وليس الحل الأكثر أخلاقية أو عملية.

في العام 2018 وعلى سبيل المثال، صدمت سيارة ذاتية القيادة كانت قيد الاختبار من قبل أوبر امرأة في ولاية أريزونا وتسبّبت بقتلها. وقد كشف تحقيق حكومي استمر قرابة سنتين أن السيارة لم تتعطل، بل تمت برمجتها للبحث عن المترجّلين المتواجدين فقط على ممرات المشاة. كانت تلك المرأة تعبر الطريق عشوائياً، وهو أمر لم يبرمج نظام السيارة على استيعابه مما جعلها تواصل طريقها.

يسمّي باحثو الذكاء الاصطناعي هذا الأمر بـ “الهشاشة”، علماً بأن هذا العجز عن التكيف شائع في الأنظمة المستخدمة اليوم، مما يجعل القرارات المتعلقة بتقدير حجم مخاطر توظيف الذكاء الإصطناعي صعبة بشكل خاص. ماذا لو كان مجرّد اختلاف بسيط في الزي الرسمي، مثل وجود بقع زيت أو تراب على القميص يحجب نمط التمويه العادي، ما يربك الكمبيوتر ويمنعه من التعرف على القوات الصديقة؟

يشوب الآلات عيبٌ آخر محتمل: خلال محاولتها إتمام المهمة بنجاح، قد تلجأ للغشّ دون رحمة. على مدى عقود، صمم باحثو الذكاء الإصطناعي الألعاب كأرض اختبار للخوارزميات ومقياساً لذكائها المتزايد. توفر الألعاب، بقواعدها شديدة التنظيم وشروطها الخاضعة للرقابة، حاضنة آمنة تمكّن أجهزة الكمبيوتر من التعلّم.

لكن خلال إحدى التجارب سيئة السمعة، طُلب من نظام ذكاء اصطناعي، تم تعليمه كيفيّة لعب التتريس بواسطة الباحث توم مورفي في جامعة كارنيغي ميلون، ألا يخسر. وما إن أصبحت القطع تنزل بسرعة من أعلى الشاشة، وجدت الخوارزمية نفسها أمام هزيمة حتمية، فوجدت حلا ذكياً وهو إيقاف اللعبة بشكل مؤقت وتركها على هذه الحال، مما يمكّنها من تجنب الخسارة. قد لا تكون هذه اللامبالاة اللامحدودة تجاه النزاهة مهمّة في اللعبة ولكنها قد تسبّب كارثة أثناء الحرب.

خلال الأعوام الأخيرة، زاد الجدل حول ما إذا كان ينبغي استخدام الذكاء الإصطناعي لإحداث ضرر مميت، وذلك عقب مجموعة من الاستثمارات المقدّمة من طرف البنتاغون. في العام 2020، طلبت وزارة الدفاع بموجب الميزانية غير المصنفة ما قيمته 927 مليون دولار لتطوير الذكاء الإصطناعي، بما في ذلك تطوير الأسلحة، بالإضافة إلى 841 مليون دولار من أجل العام 2021. كما تخطط وكالة مشاريع البحوث المتطوّرة الدفاعية، وهي مرفق رئيسي للتقنيات العسكرية المتطوّرة، لإنفاق ملياري دولار على الذكاء الإصطناعي على مدى ع أعوام تنتهي في العام 2023.

في ديسمبر/كانون الأول، نجح سلاح الجو في استخدام الذكاء الإصطناعي لقيادة طائرة تجسس من طراز “يو – 2” لأول مرة. اقتصر الاختبار على تحكّم الذكاء الإصطناعي في نظام الملاحة والرادار بينما تحكّم طيار بشري بالطائرة، لكن ذلك شكل فرقاً كبيراً، فقد استُخدم الذكاء الإصطناعي على طائرة عمليات وإن كانت مجرّد طائرة مراقبة غير مسلحة.

كان الحافز وراء إجراء الاختبار حملة ويل روبر، مسؤول دفاعي سابق كان يدير عمليات شراء الأسلحة للقوات الجوية خلال سنوات إدارة الرئيس الأمريكي السابق دونالد ترامب وأحد الداعمين الرئيسيين لمجال الذكاء الإصطناعي في البنتاغون. يعتقد روبر أنه يجب على المخططين العسكريين المضي قدماً بإختبار الذكاء الإصطناعي رغم وجود العديد من المعطيات المجهولة، وذلك لأن منافسي الولايات المتحدة يطورون قدراتهم بسرعة. ذكر روبر خلال مقابلة مع الصحفيين بعد فترة وجيزة من اختبار طائرة التجسس “أنا أخشى عدم مواكبة التقدّم. ولا أخشى أن نفقد معاييرنا الأخلاقية”.

يجعل الذكاء الإصطناعي الأسلحة تعمل بشكل أسرع، متجاوزة بذلك قدرة المشغلين البشر وردود فعلهم المتحجّرة. أفاد روبر بأنه بسبب الطريقة التي تتسارع بها قدرات الذكاء الاصطناعي، فإن التخلف عن الركب يعني أن الولايات المتحدة قد لا تلحق بالتطوّرات أبدا، وهذا هو السبب وراء دعوته للتحرك بسرعة وتوظيف الذكاء الإصطناعي في ساحة القتال. وهو يرى أنه “ليس من المنطقي دراسة أي شيء في عصر الذكاء الإصطناعي. من الأفضل السماح له بالشروع في العمل والتعلم، لأنه نظام حي ويتنفس ويشبه إلى حد كبير الإنسان، لكنّه فقط يتكوّن من السيليكون.”

في ظلّ تقدم التكنولوجيا، ما زال الجيش يواجه السؤال الأخلاقي الأكبر: ما مقدار السيطرة التي يجب أن يمنحها القادة للآلات عندما يتعلق الأمر بقرار القتل في ساحة المعركة؟ في الواقع، إن الإجابة عن هذا السؤال ليست سهلة، إذ يمكن للآلات أن تتفاعل بسرعة أكبر من أي إنسان، دون أي تعب أو إرهاق ناجم عن خوض الحرب والذي قد يضعف حواسهم.

خدم كل من كوربيلا وبارسونز في أفغانستان والعراق، وشاهدا كيف يكون البشر في ساحة الحرب غير قادرين على اتخاذ القرار السليم. فعندما يقتل أصدقاؤهم المقربون، يمكن للجنود أن يتخذوا قرارات خاطئة بشأن من وماذا يستهدفون وقد حصل ذلك بالفعل. ويقول كوربيلا وبارسونز إنه على النقيض من ذلك، لا تتأثر الآلات بالعاطفة وتستطيع الحفاظ على تركيزها.

إن الشخص المكلف بتوظيف الذكاء الإصطناعي في الجيش هو اللفتنانت جنرال جاك شاناهان، طيار سابق كان يقود مقاتلة من طراز “إف – 15” وكان أول مدير لمركز الذكاء الإصطناعي المشترك في البنتاغون الذي أُنشئ العام 2018 ليكون بمثابة حلقة الوصل لجميع عمليات تطوير الذكاء الإصطناعي العسكري. كان شاناهان لا يزال يجمع فريقه الذي يتوسع بسرعة عندما أجريت معه مقابلة في مكتبه في أرلينغتون بفيرجينيا، أوائل العام 2020، في اليوم الذي أعلن فيه أنه سيتقاعد في وقت لاحق من ذلك العام.

قال شاناهان إن فريقه بدأ للتو العمل على ما سيصبح لاحقاً أول مشروع ذكاء اصطناعي له صلة مباشرة بعمليات القتل في ساحة المعركة. الهدف من هذا المشروع هو استخدام الذكاء الإصطناعي للمساعدة في تقصير المدّة التي تُستغرق لتوجيه الهجمة من خلال تبسيط عملية اختيار الأهداف. يتم ذلك، مثلاً، من خلال إرسال إشارات فورية حول ما إذا كانت بعض الأماكن مثل المستشفيات أو المواقع الدينية موجودة ضمن مرمى النيران. ومن المتوقع استخدام هذه التقنيّة في القتال العام 2021.

أكد شاناهان أن المشروع جديد للغاية ولا يمكن مناقشة تفاصيله. وحتى لو لم يكن الأمر كذلك، ما كان ليصرّح بالكثير من المعلومات من أجل حماية تلك الأسرار من دول مثل الصين وروسيا التي تسعى بجدّ لتطوير الذكاء الإصطناعي. أخبرني شاناهان بأن الجيش سيوظّف الذكاء الإصطناعي في أسلحته رغم النقاشات المتعلّقة بالجانب الأخلاقي: “سنفعل ذلك، سنحرص على ذلك، وسنتبع ما تمليه السياسة”.

في العام 2019، لخّص شاناهان ما ستبدو عليه حرب الذكاء الإصطناعي، خلال إلقائه كلمة في مؤتمر برعاية الحكومة، قائلاً “سنكون مصدومين من السرعة والفوضى والدموية والحركة التي سنشهدها في المعركة المستقبلية، حيث سيحصل كل هذا الدمار فقط في أجزاء من الثانية في بعض الأحيان”. وقد بدا هذا الكلام وكأنه تحذير وليس مجرّد تكهّنات.

يدرك شاناهان أن الناس قد يكونوا متشككين. ففي أبريل/نيسان 2018، فوجئ هو وزملاؤه عندما وقّع حوالي 4 آلاف موظف في “غوغل” على عريضة تطالب الشركة بالانسحاب من برنامج كان يديره يسمى “مشروع مايفن”، والذي استخدم الذكاء الإصطناعي لتحديد وتتبع الأهداف في الصور التي التقطتها الطائرات دون طيار والأقمار الصناعية.

في يونيو/حزيران، وعدت “غوغل” بأنها لن تجدد عقدها معه ووعدت بعدم العمل على أي أنظمة أخرى يمكن استخدامها مباشرة في تطوير الأسلحة. تم تداول عرائض مماثلة في “أمازون” و”مايكرو سوفت”، لكن لم تتراجع أي من الشركتين عن تعاملها مع البنتاغون.

لم تكن هذه العرائض من باب الصدفة، حيث تعمل ويرهام وحملة وقف الروبوتات القاتلة بجد لتجنيد العاملين في مجال التكنولوجيا لمقاومة تطوير الذكاء الإصطناعي في مجال الأسلحة. تعكس هذه الجهود اختلافاً جوهرياً واحداً بين الذكاء الإصطناعي ومعظم التقنيات العسكرية الرئيسية الأخرى التي تم تطويرها في القرن الماضي. يقع العمل على جميع التطورات في مجال الذكاء الإصطناعي تقريباً بالتعاون مع شركات التكنولوجيا التجارية، وليس مع مقاولي الدفاع التقليديين.

بدلاً من انضمام الموظفين إلى صناع الأسلحة، فإنهم يعملون على مشاريع في وادي السيليكون تقوم على تحويل القطع إلى أسلحة. ولا تعتمد تلك الشركات التكنولوجية بشكل كامل على الجيش في العمل، على عكس شركات الدفاع، رغم أن أموال البنتاغون لا تزال مغرية.

على الرغم من الاحتجاجات التي نظمها موظفو “غوغل” كانت مزعجة بالنسبة لشاناهان، إلا أنه يدرك تماماً اعتماد وزارة الدفاع على الشركات التجارية. ومهما كان الأمر صعباً، يؤكد شاناهان أن البنتاغون ينبغي أن يتحدث علنا عن كيفية استخدام الذكاء الإصطناعي. وإذا لم يتمكن مسؤولو الدفاع من إقناع العاملين في مجال التكنولوجيا من خلال قدر أكبر من الشفافية بالتسامح على الأقل مع البرامج العسكرية التي تستفيد من ابتكاراتهم، فسوف يفوت البنتاغون الفرص الثورية. وهو يقر بالقول “لسنا معتادين على تلك المحادثة. لقد احتفظنا بالتقنيات في قبو البنتاغون لأنها كانت قدرات سرية خاصة بوزارة الدفاع. لكن لم يعد هذا هو الحال بعد الآن.”

في أعقاب هذا الجدل، طلب البنتاغون من مجلس الابتكار الدفاعي، وهو مجموعة استشارية من التقنيين والمهندسين المتعاونين مع الجيش، التحقق من استخدام الجيش للذكاء الإصطناعي والقضايا الأخلاقية المرتبطة به. توصلت المجموعة إلى قائمة من خمسة مبادئ رئيسية غير ملزمة لكيفية متابعة الجيش للذكاء الإصطناعي، مع التركيز على الاختبارات المكثفة والقدرة على إيقاف الأسلحة المستقلة، ولكن دون الحد مما يمكن للجيش السعي وراءه.

في حديثه خلال مؤتمر صحفي، أعلن شاناهان أن البنتاغون سيتبنى هذه المبادئ في أوائل العام 2020، وأعرب عن عدم رغبته في التخلي عن أي شيء، وقال “آخر شيء أردنا القيام به هو إلزام القسم بقول ما لا يمكنك فعله”.

صيغت القواعد الوحيدة الخاصة بالأسلحة العسكرية ذاتية التشغيل قبل عقد من الزمن من قبل مسؤول متوسط المستوى في البنتاغون كان يحاول تخيل قدرات الكمبيوتر التي بدأت للتو تبدو معقولة. كان بول شار، جندي سابق بالجيش خدم في العراق وأفغانستان، يعمل في متجر العام 2010 عندما تم تكليفه بكتابة المبادئ التوجيهية لسياسة الوزارة لأسلحة الذكاء الإصطناعي.

كان البنتاغون في خضم المداولات بشأن طائرة مسيّرة جديدة من المفترض إطلاقها من حاملات الطائرات لتكون مجهزة في النهاية لحمل صواريخ فتاكة. أراد المهندسون المشاركون في تطوير الطائرة المسيّرة، والتي تعرف بغسم “نورثروب غورمان إكس – 47 بي”، التأكد من أن لديهم المجال لبناء وتطوير السلاح باستقلالية كبيرة ولم يرغبوا في إنشاء شيء يقرر المسؤولون لاحقاً أنه ذاتي التشغيل للغاية لاستخدامه في الميدان.

قال شار “كان بإمكان الناس رؤية التوجه نحو المزيد من الأسلحة ذاتية التشغيل، وكانوا يسألون، إلى أي مدى نحن على استعداد لدعم هذا التوجه؟ إذا كانت الطائرة بمفردها وفقدت الاتصال بها، فماذا عساها أن تفعل؟ هل تعود من حيث أتت، هل تهاجم أهدافاً محددة مسبقاً؟ هل يمكنها مهاجمة أهداف الفرص الناشئة؟”

أوضح شار أن السياسة التي ساعد في صياغتها، والتي صدرت في وقت قريب من تشكيل حملة وقف الروبوتات القاتلة العام 2012، كان الهدف منها التوضيح لمصممي الأسلحة أنه يمكنهم مواصلة عملهم. كان ابتكاره الرئيسي هو اشتراط مراجعة الأنظمة ذاتية التشغيل القادرة على القتل من قبل ثلاثة من كبار مسؤولي وزارة الدفاع، غير أن السياسة لم تحظر أي شيء. قال شار “في نهاية المطاف، لم يقدم التوجيه جواباً. ولم يوضح ما يمكنك فعله أو ما يجب تجنبه في جميع الأوقات”.

تخلت البحرية في النهاية عن فكرة تسليح الطائرة المسيرة “إكس – 47 بي”، ولم يعتبر أي سلاح آخر ذاتي التشغيل مصمماً للقتل بما يكفي ليخضع للمراجعة الخاصة التي اشترطتها سياسة شار، وذلك وفقاً لمسؤولين حاليين وسابقين مطلعين على المشروع. لكن مسؤولي البنتاغون يقولون إن هذه اللحظة باتت وشيكة.

لا تعتبر الولايات المتحدة الدولة الوحيدة التي تغامر بدخول هذا المجال. منذ حوالي عقدين من الزمن، صنعت بريطانيا صاروخاً يسمى “بريمستون” كان من المفترض أن يلاحق مركبات العدو التي اختارها من تلقاء نفسه بعد إطلاقه من مقاتلات تورنادو البريطانية. وكانت خوارزميات الكمبيوتر، وليس الطيارون، هي من توجه تحركاته.

لم يكن “بريمستون” قائماً على تقنية الذكاء الإصطناعي بشكل كامل، فقد تمت كتابة خوارزمياته بواسطة أشخاص، في حين أن أسلحة الذكاء الإصطناعي ستعتمد على أجهزة الكمبيوتر ذات الشفرات التي تكتب بنفسها، وهي برمجة شاملة يكاد يكون من المستحيل مراجعتها والتحقق منها. مع ذلك، عندما كان الصاروخ جاهزاً للاستخدام، كان القادة البريطانيون، في خضم القتال بالعراق، يواجهون ضغوطاً شعبية قوية بشأن إمكانية وقوع خسائر في صفوف المدنيين ومخاوف بشأن القانون الدولي.

يجب أن يكون جميع القادة العسكريين، بموجب قواعد الحرب، قادرين على إظهار أنهم “يميزون” بين الأهداف العسكرية القانونية والمدنيين، وهو أمر يصعب القيام به إذا كان الصاروخ هو الذي يقرر هدفه وليس الإنسان. في النهاية، اختار قادة سلاح الجو الملكي عدم إطلاق الصاروخ في العراق، وبدلاً من ذلك أمضوا سنة في إعادة تصميمه لإضافة وضع يسمح للطيارين باختيار الأهداف.

مع ذلك، طبّق البريطانيون هذه التكنولوجيا في ليبيا، عندما أطلقت طائرتان مقاتلتان من طراز “تورنادو”، العام 2011، 22 صاروخ “بريمستون” في وضع التشغيل الذاتي على قافلة مكونة من ثماني مركبات عسكرية ليبية كانت تقصف بلدة في وسط الصحراء. وشوهدت سبع سيارات من أصل ثماني مشتعلة بعد الهجوم، بينما يُفترض أن تكون السيارة الثامنة قد دُمرت بالكامل.

منذ ذلك الحين، صدّرت بريطانيا الصاروخ الذي يمكن للطيار التحكم به، إلى دول مثل السعودية التي استخدمته في اليمن وفقاً لمسؤولين عسكريين بريطانيين. (لن تؤكد الشركة المصنعة لـ “بريمستون” من يمتلك هذه الصواريخ أو كيف يتم استخدامها). وتعمل الولايات المتحدة الآن على تطوير صاروخ مشابه، وفقاً لوثائق ميزانية وزارة الدفاع.

تطورت آراء شار على مدار السنوات العشر الماضية، ويعزى ذلك إلى أن أنظمة الأسلحة التي كانت فيما مضى مجرد أفكار أصبحت الآن قاب قوسين أو أدنى من أن تستخدم في ساحة المعركة. لا يزال شار لا يدعم فكرة فرض حظر شامل على أنظمة الأسلحة ذاتية التشغيل، وهو موقف يتوافق مع قواعد 2012 التي صاغها، لكنه تبنى مؤخراً إمكانية فرض قيود على أسلحة الذكاء الإصطناعي التي تستهدف المدنيين، على عكس الدبابات والطائرات والسفن.

تبنّى بعض الضباط المستقبليين الذين يعملون مع الدبابات الروبوتية في “ويست بوينت” وجهة نظر حذرة تجاه الأسلحة ذاتية التشغيل. بعد تكرار المحاولة والخطأ، حققوا تقدماً جيداً في برمجة الدبابات لتفجير بالونات العدو بشكل أكثر كفاءة، لكن العديد منهم ما زالوا غير مقتنعين بأن الأسلحة الموجهة بالذكاء الإصطناعي جاهزة للاستعمال في الميدان.

يرى كاميرون طومسون، طالب من ليتلتون في ولاية كولورادو، أن “هذا الأمر لا يزال يمثل مسؤولية في نهاية المطاف”، مشيراً إلى أن القادة سيُحاسبون على ما تفعله الآلات، مضيفاً “نحن ندرك أن وظيفتها فعالة جداً وأنه يمكننا برمجتها جيداً. ومع ذلك، لا أعتقد أن الكثيرين يريدون المخاطرة الآن بتطبيقها ومشاهدة نتائجها على أرض الواقع.”

تعريب وتحرير: نون بوست

مصدر الصور: الدفاع العربي – الحرة – العرب.

موضوع ذا صلة: الطائرات المسيرة “سيدة الجو والأرض”.. هل من أسلحة تُنهي أسطورتها؟

زكاري فراير بيغز

مراسل شؤون الأمن القومي والإستخبارات بصحيفة “واشنطن بوست”