باتت الأسلحة الروبوتية التي يمكنها تحديد العدو بشكل مستقل، ووضع القوة النارية في الموقع، والمساعدة في الاستهداف، حقيقة واقعة تقريبًا. يمكن للحرب التي تشنها الآلات الذكية التي يقودها البشر المختبئون في المخابئ أو المتجولون من مراكز قيادة المواجهة في البحر أو في الجو أن تغير وجه ساحة المعركة، بل يمكن لمثل هذه الحروب أن تغير تعريف الصراع ذاته.
سيبدأ التغيير باحتمالية التعرف على نقاط الضعف في تكوين العدو بشكل أفضل وأسرع باستخدام خوارزميات التعلم الآلي، والتي يمكنها أيضًا تحديد ما إذا كان العدو في المكان الذي نتوقعه وتسليحه بشكل أكثر دقة.
يمكن اكتشاف نقاط الضعف ديناميكيًا باستخدام النماذج التي تتنبأ بالحركة في الزمان والمكان. أخيرًا، يمكن تحديد اللحظات المثلى للهجوم أو الانسحاب باستخدام التعلم الآلي، وهي طريقة تعتمد على الخبرة السابقة يمكنها تحديد ما يجب فعله بعد ذلك. لكن هذه الثورة الثانية في العمليات العسكرية لن تتوقف هنا. هناك احتمال واضح أن يؤدي جمع أدوات تحليل البيانات إلى اتخاذ الخطوة التالية والضرورية: الاستقلالية الكاملة. إن خطر الحرب الروبوتية لا يكمن في أن الآلات سوف تتمرد، بل في أنها ستكون مطيعة للغاية لمبرمجيها، مما يؤدي إلى تدمير بعضهم البعض.
لتجنب احتمال إعادة فرض الدمار المتبادل الذي قد تتسبب فيه الحرب بالآلات، من مصلحة جميع المقاتلين برمجة آلاتهم الحربية لاتباع القاعدة الذهبية، وغرس الخوف في نفوسهم من إبادة أنفسهم. قد يجعل هذا روبوتات الحرب أقل دقة، لكن كونه أكثر تمييزًا سيجعل من السهل الاندماج مع صنع القرار البشري. هذا الحل ضروري فلسفيًا من منظور العقيدة العسكرية. ومع ذلك، فإن طريقة القيام بذلك تتمثل في استخدام إجراءات اتخاذ القرار، وهو ما نأتي على ذكره لاحقًا.
من خلال بعض التعريفات، يمكن تسمية أنظمة المناظرة بآلات حرب ذكية مصطنعة. من ناحية أخرى، يخشى البعض من أن تصبح آلات الذكاء الاصطناعي العسكرية شريرة. ماذا لو قرر عميل للذكاء الاصطناعي شن هجوم على أساس افتراضات خاطئة، أو إلحاق الضرر بالمدنيين أو بقواته؟ خوفًا من ذلك، وقع أكثر من 3000 عالم وباحث وتقني، بما في ذلك إيلون ماسك ومنشئي جوجل مايند تعهدًا بعدم تطوير “روبوتات قاتلة”.
من ناحية أخرى، يأمل البعض أن يتم تصميم عملاء الذكاء الاصطناعي العسكري من الألف إلى الياء للتصرف بشكل أخلاقي. يتصور البعض، بطريقة مشابهة “لقواعد الروبوتات” الشهيرة التي صاغها إسحاق آسيموف، أن الذكاء الاصطناعي سيكون مجسّدًا للدفاع دائمًا عن أرواح البشر وحمايتها، حتى على حساب الأهداف العسكرية.
وفقًا لهذا السيناريو، ستستخدم القوة الضرورية ضد من كانت تستهدفهم فقط. يثير هذا، بالنسبة للبعض، التوقع بأن ظهور الذكاء الاصطناعي سيجعل الحرب ملزمة بالقواعد بشكل أكبر. في الواقع، ستحقق التكنولوجيا أخيرًا ما لم تتمكن اتفاقيات جنيف من تحقيقه: تقليل تأثير العنف على المدنيين ومعاملة السجناء معاملة إنسانية.
على الرغم من أن تقنية الذكاء الاصطناعي بعيدة كل البعد عن تحقيق قفزات استنتاجية يمكنها من خلالها تحليل افتراضاتها وأهدافها ومجالات التطبيق الخاصة بها – أو لتغييرها من الألف إلى الياء – فلنتخيل أن هذه الرؤية قد تصبح حقيقة واقعة في وقت أقرب (20-50 عامًا) وليس في وقت لاحق. والسؤال الذي يطرح نفسه هو: هل عملاء الذكاء الاصطناعي العسكريين يمثلون فائدة للعلوم العسكرية بشكل خاص والإنسانية بشكل عام؟ الجواب ينطوي على مقايضة صعبة بين الدقة والعمليات التي تستهلك الموارد.
قد يكون الذكاء الاصطناعي العسكري المتقدم مبررًا بشكل كافٍ لتكثيف الحرب لأن صنع الحرب يصبح أكثر دقة والاستهداف أكثر انتقائية. من منظور نظرية النظام، فإن عوامل الذكاء الاصطناعي هذه شبه حتمية. أي أنه بمجرد إتقان التعرف على الأنماط ودقة إطلاق النار، يمكن لنظرية الأنظمة أن تتوقع تأثيرات شبه حتمية. هذا مشابه للأنظمة الفيزيائية الكلية؛ حيث يمكن لكتلة أي جسم وسرعته وموضعه تحديد موقعه في المستقبل.
دعونا نحلل هذا بتجربة فكرية، بدءًا من البديهية القائلة بأن الدقة شبه الحتمية تأتي بكفاءة شبه مثالية. في الحرب التي يقودها الذكاء الاصطناعي، هناك حاجة إلى قوة نيران أقل لتدمير وحدة معينة من قوة العدو. تخيل صراعًا بين بلدين يشمل صراعًا عسكريًا متوسط الحجم على قدم المساواة مع الحرب العربية الإسرائيلية عام 1967 أو عملية حرية العراق. في مثل هذا السيناريو، ستؤدي المئات أو الآلاف من منصات إطلاق النيران شبه الحتمية – البحرية والجوية والبرية – بكميات هائلة من الدمار على قوات وأنظمة الأسلحة لبعضها البعض بسرعة ودقة وبدون رحمة، مما يؤدي إلى تدمير سلسلة يمكن التنبؤ بها بالكامل.
باستثناء الحوادث التي لا يمكن تجنبها، سيطلق كل نظام سلاح بدقة شبه مثالية على الهدف، مما يضمن أعلى قوة تدميرية. علاوة على ذلك، سيتم حساب الضرر الذي يلحق بالخصم بطريقة “تسديد” خسائر الفرد، حتى لو كانت مدمرة. بعبارة أخرى، إذا قُضي على القوة المعارضة، فقد تكون خسائر الفرد خسائر باهظة أيضًا.
لن تتباعد تجربة التعلم الآلي في الحروب التي يقودها الذكاء الاصطناعي في تجربتنا الفكرية، بل ستعمل على تقوية الفرضية التي تحكم جميع الحروب: تطبيق القوة بحرية ودون تحفظ ولفترات طويلة من الزمن. نظرًا لاستخدام القوة بشكل أكثر تعمدًا، فإن المقايضات – وهي سمة من سمات جميع الحروب – ستصبح طبيعية ومقبولة على نطاق أوسع. لن تتوانى خوارزميات التعلم الآلي التي تتنبأ بنتائج معينة لتكاليف بشرية ومادية معينة. إذا كان المطلوب من الآلات هو تقديم نتيجة معينة، فسوف تحسب النتيجة وتقدمها على الفور. ولن يتراجع القادة الذين يستخدمون أنظمة الذكاء الاصطناعي عن اتخاذ قرارات صعبة. بعد كل شيء، ولأول مرة سيعرفون ماذا تعني إراقة الدماء.
إن تحقيق التوازن بين التكاليف الضخمة والفوائد الأكبر ليس بالأمر الجديد. وستظل هناك خسائر فردية لأي صراع بين بلدين، بل هو أمر حتمي. في حرب الذكاء الاصطناعي شبه الحتمية، لا يجب التقليل من الخسارة بل يجب تحسينها. على كل حال، الخسائر لها ما يبررها إذا كانت المخاطر كبيرة. لقد كانت معركة جيتيسبيرج [في الحرب الأهلية الأمريكية] حاسمة بسبب العدد الهائل من المقاتلين الذين ماتوا أو أصيبوا بعجز خلال ثلاثة أيام من المعركة – ما بين 45 ألف إلى 50 ألف مقاتل. بالطبع، حتى لو كانت الخسائر ضخمة، لكن النتائج لا تبررها دائمًا. في معركة السوم [في الحرب العالمية الأولى]، خسرت القوات البريطانية 60 ألف مقاتل في يوم واحد، أكثر من ضحايا في جيتيسبيرج مجتمعين. ومع ذلك، وبالمقارنة مع الحد الأدنى من التأثير الاستراتيجي، فإن حجم الخسارة لا يبرر النتائج.
لتلخيص الهدف من تجربتنا الفكرية، يجب تجنب الخسائر البشرية لكل من منفذي القانون وحتى للروبوتات الآلية. سوف تتبنى الحرب شبه الحتمية التي يقودها الذكاء الاصطناعي هذا المنطق حتى النهاية. التحذيران الوحيدان هما أن الخسائر غير المبررة بالمكاسب يجب تجنبها، وهو ما قد يكون مجرد وهم. فقط تهم الشرف والانتصارات باهظة الثمن والتهم الطائشة المعادية للحرب المدروسة جيدًا لأنها لا تؤدي إلى أي نتيجة ذات مغزى.
في الوقت نفسه، من منظور أخلاقي بحت، تؤدي التوقعات المحيطة بحرب الذكاء الاصطناعي إلى استنتاج مفاده أن قدرات الروبوتات شبه الحتمية يمكن أن تجعل القرارات الصعبة قابلة للدفاع عنها. إذا كانت الجائزة رائعة وكانت النتيجة تستحق القتال من أجلها، فلن يدخر أي جهد ولن تكون هناك تكلفة باهظة. إذا لم يقلل القادة والمقاتلون من استخدام القوة، بل حسّنوا من استخدام القوة، فإن الحرب الآلية تتطلب ليس فقط القوة المثلى، بل القوة المثلى الساحقة.
مهما حدث، سيكون هناك دائمًا إغراء لجانب واحد لإطلاق أنظمة الأسلحة الآلية الخاصة به مع الحد الأدنى من التحكم البشري، حتى لو كانت التكاليف باهظة. لمواجهة هذا التحدي، اُقترح قانون جديد للحرب الروبوتية، والذي يعتمد على طريقة جديدة لتدريب أنظمة الذكاء الاصطناعي التي يمكن أن تكون سريعة ومدينة بالفضل للبشر.
هذه هي القاعدة الذهبية، التي يجب صياغتها في هذا السياق على أنها التزام لأي أسلحة تعمل بالذكاء الاصطناعي أو التزام البشر. علاوة على ذلك، سيتم تنويع أنظمة الذكاء الاصطناعي، بدلاً من نظام واحد محدد، لذلك يمكن إنشاء نظام من الضوابط والتوازنات. من الناحية الفنية، يتضمن هذا عملية اتخاذ القرار (N) لتعيين كل قرار لسلسلة من الإجراءات الروتينية. N تعني “عدد من”، كل منها مستقل عن بعضها البعض وكل منها محملة بمجموعات معلومات مختلفة قليلاً ووصية الحفاظ على الذات. لا تأخذ عملية صنع القرار في الإصدار N في الحسبان مدى جودة أو كفاءة قرار الذكاء الاصطناعي، ولكن مدى احتمالية إظهار الذكاء الاصطناعي “الاحترام” الخوارزمي لأنظمة الذكاء الاصطناعي الأخرى أو القواعد البشرية والمشغلين.
كل هذا، بالطبع، في الوقت الحالي مجرد سيناريوهات ولدت من تجربة فكرية. علاوة على ذلك، كما قيل، يجب أن تكون الحلول تقنية فقط ولا يمكن أن تكون كذلك. يتطلب التحليل العميق والمراعي للأبعاد الأخلاقية للحرب المستقبلية الانضمام إلى منظور التقني مع منظور القائد العسكري والفيلسوف الأخلاقي. أخيرًا، يجب أن تكون الاستنتاجات والتوصيات عملية. نحن لا نعيش في عالم من الملائكة. الحرب على نطاق واسع هي احتمال والتأهب يجب أن يكون علامة على الحكمة. مع ذلك، من المهم التفكير ليس فقط في الحرب ولكن أيضًا في السلام الذي سيأتي بعدها، والذي يجب أن يسترشد بالقاعدة الذهبية.