برزت خلال العقد الأخير عدة محاولات من جهات دولية مختلفة لتنظيم استخدامات الذكاء الاصطناعي، وضَبْط مسار التقنية، بما يقود إلى تقويض آثارها التدميرية، وتعظيم الإفادة منها. غير أن هدف الوصول إلى اتفاق قانوني دولي يلبي مثل هذا الطموح ما زال بعيد المنال. ويعود هذا إلى عدد من الأسباب؛ منها ما يتعلق بسمات التقنية نفسها، وما يتعلق بالصعوبات التي عادة ما تُصاحِب أي محاولة لصياغة اتفاق قانوني دولي. ويُسِّلط هذا المقال الضوء على أحدث ما وصلت إليه هذه المحاولات، والصعوبات التي ما زالت تقف حائلاً أمام وجود اتفاقية دولية لتنظيم استخدامات الذكاء الاصطناعي.
لماذا الحاجة لتنظيم الذكاء الاصطناعي قانونيًّا؟
تنبع أهمية إيجاد تنظيم قانوني للذكاء الاصطناعي من اتساع استخداماته، وتأثيره الكبير على جوانب هامة ومتعددة، ومنها أنشطة من شأنها تهديد السِلم والأمن العالمي، وأخرى تساعِد في تحقيق الرخاء والازدهار الاقتصادي والاجتماعي، مثل التطبيقات المتعلقة بالنواحي الطبية، والتي تُساهِم في استنتاج أكثر الطرق فعالية في القضاء على الأمراض، والحد من انتشار الأوبئة، ووصل هذا إلى حد التدخل في تعديل الصفات الوراثية للبشر. ونجد أن عالمًا صينيًّا مثل هيي جيانكو قد أعلن في عام 2018 أنه استخدم تقنيات الذكاء الاصطناعي في تعديل الصفات الوراثية لرضيعين، بغية تخفيض فُرص إصابتهم بفيروس نقص المناعة المكتسبة (الإيدز).
بطبيعة الحال، يُساهِم اتساع نطاق استخدام تكنولوجيا الذكاء الاصطناعي في ظهور عدد من التهديدات غير التقليدية لأمن وسلامة البشر والدول. ويُمكِن أن يقود الاستخدام غير العسكري حتى لهذه التقنية إلى قتل أعداد كبيرة من البشر، وقد يحدث هذا بسبب شن هجوم سيبراني يقود إلى تعطيل العمل بالمستشفيات، أو البنية التحتية المدنية، وهو ما تعرضت له على سبيل المثال عدد من المستشفيات البريطانية في عام 2017، ضمن الهجمة السيبرانية المعروفة بــ WannaCry ransomware، بعد قيام عدد من الأفراد بمهاجمة العشرات من الدول إلكترونيًّا، وتعطيل عدد كبير من الحواسب الآلية طلبًا لفدية مالية.
تتجلى خطورة الذكاء الاصطناعي بشكل أكبر عندما يتعلق الأمر بالتقنيات العسكرية، إذ لا يُمكن توقُّع تداعيات منح الآلات مهام إدارة العمليات العسكرية بشكل كامل. ولحُسِن الحظ ما زال الوصول إلى هذا المستوى من التقنية صعب المنال، بينما يُمكن حالياً للعامل البشري استخدام تطبيقات الذكاء الاصطناعي في إلحاق ضرر بالغ بالآخرين؛ نظراً للقدرة التدميرية الهائلة والفعالة التي قد تنتج عن توظيف الذكاء الاصطناعي عسكرياً. خاصة وأن قرارات القتل عبر آليات كالطائرات المسيرة أو الصواريخ الذكية تعد أكثر سهولة، كما لا تُميِّز الآلة بين المدني والعسكري، وكذلك بين العسكري والعسكري المُصاب. وهي كلها احتمالات تؤكد ضرورة إيجاد أطر تنظيمية مُلزمة من الناحية القانونية لمدى توظيف الدول للذكاء الاصطناعي في عملياتها العسكرية، بشكل يردع أي جهة من استخدامها بشكل متطرف.
في هذا السياق، يبرز خطر انطلاق نوع من الحرب التنافسية بين الدول لحيازة التفوق في الذكاء الاصطناعي، وهي الحرب التي بدأت بإعلان قوى دولية مثل الولايات المتحدة الأمريكية والصين وروسيا تدشين خطط عمل بغية التفوق في هذا المضمار بحلول العقد القادم. قامت هذه الدول برصد تريليونات الدولارات من أجل هذا الغرض. وهذه الحرب نفسها بحاجة إلى إطار قانوني لتنظيمها، بشكل يُجنِّب الجميع تداعياتها غير المحسوبة، وذلك على غرار التنافُس النووي الذي مرت به الساحة الدولية عقب نهاية الحرب العالمية الثانية. وتتخوف بعض الدول الغربية على سبيل المثال من حدوث انتهاك واسع لخصوصية مواطنيها، بسبب حالة النهم للبيانات والمعلومات التي أنتجها التنافُس حول الذكاء الاصطناعي.
حتى على مستوى علاقة الدولة والمجتمع، تتخوف المنظمات الدولية من أن تقود تقنيات الذكاء الاصطناعي إلى تهميش بعض المكونات الاجتماعية تنمويًّا بسبب خطأ في الخوارزميات على سبيل المثال. كما تتخوف المنظمات من جنوح بعض الحكومات السلطوية إلى استخدام هذه التقنيات في معاقبة معارضيها، والقيام بعملية انتهاك واسعة لحقوق الأفراد السياسية والاقتصادية.
ورغم الحاجات المختلفة للوصول إلى إطار تنظيمي ومُلزِم لاستخدامات الذكاء الاصطناعي؛ يصطدم هذا الهدف بعدد من الصعوبات، منها صعوبات فنية وسياسية متنوعة، وسيتطرق المحور التالي إلى بعض من هذه الصعوبات.
صعوبات إيجاد قواعد قانونية دولية للذكاء الاصطناعي
بصفة عامة، تُنشأ القواعد القانونية الدولية عبر طُرق معروفة، على رأسها اتفاق الدول فيما بينهم على معاهدة قانونية تُرتِب عددًا من المسئوليات والواجبات والحقوق والمعايير. ومن هذه المعاهدات، على سبيل المثال، اتفاقية حظر استخدام أسلحة الدمار الشامل. وتتسم المفاوضات التي تقود إلى هذه المعاهدات بقدر عالٍ من التعقيد بسبب تنوع وربما تناقُض مصالح أطرافها. كما لا يُمكن إجبار دولة بشكل مباشر على توقيع مثل هذه المعاهدات.
في حالة الذكاء الاصطناعي، تتعقد العملية التفاوضية لكونها تتطلب أن تتمتع مختلف الدول بنفس مستوى التقدم التكنولوجي، وأن تتوقع من بعضها البعض الالتزام بالقواعد القانونية المُتفق عليها، وهو ما يعد غير متوفر حتى الآن. ولم تتراجَع الولايات المتحدة الأمريكية على سبيل المثال عن رفض مقترح قَدَّمَته روسيا للأمم المتحدة في عام1998 بتوقيع معاهدة لحظر استخدام الأسلحة الإلكترونية والمعلوماتية، وتتعلل واشنطن بأن مثل هذا الهدف يصعُب فنيا التحقُق منه.
إلى جانب الصعوبات التفاوضية، هناك الصعوبات التقنية المتعلقة بصعوبة توقُع مسار التطور الذي تسلكه تطبيقات الذكاء الاصطناعي، كونها ما زالت في طور مبكر، ومن المُرجَّح أن تشهد طفرات غير متوقعة، في وقت تُفضِّل أغلب الجهات عدم الإفصاح عن قدراتها الحقيقية في هذا المجال، وتتعمد إخفاء أحدث ما وصلت إليه من تقنيات. وتمتد الصعوبات التقنية لتشمل صعوبة تحديد الجهات المتورطة في أي انتهاكات، خاصة في حال كان الانتهاك يتم بشكل غير مُعلن، وكثيرًا ما تنفِ الدول الكبرى تنفيذها أي هجمات سيبرانية بحق بعضها البعض.
علاوة على الصعوبات التفاوضية والتقنية، هناك أيضاً الصعوبات القانونية، والتي نلمسها في صعوبة تحديد النطاق القانوني للعمليات التي تستخدم الذكاء الاصطناعي، على عكس الاتفاقيات الدولية التي نَظَّمَت أموراً مثل استخدام المسطحات المائية، أو قواعد الملكية الفكرية والتجارة الحرة. كما أن طبيعة تكنولوجيا الذكاء الاصطناعي تعد مفتوحة أمام تطويرها من جانب شخصيات غير معلومة بالضرورة، علاوة على أن التقنية ذاتها يصعب تحليلها واكتشافها قانونيًّا من جانب غير المتخصصين؛ وهو ما يقود بالضرورة إلى صعوبة رصد الانتهاكات الخاصة باستخداماتها، أو وضع معايير لحدود استخدامها على غرار تطوير القنبلة النووية.
بيد أن هذه الصعوبات لم تحول دون وجود محاولات جادة من جانب أطراف مختلفة لوضع اطر واضحة لاستخدامات الذكاء الاصطناعي، ومنها محاولات أجرتها منظمات دولية كالأمم المتحدة، أو تحالفات عسكرية مثل الناتو، وهو ما سنلقي عليه الضوء فيما يلي.
أهم محاولات تطوير قواعد القانون الدولي حيال الذكاء الاصطناعي
تنوعت الجهود الرامية لوضع ضوابط لاستخدام الذكاء الاصطناعي. وراوحت بين إيجاد قواعد قانونية جديدة أو تطوير القواعد القانونية المتواجدة بالفعل. واعتمدت بشكل مبدئي منظمة الأمم المتحدة على الطريقة الثانية، وتبنَت عملية تقوم على وضع قواعد عامة للاستخدامات العسكرية للذكاء الاصطناعي في شكل بروتوكول مكمل لمعاهدة حظر استخدام الأسلحة مفرطة الضرر أو عشوائية الأثر، والتي تم اعتمادها في عام 1980، إذ فتحت ديباجة الوثيقة الباب أمام إضافة أي نوع من الأسلحة.
بعد سلسلة من اللقاءات بين أطراف دولية ومعنية مختلفة مثل مراكز الأبحاث والخبراء التقنيين وكذلك الشركات والنشطاء، اتفقت مجموعة العمل التابعة للأمم المتحدة في عام 2018 على عشر قواعد رئيسية لتنظيم استخدام الذكاء الاصطناعي، ولم ترق بعد هذه المبادئ إلى درجة البروتوكول. وتَضَمَّنت نقاطًا مثل تطبيق القانون الدولي الإنساني على الاستخدامات العسكرية للذكاء الاصطناعي؛ وعدم تفويض المسئولية الإنسانية للآلة؛ والمساءلة عن استخدام القوة وفقاً للقانون الدولي؛ علاوة على ضرورة تقييم المخاطر وتخفيفها اثناء تطوير التكنولوجيا؛ وعدم إلحاق الضرر بالأنشطة المدنية الخاصة بالبحث والتطوير في الذكاء الاصطناعي؛ إلى جانب الحفاظ على وجود العنصر البشري في استخدام القوة. أكدت المبادئ على ضرورة العمل على صياغة لغة علمية وسياسية مشتركة لاستخدامات الذكاء الاصطناعي في جميع أنحاء العالم، بما يحول دون وقوع أي ضرر على المدنيين. تم الاتفاق كذلك على ضرورة مساعدة الدول التي تتعرض بنيتها التحتية المدنية للهجوم، وعدم سماح الدول باستخدام أراضيها لأية أعمال غير مشروعة.
بدورِها، تنشط مفوضية الأمم المتحدة لحقوق الإنسان في مجال الحقوق الرقمية، ودعت إلى إضافة الحق في الخصوصية الرقمية إلى حقوق الإنسان، وحددت عدد من المؤشرات والبيانات التي بموجبها تقوم بمراقبة سلوكيات الحكومات تجاه مواطنيها في هذا المضمار.
بصفة عامة، رَصَد تقرير بحثي أمريكي صادر في عام 2019 40 مقترحاً لإرشادات استخدام الذكاء الاصطناعي، صادرة عن حكومات ومنظمات حكومية وغير حكومية مختلفة. ومنها على سبيل المثال منظمة الصليب الأحمر التي حددت في أبريل 2015 إرشادات استخدام الأسلحة الآلية ، كما أصدرت المفوضية الأوروبية في عام 2019 مسودة بروتوكول أخلاقي لاستخدامات الذكاء الاصطناعي Code of Ethics، ودعت مختلف الأطراف لاختبارها، وأصدرت كذلك بكين الإطار المقترح الخاص بها في وثيقة عُرفَت بمبادئ بكين للذكاء الاصطناعي
وبصفته أكبر حلف عسكري دولي، أعلن حلف الناتو في أكتوبر 2021 عن اتفاق أعضائه على إطلاق أول استراتيجية للذكاء الاصطناعي، بما يتضمن العمل على تحديد معايير الاستخدام المسئول، ولم يُحدِّد الناتو الوقت المتوقع للانتهاء من إعداد هذه المعايير، خاصة وأن أغلب أعضائه لديهم خطط المستقلة الخاصة بتطوير الذكاء الاصطناعي، ومنها دولة مثل فرنسا، والتي أعلنت أن استراتيجيتها تقوم على احترام القانون الدولي، ووجود سيطرة بشرية كافية على استخدامات الذكاء الاصطناعي. بينما تذهب الاستراتيجية الألمانية إلى ضرورة عقد حوار مجتمعي واسع كسياق لدمج الذكاء الاصطناعي في النواحي القانونية والاقتصادية والأخلاقية والمؤسسية.
يُلاحظ أن أغلب المحاولات السابقة لإيجاد إطار قانوني أو أخلاقي للذكاء الاصطناعي لم تصل بعد إلى مرتبة ناضجة، بشكل يُقرر التزامات واضحة أو مواصفات محددة لمدى استخدام التقنية، ويلعب الخلاف الدولي دورًا رئيسًا في هذا الإطار، لا سيما وأن أكبر الأقطاب الدولية “الولايات المتحدة الأمريكية” تخشى من مثل هذا اتفاق، بسبب صعوبة ضبطه تقنيًّا، ما قد يجعله فضفاضاً بشكل ييسر من الالتفات حول غاياته.
وبصفة عامة، يمُكن القول إن المحاولات الرامية لضبط استخدامات الذكاء الاصطناعي ما زالت محدودة نسبياً، لكنها تسير في اتجاه التطور، وقد يتعامل معها العالِم بشكل أكثر جدية مستقبلًا؛ خاصة إذ ما تيقن من مدى التهديدات التي قد تنتج عن عدم ضبط استخدام هذه التكنولوجيا الصاعدة.