أصدرت وزارة الخارجية الأمريكية يوم الخميس “إعلانًا سياسيًا بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والاستقلالية” ، داعية إلى نشر أخلاقي ومسؤول للذكاء الاصطناعي في العمليات العسكرية بين الدول التي تطورها. تحدد الوثيقة 12 من أفضل الممارسات لتطوير قدرات الذكاء الاصطناعي العسكرية وتؤكد على المساءلة البشرية.
يتزامن الإعلان مع مشاركة الولايات المتحدة في قمة دولية حول الاستخدام المسؤول للذكاء الاصطناعي العسكري في لاهاي بهولندا. ووصفت رويترز المؤتمر بأنه “الأول من نوعه”. وقالت وزيرة الخارجية الأمريكية للحد من التسلح ، بوني جينكينز ، في القمة ، “إننا ندعو جميع الدول للانضمام إلينا في تنفيذ المعايير الدولية ، فيما يتعلق بالتطوير العسكري واستخدام الذكاء الاصطناعي” والأسلحة المستقلة.
في ديباجة ، يوضح إعلان الولايات المتحدة أن عددًا متزايدًا من البلدان تطور قدرات ذكاء اصطناعي عسكرية قد تشمل استخدام أنظمة مستقلة. أثار هذا الاتجاه مخاوف بشأن المخاطر المحتملة لاستخدام مثل هذه التقنيات ، لا سيما عندما يتعلق الأمر بالامتثال للقانون الدولي الإنساني.
يمكن ويجب أن يكون الاستخدام العسكري للذكاء الاصطناعي أخلاقيًا ومسؤولًا ويعزز الأمن الدولي. يجب أن يتوافق استخدام الذكاء الاصطناعي في النزاعات المسلحة مع القانون الإنساني الدولي المعمول به ، بما في ذلك مبادئه الأساسية. يجب أن يخضع الاستخدام العسكري لقدرات الذكاء الاصطناعي للمساءلة ، بما في ذلك من خلال هذا الاستخدام أثناء العمليات العسكرية ضمن سلسلة بشرية مسؤولة للقيادة والسيطرة. يجب أن يتضمن النهج المبدئي للاستخدام العسكري للذكاء الاصطناعي دراسة متأنية للمخاطر والفوائد ، كما يجب أن يقلل من التحيز والحوادث غير المقصودة. يجب على الدول اتخاذ التدابير المناسبة لضمان التطوير المسؤول ونشر واستخدام قدرات الذكاء الاصطناعي العسكرية ، بما في ذلك الأنظمة المستقلة المُمكَّنة.
تتناول أفضل 12 ممارسة مدرجة في الوثيقة أمان الأسلحة النووية ، وتصميم النظام المسؤول ، وتدريب الأفراد ، وطرق التدقيق لقدرات الذكاء الاصطناعي العسكرية. كما تسلط الوثيقة الضوء على الحاجة إلى تقليل التحيز غير المقصود والحوادث وأهمية الاختبار لضمان سلامة وفعالية قدرات الذكاء الاصطناعي العسكرية.
تحتوي الوثيقة على بعض الأمثلة البارزة لإبقاء البشر مسؤولين في التسلسل القيادي عندما يتعلق الأمر بالنظم المستقلة ، لا سيما فيما يتعلق بالأسلحة النووية: “يجب على الدول الحفاظ على السيطرة البشرية والمشاركة في جميع الإجراءات الحاسمة لإبلاغ وتنفيذ القرارات السيادية المتعلقة باستخدام الأسلحة النووية . ” . “
كما غطى السلوك غير المقصود للذكاء الاصطناعي في الأنظمة العسكرية ، وهو أمر أصبح مصدر قلق مؤخرًا لأنظمة التعلم العميق للمستهلكين: “يجب على الدول تصميم وهندسة قدرات الذكاء الاصطناعي العسكرية بحيث تمتلك القدرة على اكتشاف وتجنب العواقب غير المقصودة والقدرة على ذلك. فصل أو إلغاء تنشيط الأنظمة التي تم نشرها والتي تظهر سلوكًا غير مقصود “.
لا تحدد الوثيقة بالضبط نوع الأنظمة المستقلة أو التي تعمل بالذكاء الاصطناعي التي يغطيها الإعلان ، ولكن نظرًا لعدم وجود تعريف عالمي لـ “الذكاء الاصطناعي” ، فإنها توضح فهمها للمصطلح في حاشية سفلية. تنص الوثيقة على أنه “لأغراض هذا الإعلان ، يمكن فهم الذكاء الاصطناعي على أنه يشير إلى قدرة الآلات على أداء المهام التي تتطلب خلاف ذلك ذكاءً بشريًا – على سبيل المثال ، التعرف على الأنماط ، والتعلم من التجربة ، واستخلاص النتائج ، والتنبؤ ، أو اتخاذ إجراء — سواء رقميًا أو كبرنامج ذكي وراء الأنظمة المادية المستقلة. “
وفي يوم الخميس أيضًا ، وقعت أكثر من 60 دولة على “دعوة للعمل” تؤيد الاستخدام العسكري المسؤول للذكاء الاصطناعي. تشير تقارير رويترز إلى أن خبراء حقوق الإنسان والأكاديميين أشاروا إلى أن البيان ليس ملزمًا قانونًا و “فشل في معالجة مخاوف مثل الطائرات بدون طيار الموجهة بالذكاء الاصطناعي ، و” المذابح “التي يمكن أن تقتل دون تدخل بشري ، أو خطر قيام منظمة العفو الدولية بتصعيد صراع عسكري . ” . “
وثيقة الإعلان الكاملة ، التي تم إنشاؤها تحت سلطة مكتب الحد من التسلح والتحقق والامتثال ، متاحة من خلال موقع وزارة الخارجية الأمريكية.