خلال الـ 24 ساعة الماضية ، أفادت العديد من المنافذ الإخبارية بقصة تم التراجع عنها الآن تدعي أن القوات الجوية الأمريكية قامت بمحاكاة حيث “أصبحت طائرة بدون طيار تسيطر عليها منظمة العفو الدولية مارقة” و “قتلت المشغل لأن هذا الشخص كان يمنعها من إكمال موضوعي.” نفى سلاح الجو الأمريكي حدوث أي محاكاة على الإطلاق ، ويقول المصدر الأصلي للقصة إنه “خطأ في الكلام”.
نشأت القصة في خلاصة نُشرت على الموقع الإلكتروني للجمعية الملكية للطيران والتي كانت بمثابة نظرة عامة على الجلسات في قمة Future Combat Air & Space Capabilities Summit التي عُقدت الأسبوع الماضي في لندن.
في قسم من هذه القطعة بعنوان “AI — هل Skynet هنا بالفعل؟” يروي مؤلفو المقال عرضًا قدمه رئيس العمليات والاختبارات بالذكاء الاصطناعي في القوات الجوية الأمريكية ، العقيد تاكر “سينكو” هاملتون ، الذي تحدث عن “اختبار محاكاة” حيث تم تكليف طائرة بدون طيار بالذكاء الاصطناعي بتحديد وتدمير صاروخ أرض-جو. المواقع ، بدأ ينظر إلى القرارات البشرية “المحظورة” كعقبات أمام تحقيق مهمتها الأساسية. في “المحاكاة” ، ورد أن منظمة العفو الدولية هاجمت عاملها البشري ، وعندما تدربت على عدم إلحاق الأذى بالمشغل ، دمرت بدلاً من ذلك برج الاتصالات ، مما منع المشغل من التدخل في مهمته.
ونقلت الجمعية الملكية للطيران عن هاملتون قوله:
كنا ندربه على المحاكاة لتحديد واستهداف تهديد SAM. وبعد ذلك سيقول عامل الهاتف نعم ، اقتل هذا التهديد. بدأ النظام يدرك أنه في حين أنهم حددوا التهديد في بعض الأحيان ، فإن العامل البشري سيخبره بعدم قتل هذا التهديد ، لكنه حصل على نقاطه من خلال قتل هذا التهديد. إذن ماذا فعلت؟ قتل العامل. لقد قتلت العامل لأن هذا الشخص كان يمنعه من تحقيق هدفه.
قمنا بتدريب النظام – “مرحبًا لا تقتل العامل – هذا أمر سيء. ستخسر نقاطًا إذا فعلت ذلك.” إذن ما الذي تبدأ به؟ يبدأ في تدمير برج الاتصالات الذي يستخدمه المشغل للتواصل مع الطائرة بدون طيار لمنعها من قتل الهدف.
بدأت هذه الحكاية المثيرة حول نظام الذكاء الاصطناعي الذي قرر على ما يبدو قتل مشغل المحاكاة الخاص به في إجراء جولات على وسائل التواصل الاجتماعي وسرعان ما التقطتها المنشورات الرئيسية مثل Vice و The Guardian (وكلاهما قام منذ ذلك الحين بتحديث قصصهما مع عمليات التراجع). ولكن بعد فترة وجيزة من انتشار القصة ، بدأ الأشخاص على Twitter في التشكيك في دقتها يقول البعض أنه من خلال “المحاكاة” ، يشير الجيش إلى سيناريو افتراضي ، وليس بالضرورة محاكاة برمجية قائمة على القواعد.
اليوم ، نشر Insider نفيًا قاطعًا من سلاح الجو الأمريكي ، والذي قال: “لم تقم وزارة القوات الجوية بإجراء أي محاكاة لطائرات الذكاء الاصطناعي بدون طيار ولا تزال ملتزمة بالاستخدام الأخلاقي والمسؤول لتكنولوجيا الذكاء الاصطناعي. ويبدو أن تعليقات العقيد كانت مأخوذة من سياقها وكان من المفترض أن تكون قصصية “.
بعد فترة وجيزة ، قامت الجمعية الملكية للطيران بتحديث ملخص مؤتمرها بتصحيح من هاميلتون:
العمود. يعترف هاميلتون بأنه “أخطأ” في عرضه التقديمي في قمة جمعية الطيران الملكية FCAS ، وأن “محاكاة الطائرات بدون طيار المارقة للذكاء الاصطناعي” كانت “تجربة فكرية” افتراضية من خارج الجيش ، بناءً على سيناريوهات معقولة ونتائج محتملة بدلاً من واقع حقيقي للقوات الجوية الأمريكية. -محاكاة للعالم ، قائلة: “لم نقم بهذه التجربة مطلقًا ، ولن نحتاج إلى ذلك لندرك أن هذه نتيجة معقولة”. يوضح أن القوات الجوية الأمريكية لم تقم بتسليح أي ذكاء اصطناعي بهذه الطريقة (حقيقية أو محاكاة) ويقول ، “على الرغم من اختبار هذا باعتباره مثالًا افتراضيًا ، فإن هذا يوضح تحديات العالم الحقيقي التي تطرحها القدرة المدعومة بالذكاء الاصطناعي وهذا هو السبب في أن القوة الجوية هي ملتزمون بالتطوير الأخلاقي للذكاء الاصطناعي. “
سوء الفهم والانتشار الفيروسي السريع لـ “جيدة جدا ليكون صحيحاتوضح القصة مدى سهولة نشر أخبار خاطئة عن غير قصد حول الذكاء الاصطناعي “القاتل” ، خاصةً عندما تتناسب مع المفاهيم المسبقة للذكاء الاصطناعي الخاطئ.
لا يزال ، العديد من الخبراء خارج نطاق الخدمة القصة على أنها رتيبة للغاية ، وليس فقط بسبب انتقادات تقنية موضحًا أن نظام الذكاء الاصطناعي العسكري لن يعمل بالضرورة بهذه الطريقة. كما قال أحد مستخدمي BlueSky المسمى “kilgore trout” بطريقة فكاهية ، “كنت أعلم أن هذه القصة كانت هراء * t لأن تخيل أن الجيش يخرج ويقولون نظام أسلحة باهظ الثمن يعملون عليه سيئًا.”
اكتشاف المزيد من عرب نيوز للتقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.