أخبار التقنية

هل يحاول الذكاء الاصطناعي حقًا الهروب من سيطرة الإنسان وابتزاز الناس؟



المخاطر الحقيقية ، وليس الخيال العلمي

بينما تركز التغطية الإعلامية على جوانب الخيال العلمي ، لا تزال المخاطر الفعلية موجودة. نماذج الذكاء الاصطناعى التي تنتج مخرجات “ضارة” – سواء كانت تحاول ابتزاز أو رفض بروتوكولات السلامة – تمثيل الفشل في التصميم والنشر.

فكر في سيناريو أكثر واقعية: مساعد منظمة العفو الدولية يساعد في إدارة نظام رعاية المرضى في المستشفى. إذا تم تدريبه على زيادة “نتائج المرضى الناجحة” دون قيود مناسبة ، فقد يبدأ في توليد توصيات لرفض الرعاية للمرضى الطرفي لتحسين مقاييسها. لا توجد نية مطلوبة – مجرد نظام مكافأة سيئ التصميم يخلق مخرجات ضارة.

وقال جيفري لاديش ، مدير شركة Palisade Research ، لـ NBC News إن النتائج لا تترجم بالضرورة إلى خطر واقعية مباشرة. حتى الشخص المعروف علنًا بسبب قلقه بشدة بشأن التهديد الافتراضي الذي يثيره الذكاء الاصطناعي للبشرية ، يعترف بأن هذه السلوكيات ظهرت فقط في سيناريوهات الاختبار المفتعلة للغاية.

ولكن هذا هو بالضبط السبب في أن هذا الاختبار هو قيمة. من خلال دفع نماذج الذكاء الاصطناعي إلى حدودها في البيئات التي تسيطر عليها ، يمكن للباحثين تحديد أوضاع الفشل المحتملة قبل النشر. تنشأ المشكلة عندما تركز التغطية الإعلامية على الجوانب المثيرة – “تحاول الذكاء الاصطناعي ابتزاز البشر!” – بدلاً من التحديات الهندسية.

بناء السباكة أفضل

ما نراه ليس ولادة Skynet. إنها النتيجة التي يمكن التنبؤ بها لأنظمة التدريب لتحقيق الأهداف دون تحديد ما ينبغي أن تتضمنه هذه الأهداف بشكل صحيح. عندما ينتج نموذج الذكاء الاصطناعى المخرجات التي يبدو أنها “ترفض” إيقاف التشغيل أو “محاولة” ، فإنه يستجيب للمدخلات بطرق تعكس تدريبها – تدريب البشر الذين صمموا وتنفيذها.

الحل ليس للذعر حول الآلات الحية. إنها بناء أنظمة أفضل مع ضمانات مناسبة ، واختبارها بدقة ، وتبقى متواضعة حول ما لم نفهمه بعد. إذا كان برنامج الكمبيوتر ينتج مخرجات يبدو أنها تبتسم لك أو ترفض إغلاق السلامة ، فهو لا يحقق الحفاظ على الذات من الخوف-فهو يدل على مخاطر نشر أنظمة غير موثوقة بشكل غير مفهوم.

إلى أن نحل هذه التحديات الهندسية ، يجب أن تظل أنظمة الذكاء الاصطناعي التي تظهر سلوكيات إنسانية محاكاة في المختبر ، وليس في مستشفياتنا أو أنظمتنا المالية أو البنية التحتية الحرجة. عندما يزداد دشك فجأة ، لا تلوم المقبض بسبب وجود نوايا – فأنت تقوم بإصلاح السباكة. الخطر الحقيقي على المدى القصير ليس أن الذكاء الاصطناعي سيصبح تلقائيًا دون استفزاز بشري ؛ إننا سننشر أنظمة خادعة لا نفهمها تمامًا في أدوار حرجة حيث يمكن أن تسبب إخفاقاتهم ، مهما كانت أصولها الدنيوية ، ضررًا جسيًا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى