أخبار التقنية

حذر مسؤولو أوبن إيه آي من “خطر الانقراض” من الذكاء الاصطناعي في خطاب مفتوح جديد


تكبير / صورة تم إنشاؤها بواسطة الذكاء الاصطناعي لـ “الذكاء الاصطناعي يسيطر على العالم”.

انتشار مستقر

يوم الثلاثاء ، أصدر مركز أمان الذكاء الاصطناعي (CAIS) بيانًا مؤلفًا من جملة واحدة وقعه المسؤولون التنفيذيون من OpenAI و DeepMind والفائزون بجائزة تورينج وباحثين آخرين في مجال الذكاء الاصطناعي يحذرون من أن عملهم في حياتهم يمكن أن يقضي على البشرية جمعاء.

البيان الموجز ، الذي يقول CAIS إنه يهدف إلى فتح نقاش حول موضوع “مجموعة واسعة من المخاطر المهمة والعاجلة من الذكاء الاصطناعي” ، ينص على ما يلي: “يجب أن يكون التخفيف من مخاطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المجتمع – على نطاق المخاطر مثل الأوبئة والحرب النووية.

ومن بين الموقعين البارزين على البيان الفائزان بجائزة تورينج جيفري هينتون ويوشوا بينجيو ، والرئيس التنفيذي لشركة OpenAI سام ألتمان ، وكبير العلماء في OpenAI إيليا سوتسكيفر ، وميرا موراتي ، الرئيس التنفيذي لشركة DeepMind ، والرئيس التنفيذي لشركة DeepMind Demis Hassabis ، والرئيس التنفيذي لشركة Anthropic Dario Amodei ، وأساتذة من جامعة كاليفورنيا في بيركلي ، ستانفورد. و MIT.

يأتي هذا البيان في الوقت الذي يسافر فيه ألتمان حول العالم ويعقد اجتماعات مع رؤساء الدول فيما يتعلق بالذكاء الاصطناعي ومخاطره المحتملة. في وقت سابق من شهر مايو ، دافع ألتمان عن اللوائح الخاصة بصناعته أمام مجلس الشيوخ الأمريكي.

بالنظر إلى طوله القصير ، فإن خطاب CAIS المفتوح معروف بما لا يتضمنه. على سبيل المثال ، لا يحدد بالضبط ما تعنيه بعبارة “AI” ، مع الأخذ في الاعتبار أن المصطلح يمكن أن ينطبق على أي شيء بدءًا من حركات الأشباح في باك مان لنماذج لغوية يمكنها كتابة السوناتات بأسلوب رجل العصابات الحكيم في الأربعينيات. كما لا تشير الرسالة إلى كيفية التخفيف من مخاطر الانقراض ، ولكن يجب أن تكون “أولوية عالمية” فقط.

ومع ذلك ، في بيان صحفي ذي صلة ، تقول CAIS إنها تريد “وضع حواجز حماية في مكانها وإنشاء مؤسسات حتى لا تفاجئنا مخاطر الذكاء الاصطناعي” ، وتشبه التحذير من الذكاء الاصطناعي بتحذير ج. من القنبلة الذرية.

لا يتم استخدام خبراء أخلاقيات الذكاء الاصطناعي

صورة تم إنشاؤها بواسطة الذكاء الاصطناعي للكرة الأرضية التي توقفت عن الدوران.
تكبير / صورة تم إنشاؤها بواسطة الذكاء الاصطناعي للكرة الأرضية التي توقفت عن الدوران.

انتشار مستقر

هذه ليست أول رسالة مفتوحة حول مخاطر الذكاء الاصطناعي الافتراضية التي تنتهي بالعالم والتي رأيناها هذا العام. في مارس ، أصدر معهد Future of Life بيانًا أكثر تفصيلاً وقعه إيلون ماسك دعا إلى توقف مؤقت لمدة ستة أشهر في نماذج الذكاء الاصطناعي “أقوى من GPT-4” ، والتي حظيت بتغطية صحفية واسعة ولكنها قوبلت أيضًا برد متشكك . من البعض في مجتمع التعلم الآلي.

الخبراء الذين يركزون غالبًا على أخلاقيات الذكاء الاصطناعي لا يسعدهم هذا الاتجاه الناشئ للحروف المفتوحة.

تشبه الدكتورة ساشا لوتشيوني ، عالمة أبحاث التعلم الآلي في Hugging Face ، خطاب CAIS الجديد بخفة اليد: “أولاً وقبل كل شيء ، ذكر المخاطر الوجودية الافتراضية للذكاء الاصطناعي في نفس الوقت مثل المخاطر الملموسة للغاية مثل الأوبئة وتغير المناخ ، وهي جديدة ومثيرة للحيوية بالنسبة للجمهور ، مما يمنحها مزيدًا من المصداقية “. “إنه أيضًا توجيه خاطئ ، يجذب انتباه الجمهور لشيء واحد (مخاطر مستقبلية) حتى لا يفكروا في شيء آخر (المخاطر الحالية الملموسة مثل التحيز والمسائل القانونية والموافقة).”

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى