يوم الأربعاء ، نشر معهد Future of Life رسالة مفتوحة على موقعه على الإنترنت تدعو مختبرات الذكاء الاصطناعي إلى “التوقف فورًا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4”. وبتوقيع إيلون ماسك والعديد من الباحثين البارزين في مجال الذكاء الاصطناعي ، سرعان ما بدأت الرسالة تلفت الانتباه في الصحافة وبعضها نقد على وسائل التواصل الاجتماعي.
في وقت سابق من هذا الشهر ، أصدرت شركة OpenAI GPT-4 ، وهو نموذج ذكاء اصطناعي يمكنه أداء مهام تركيبية ويزعم أنه يجتاز اختبارات موحدة على المستوى البشري ، على الرغم من أن هذه الادعاءات لا تزال قيد التقييم عن طريق البحث. بغض النظر ، أدى تقدم GPT-4 و Bing Chat في القدرات على نماذج الذكاء الاصطناعي السابقة إلى إثارة مخاوف بعض الخبراء الذين يعتقدون أننا نتجه نحو أنظمة الذكاء الاصطناعي فائقة الذكاء بشكل أسرع مما كان متوقعًا في السابق.
على هذا المنوال ، يجادل معهد Future of Life بأن التطورات الأخيرة في الذكاء الاصطناعي أدت إلى “سباق خارج عن السيطرة” لتطوير ونشر نماذج الذكاء الاصطناعي التي يصعب التنبؤ بها أو التحكم فيها. وهم يعتقدون أن الافتقار إلى التخطيط والإدارة لأنظمة الذكاء الاصطناعي هذه أمر مثير للقلق وأنه لا ينبغي تطوير أنظمة الذكاء الاصطناعي القوية إلا بمجرد أن تصبح آثارها مفهومة جيدًا ويمكن التحكم فيها. كما يكتبون في الرسالة:
يمكن أن تشكل أنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري مخاطر جسيمة على المجتمع والإنسانية ، كما يتضح من الأبحاث المكثفة والتي أقرتها أفضل مختبرات الذكاء الاصطناعي. كما هو مذكور في مبادئ Asilomar AI المعتمدة على نطاق واسع ، يمكن أن يمثل الذكاء الاصطناعي المتقدم تغييرًا عميقًا في تاريخ الحياة على الأرض ، ويجب التخطيط له وإدارته بالعناية والموارد المناسبة.
على وجه الخصوص ، تطرح الرسالة أربعة أسئلة محملة ، بعضها يفترض سيناريوهات افتراضية مثيرة للجدل إلى حد كبير في بعض أوساط مجتمع الذكاء الاصطناعي ، بما في ذلك فقدان “جميع الوظائف” للذكاء الاصطناعي و “فقدان السيطرة” على الحضارة :
- يجب ندع الآلات تغمر قنواتنا الإعلامية بالدعاية والكذب؟
- يجب هل نقوم بأتمتة جميع الوظائف ، بما في ذلك الوظائف التي تفي بالغرض؟“
- يجب نطور عقولًا غير بشرية قد تفوق في النهاية عددًا ، وتتفوق على الذكاء ، وتتقادم ، وتحل محلنا؟
- يجب نحن نجازف بفقدان السيطرة على حضارتنا؟
لمواجهة هذه التهديدات المحتملة ، تدعو الرسالة مختبرات الذكاء الاصطناعي إلى “التوقف الفوري لمدة 6 أشهر على الأقل لتدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4”. أثناء التوقف ، يقترح المؤلفون أن تتعاون مختبرات الذكاء الاصطناعي والخبراء المستقلون لإنشاء بروتوكولات أمان مشتركة لتصميم وتطوير الذكاء الاصطناعي. سيتم الإشراف على هذه البروتوكولات من قبل خبراء خارجيين مستقلين ويجب أن تضمن أن أنظمة الذكاء الاصطناعي “آمنة بما لا يدع مجالاً للشك”.
ومع ذلك ، ليس من الواضح ما الذي تعنيه عبارة “أقوى من GPT-4” فعليًا بالمعنى العملي أو التنظيمي. لا تحدد الرسالة طريقة لضمان الامتثال عن طريق قياس القوة النسبية لنموذج لغة متعدد الوسائط أو كبير. بالإضافة إلى ذلك ، تجنب OpenAI على وجه التحديد نشر التفاصيل الفنية حول كيفية عمل GPT-4.
معهد Future of Life هو مؤسسة غير ربحية تأسست في عام 2014 من قبل مجموعة من العلماء المهتمين بالمخاطر الوجودية التي تواجه البشرية ، بما في ذلك التكنولوجيا الحيوية والأسلحة النووية وتغير المناخ. بالإضافة إلى ذلك ، كان الخطر الوجودي الافتراضي من الذكاء الاصطناعي محورًا رئيسيًا للمجموعة. وفقًا لرويترز ، يتم تمويل المنظمة بشكل أساسي من مؤسسة Musk Foundation ومجموعة Founders Pledge الفعالة للإيثار ومقرها لندن ومؤسسة Silicon Valley Community Foundation.
الموقعون البارزون على الرسالة أكده مراسل رويترز بما في ذلك الرئيس التنفيذي لشركة Tesla المذكور أعلاه ، Elon Musk ، ورائد AI Yoshua Bengio و Stuart Russell ، والمؤسس المشارك لشركة Apple ستيف وزنياك ، والرئيس التنفيذي لشركة Stability AI ، عماد موستاك ، والمؤلف يوفال نوح هراري. الخطاب المفتوح متاح لأي شخص على الإنترنت للتوقيع دون التحقق ، مما أدى في البداية إلى إدراج بعض الأسماء المضافة بشكل خاطئ ، مثل الرئيس التنفيذي السابق لشركة Microsoft Bill Gates ، والرئيس التنفيذي لشركة OpenAI Sam Altman ، وشخصيات خيالية. جون ويك. تم حذف هذه الأسماء في وقت لاحق.