أخبار التقنية

“توقف الذكاء الاصطناعي مؤقتًا” الرسالة المفتوحة تثير الخوف والجدل



أثارت الدعوة الأخيرة لـ “توقف الذكاء الاصطناعي” لمدة ستة أشهر – على شكل رسالة عبر الإنترنت تطالب بوقف مؤقت للذكاء الاصطناعي – قلق أعضاء IEEE وعالم التكنولوجيا الأكبر. المعهد اتصل ببعض الأعضاء الذين وقعوا الرسالة المفتوحة ، والتي نُشرت على الإنترنت في 29 مارس. أعرب الموقعون عن مجموعة من المخاوف والتخوفات بما في ذلك النمو الهائل لنماذج الذكاء الاصطناعي ذات اللغات الكبيرة (LLMs) وكذلك الضجيج الإعلامي الذي لا يخضع للرقابة.

تم تنظيم الرسالة المفتوحة ، بعنوان “Pause Giant AI Experiments” ، من قبل مؤسسة Future of Life غير الربحية ووقعها أكثر من 10000 شخص (اعتبارًا من 5 أبريل). وهو يدعو إلى وقف البحث عن “جميع أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4”.

إنها الأحدث في مجموعة من مقترحات “التوقف المؤقت للذكاء الاصطناعي” بما في ذلك أ اقتراح بواسطة فرانسوا شوليت من Google بشأن “الوقف الاختياري لمدة ستة أشهر للأشخاص الذين يبالغون في رد فعلهم تجاه LLMs” في أي من الاتجاهين.

في وسائل الإعلام ، ألهمت الرسالة المفتوحة التقارير المباشرة ، والحسابات الناقدة لعدم الذهاب بعيدًا بما فيه الكفاية (“أغلق كل شيء” ، كتب إليعازر يودكوفسكي في وقت مجلة) ، بالإضافة إلى الحسابات النقدية لكونها في نفس الوقت في حالة من الفوضى وإلهاء مثير للقلق يتغاضى عن تحديات الذكاء الاصطناعي الحقيقية المقبلة.

أعرب أعضاء IEEE عن تنوع مماثل في الآراء.

يقول دنكان ستيل ، زميل IEEE ، أستاذ الهندسة الكهربائية وعلوم الكمبيوتر والفيزياء في جامعة ميشيغان: “يمكن للمبرمج التلاعب بالذكاء الاصطناعي لتحقيق أهداف تتعارض مع المعايير الأخلاقية والسياسية والأخلاقية للمجتمع الصحي”. آن أربور. “أود أن أرى مجموعة غير متحيزة بدون أجندات شخصية أو تجارية لإنشاء مجموعة من المعايير التي يجب أن يتبعها جميع مستخدمي ومقدمي الذكاء الاصطناعي.”

يقول ستيفن ديس ، عضو الحياة العليا في IEEE – مهندس متقاعد في علم الأعصاب من جامعة كاليفورنيا ، سان دييغو – إنه وقع الخطاب لأن صناعة الذكاء الاصطناعي “غير مقيدة وغير منظمة”.

يقول ديس: “هذه التكنولوجيا لا تقل أهمية عن قدوم الكهرباء أو الشبكة”. هناك العديد من الطرق التي يمكن بها إساءة استخدام هذه الأنظمة. يتم توزيعها مجانًا ، ولا توجد مراجعة أو لائحة لمنع الضرر “.

تقول إليانور “نيل” واتسون ، أخصائية أخلاقيات الذكاء الاصطناعي التي درست دورات IEEE حول هذا الموضوع ، إن الرسالة المفتوحة تثير الوعي حول هذه المخاوف على المدى القريب مثل استنساخ أنظمة الذكاء الاصطناعي للأصوات وإجراء المحادثات الآلية – والتي تقول إنها تمثل “تهديدًا خطيرًا للثقة الاجتماعية . ” والرفاهية. “

على الرغم من أن واتسون تقول إنها سعيدة لأن الرسالة المفتوحة أثارت جدلاً ، إلا أنها تقول إنها تعترف “بوجود بعض الشكوك حول إمكانية اتخاذ قرار بشأن الوقف ، حيث من غير المرجح أن يلتفت الممثلون الأقل صدقًا إلى ذلك”.

هناك العديد من الطرق التي يمكن بها إساءة استخدام هذه الأنظمة. يتم توزيعها مجانًا ، ولا توجد مراجعة أو لائحة لمنع الضرر “.

يقول بيتر ستون ، زميل IEEE ، أستاذ علوم الكمبيوتر بجامعة تكساس في أوستن ، إن بعض أكبر التهديدات التي تشكلها أنظمة LLM وأنظمة الذكاء الاصطناعي الكبيرة المماثلة لا تزال غير معروفة.

يقول ستون: “ما زلنا نشهد استخدامات جديدة ومبتكرة وغير متوقعة – وإساءة استخدام محتملة – للنماذج الحالية”.

ويضيف قائلاً: “إن أكثر ما يقلقني هو أن يُنظر إلى الرسالة على أنها دعوة لأكثر مما هي عليه”. قررت التوقيع عليه وآمل أن تتاح لي فرصة لشرح وجهة نظر أكثر دقة مما ورد في الرسالة.

يقول عن الرسالة: “كنت سأكتبها بشكل مختلف”. “ولكن بشكل عام ، أعتقد أنه سيكون من الإيجابي ترك الغبار يستقر قليلاً على إصدارات LLM الحالية قبل تطوير من يخلفهم.”

IEEE Spectrum غطى على نطاق واسع إحدى الحملات السابقة لمعهد Future of Life ، وحث على حظر “الروبوتات القاتلة”. الخطوط العريضة للمناقشة ، التي بدأت برسالة مفتوحة عام 2016 ، موازية للانتقاد الموجه إلى حملة “توقف الذكاء الاصطناعي” الحالية: هناك مشاكل وتحديات حقيقية في المجال ، وفي كلتا الحالتين ، لا تخدمها بشكل جيد في أحسن الأحوال. الإثارة.

ينتقد تيمنيت جيبرو ، أحد منتقدي الذكاء الاصطناعي الصريح ، من معهد أبحاث الذكاء الاصطناعي الموزع ، الرسالة المفتوحة بالمثل. وتصف الخوف الذي يتم الترويج له في حملة “توقف الذكاء الاصطناعي” بأنه نابع مما تسميه “المدى الطويل” – فهم تهديدات الذكاء الاصطناعي فقط في بعض سيناريوهات الخيال العلمي المستقبلي البائس ، وليس في الوقت الحاضر ، حيث تضخيم انحياز الذكاء الاصطناعي ومشاكل تركيز الطاقة معروفة جيدًا.

يقول عضو IEEE ، Jorge E. Higuera ، كبير مهندسي الأنظمة في Circontrol في برشلونة ، إنه وقع الرسالة المفتوحة لأنه “قد يكون من الصعب تنظيم الذكاء الاصطناعي الفائق الذكاء ، خاصةً إذا تم تطويره من قبل دول استبدادية أو شركات خاصة غامضة أو عديمة الضمير فرادى. “

وقع زميل IEEE ، جرادي بوش ، كبير العلماء لهندسة البرمجيات في شركة IBM ، على الرغم من أنه أيضًا ، في مناقشته مع المعهد، استشهد بعمل Gebru وتحفظاته حول مآزق الذكاء الاصطناعي.

يقول بوخ: “النماذج التوليدية رواة غير موثوقين”. المشاكل مع نماذج اللغة الكبيرة كثيرة: هناك مخاوف مشروعة فيما يتعلق باستخدامهم للمعلومات دون موافقة ؛ لديهم تحيزات عنصرية وجنسية يمكن إثباتها ؛ يولدون معلومات مضللة على نطاق واسع ؛ إنهم لا يفهمون ولكنهم يقدمون فقط وهم الفهم ، خاصة بالنسبة للمجالات التي تم تدريبهم جيدًا عليها مع مجموعة تتضمن عبارات الفهم.

“يتم إطلاق العنان لهذه النماذج في البرية من قبل الشركات التي لا تقدم أي شفافية فيما يتعلق بجسمها ، أو بنيتها ، أو حواجزها ، أو سياسات معالجة البيانات من المستخدمين. تجربتي وأخلاقياتي المهنية تخبرني أنه يجب علي اتخاذ موقف ، وتوقيع الرسالة هو أحد هذه المواقف “.

من فضلك شارك افكارك في حقل التعليقات في الاسفل.

من مقالات موقعك

مقالات ذات صلة حول الويب



مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى