أخبار التقنية

الرئيس بايدن يلتقي بالرؤساء التنفيذيين للذكاء الاصطناعي في البيت الأبيض وسط انتقادات أخلاقية


تكبير / التقى الرئيس الأمريكي جو بايدن ونائب الرئيس كامالا هاريس “الاستثمار في مجلس الوزراء الأمريكي” لمناقشة أجندة الاستثمار في أمريكا في غرفة روزفلت بالبيت الأبيض في واشنطن العاصمة ، في 5 مايو.

عقد الرئيس جو بايدن يوم الخميس اجتماعاً في البيت الأبيض مع الرؤساء التنفيذيين لشركات الذكاء الاصطناعي الرائدة ، بما في ذلك Google و Microsoft و OpenAI و Anthropic ، مؤكداً على أهمية ضمان سلامة منتجات الذكاء الاصطناعي قبل النشر. خلال الاجتماع ، حث بايدن المديرين التنفيذيين على معالجة المخاطر التي يشكلها الذكاء الاصطناعي. لكن بعض خبراء الذكاء الاصطناعي انتقدوا استبعاد باحثي الأخلاق الذين حذروا لسنوات من مخاطر الذكاء الاصطناعي.

على مدى الأشهر القليلة الماضية ، اكتسبت نماذج الذكاء الاصطناعي التوليدية مثل ChatGPT شعبية سريعة وحشدت ضجة تقنية مكثفة ، مما دفع الشركات إلى تطوير منتجات مماثلة بوتيرة سريعة.

ومع ذلك ، فقد تزايدت المخاوف بشأن قضايا الخصوصية المحتملة ، والتحيز الوظيفي ، وإمكانية استخدامها لإنشاء حملات تضليل. وفقًا للبيت الأبيض ، دعت الإدارة إلى مزيد من الشفافية ، وتقييمات السلامة ، والحماية من الهجمات الخبيثة خلال “مناقشة صريحة وبناءة” مع المديرين التنفيذيين.

وكان من بين الحاضرين البارزين في الاجتماع ساندر بيتشاي من جوجل ، وساتيا ناديلا من مايكروسوفت ، وسام ألتمان من شركة أوبن إيه آي ، وداريو أمودي من أنثروبيك.

ترأست نائب الرئيس كامالا هاريس الاجتماع ، وفي فيديو لبايدن “يسقط أمام”. نشر على تويترقال الرئيس ، “لقد جئت للتو لأقول شكراً. ما تفعله ينطوي على إمكانات هائلة – وخطر هائل. أعلم أنك تفهم ذلك. وآمل أن تتمكن من تثقيفنا بشأن ما تعتقد أنه في أمس الحاجة إليه لحماية المجتمع بالإضافة إلى التقدم ، وهذا أمر مهم حقًا “.

في الخريف الماضي ، أصدرت إدارة بايدن مجموعة من المبادئ التوجيهية تسمى “قانون حقوق الذكاء الاصطناعي” والتي تهدف إلى حماية الأمريكيين من الآثار الضارة للأنظمة الآلية ، بما في ذلك قضايا التحيز والتمييز والخصوصية.

يستجيب باحثو أخلاقيات الذكاء الاصطناعي

في حين أظهرت دعوة بايدن اهتمامًا تنفيذيًا بموضوع سياسي أخلاقي ساخن ، لم يتأثر منتقدو سجلات تتبع الشركات المدعوة بالاجتماع ، مع العديد من التشكيك في الاختيار دعوة الأشخاص إلى الاجتماع الذين يجادلون بأنهم يمثلون الشركات التي خلقت المشكلات مع الذكاء الاصطناعي التي يسعى البيت الأبيض إلى معالجتها.

على موقع تويتر ، باحث الذكاء الاصطناعي الدكتور تيمنيت جبرو كتب“يبدو أننا نقضي نصف وقتنا في التحدث إلى العديد من المشرعين والوكالات ، ولا يزال لدينا هذا الهراء. غرفة مليئة بالرجال الذين قدموا لنا القضايا وطردونا من الحديث عن المخاطر ، وقد دعاهم الرئيس اللعين إلى حماية حقوق الناس “.

في عام 2020 ، طردت Google Gebru بعد نزاع حول ورقة بحثية شاركت في تأليفها سلطت الضوء على المخاطر المحتملة والتحيزات في النماذج اللغوية واسعة النطاق. أثار الحادث جدلاً داخل مجتمع أبحاث الذكاء الاصطناعي حول التزام Google بأخلاقيات الذكاء الاصطناعي.

وبالمثل ، باحثة أخلاقيات الذكاء الاصطناعي بجامعة أكسفورد ، إليزابيث رينيريس غرد“لسوء الحظ ، ومع كل الاحترام الواجب لـ POTUS ، هؤلاء ليسوا الأشخاص الذين يمكنهم إخبارنا بما هو” الأكثر حاجة لحماية المجتمع “عندما يتعلق الأمر #AI.”

يعكس الانتقاد الفجوة المشتركة بين ما يُطلق عليه غالبًا “أمان الذكاء الاصطناعي” (حركة فضفاضة تهتم بشكل أساسي بالمخاطر الوجودية الافتراضية من الذكاء الاصطناعي ، والمرتبطة علنًا بموظفي أوبن إيه آي) و “أخلاقيات الذكاء الاصطناعي” (مجموعة من الباحثين مهتمين إلى حد كبير بسوء التطبيق والتأثيرات. ). أنظمة الذكاء الاصطناعي الحالية ، بما في ذلك التحيز والمعلومات الخاطئة).

على هذا المنوال ، المؤلف الدكتور برانديز مارشال مقترح تنظيم “اجتماع مضاد” لاجتماع البيت الأبيض الذي سيشمل Hugging Face ، ومعهد أبحاث الذكاء الاصطناعي الموزع ، ومركز UCLA للاستعلام النقدي عبر الإنترنت ، ورابطة العدالة الخوارزمية.

وفي يوم الخميس أيضًا ، أعلن البيت الأبيض عن استثمار بقيمة 140 مليون دولار لإطلاق سبعة معاهد بحثية للذكاء الاصطناعي من خلال مؤسسة العلوم الوطنية. بالإضافة إلى ذلك ، ستشارك Anthropic و Google و Hugging Face و Nvidia و OpenAI و Stability AI في التقييمات العامة لأنظمة الذكاء الاصطناعي الخاصة بهم في DEF CON 31.

بعد اجتماع البيت الأبيض ، أصدر هاريس بيانًا قال فيه: “يتحمل القطاع الخاص مسؤولية أخلاقية ومعنوية وقانونية لضمان سلامة وأمن منتجاته. ويجب على كل شركة الامتثال للقوانين القائمة لحماية الشعب الأمريكي. أنا نتطلع إلى المتابعة والمتابعة في الأسابيع القادمة.



مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى