يوم الاثنين ، استضافت Ars Technica مؤتمر Ars Frontiers الافتراضي. في جلستنا الخامسة ، غطينا “بداية البرق للذكاء الاصطناعي – ما الذي تغير فجأة؟” تضمنت الجلسة محادثة مع Paige Bailey ، مدير المنتج الرئيسي لـ Generative Models في Google DeepMind ، و Haiyan Zhang ، المدير العام لـ Gaming AI في Xbox ، التي يديرها Benj Edwards ، مراسل Ars Technica’s AI.
تم بث اللوحة في الأصل مباشرة ، ويمكنك الآن مشاهدة تسجيل للحدث بأكمله على YouTube. تبدأ مقدمة الجزء “Lightning AI” عند الساعة 2:26:05 في البث.
نظرًا لكون “AI” مصطلحًا غامضًا ، بمعنى أشياء مختلفة في سياقات مختلفة ، فقد بدأنا المناقشة من خلال النظر في تعريف الذكاء الاصطناعي وما يعنيه لأعضاء اللجنة. قال بيلي: “أحب أن أفكر في الذكاء الاصطناعي على أنه يساعد في اشتقاق أنماط من البيانات واستخدامها للتنبؤ بالرؤى … إنه ليس أكثر من مجرد استخلاص رؤى من البيانات واستخدامها لعمل تنبؤات وتقديم معلومات أكثر فائدة.”
وافقت تشانغ على ذلك ، ولكن من منظور لعبة الفيديو ، فإنها تنظر أيضًا إلى الذكاء الاصطناعي على أنه قوة إبداعية متطورة. بالنسبة لها ، لا يقتصر الذكاء الاصطناعي على تحليل البيانات ، واكتشاف الأنماط ، وتصنيفها. كما أنها تعمل على تطوير القدرات في اللغة الإبداعية وتوليد الصور والترميز. تعتقد تشانغ أن هذه القوة التحويلية للذكاء الاصطناعي يمكن أن ترفع وتلهم الإبداع البشري ، خاصة في ألعاب الفيديو ، التي تعتبرها ذروة التعبير الفني.
بعد ذلك ، نتعمق في السؤال الرئيسي للجنة: ما الذي تغير وأدى إلى هذا العصر الجديد من الذكاء الاصطناعي؟ هل كل هذا مجرد ضجيج ، ربما على أساس الرؤية العالية لـ ChatGPT ، أم أن هناك بعض الاختراقات التقنية الكبرى التي جلبت لنا هذه الموجة الجديدة؟
وأشار تشانغ إلى التطورات في تقنيات الذكاء الاصطناعي والكميات الهائلة من البيانات المتاحة الآن للتدريب: “لقد رأينا اختراقات في بنية النموذج لنماذج المحولات ، بالإضافة إلى نماذج التشفير التلقائي العودية ، وكذلك توافر مجموعات كبيرة من البيانات . ” ثم لتدريب هذه النماذج واثنين من ذلك مع ثالثًا ، توفر الأجهزة مثل وحدات معالجة الرسومات ووحدات MPU لتكون قادرة بالفعل على أخذ النماذج لأخذ البيانات ولتتمكن من تدريبها على قدرات حوسبة جديدة. “
ردد بيلي هذه المشاعر ، مضيفًا إشارة ملحوظة إلى المساهمات مفتوحة المصدر ، “لدينا أيضًا هذا المجتمع النابض بالحياة من مصلحي المصادر المفتوحة الذين يمثلون نماذج مفتوحة المصدر ، ونماذج مثل LLaMA ، وضبطها بدقة من خلال ضبط التعليمات عالي الجودة ومجموعات بيانات RLHF . ” . “
عندما طُلب من بيلي توضيح أهمية التعاون مفتوح المصدر في تسريع تقدم الذكاء الاصطناعي ، ذكر بايلي الاستخدام الواسع لنماذج التدريب مفتوحة المصدر مثل PyTorch و Jax و TensorFlow. وأكدت أيضًا على أهمية مشاركة أفضل الممارسات ، قائلة: “أعتقد بالتأكيد أن مجتمع التعلم الآلي هذا موجود فقط لأن الناس يشاركون أفكارهم وآرائهم ورموزهم.”
عندما سئل عن خطط Google لنماذج مفتوحة المصدر ، أشار بيلي إلى موارد بحث Google الحالية على GitHub وأكد على شراكتهم مع Hugging Face ، وهو مجتمع AI عبر الإنترنت. قالت: “لا أريد التخلي عن أي شيء قد ينزل في الأنبوب”.
الذكاء الاصطناعي التوليدي على وحدات التحكم في الألعاب ، ومخاطر الذكاء الاصطناعي
كجزء من محادثة حول التطورات في أجهزة الذكاء الاصطناعي ، سألنا Zhang عن المدة التي سيستغرقها قبل أن تعمل نماذج الذكاء الاصطناعي التوليدية محليًا على وحدات التحكم. قالت إنها كانت متحمسة بشأن الاحتمال وأشارت إلى أن تكوين العميل السحابي المزدوج قد يأتي أولاً: “أعتقد أنه سيكون مزيجًا من العمل على الذكاء الاصطناعي للاستدلال في السحابة والعمل بالتعاون مع الاستدلال المحلي لنا.” لإحياء أفضل تجارب اللاعب “.
أشار بيلي إلى التقدم المحرز في تقليص نموذج لغة Meta LLaMA ليتم تشغيله على الأجهزة المحمولة ، ملمحًا إلى أن مسارًا مشابهًا للأمام قد يفتح إمكانية تشغيل نماذج الذكاء الاصطناعي على وحدات التحكم في الألعاب أيضًا: “أحب أن يكون لدي لغة كبيرة مخصصة للغاية نموذج يعمل على جهاز محمول ، أو يعمل على وحدة التحكم في الألعاب الخاصة بي ، والتي ربما تجعل رئيسًا من الصعب التغلب عليه بشكل خاص ، ولكن قد يكون من الأسهل على شخص آخر التغلب عليه “.
للمتابعة ، سألنا ما إذا كان نموذج الذكاء الاصطناعي التوليدي يعمل محليًا على هاتف ذكي ، فهل سيؤدي ذلك إلى استبعاد Google من المعادلة؟ قال بيلي: “أعتقد أنه من المحتمل أن يكون هناك مجال لمجموعة متنوعة من الخيارات”. “أعتقد أنه يجب أن تكون هناك خيارات متاحة لكل هذه الأشياء لكي تتعايش بشكل مفيد.”
عند مناقشة المخاطر الاجتماعية من أنظمة الذكاء الاصطناعي ، مثل المعلومات المضللة والتزييف العميق ، قال كلا المتحدثين إن شركتيهما ملتزمة بالاستخدام المسؤول والأخلاقي للذكاء الاصطناعي. “في Google ، نهتم كثيرًا بالتأكد من أن النماذج التي ننتجها مسؤولة وتتصرف بأسلوب أخلاقي قدر الإمكان. ونقوم بالفعل بدمج فريق الذكاء الاصطناعي المسؤول لدينا من اليوم الأول ، كلما قمنا بتدريب النماذج من تنسيق بياناتنا ، مع التأكد من ذلك وأوضح بيلي أنه يتم إنشاء مزيج ما قبل التدريب الصحيح.
على الرغم من حماسها السابق للنماذج مفتوحة المصدر والذكاء الاصطناعي التي يتم تشغيلها محليًا ، ذكرت بيلي أن نماذج الذكاء الاصطناعي المستندة إلى واجهة برمجة التطبيقات والتي تعمل فقط في السحابة قد تكون أكثر أمانًا بشكل عام: “أعتقد أن هناك خطرًا كبيرًا من إساءة استخدام النماذج في أيدي الأشخاص الذين قد لا يفهمون بالضرورة المخاطر أو لا يدركونها. وهذا أيضًا جزء من السبب الذي يجعل أحيانًا يفضلون واجهات برمجة التطبيقات بدلاً من النماذج مفتوحة المصدر. “
مثل Bailey ، ناقشت Zhang أيضًا نهج شركة Microsoft تجاه الذكاء الاصطناعي المسؤول ، لكنها لاحظت أيضًا التحديات الأخلاقية الخاصة بالألعاب ، مثل التأكد من أن ميزات الذكاء الاصطناعي شاملة ويمكن الوصول إليها.
اكتشاف المزيد من عرب نيوز للتقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.