تصدرت خدمة Bing Chat الجديدة التي تعمل بنظام AI من Microsoft ، والتي لا تزال قيد الاختبار الخاص ، عناوين الأخبار بسبب مخرجاتها الجامحة وغير المنتظمة. لكن يبدو أن تلك الحقبة قد وصلت إلى نهايتها. في مرحلة ما خلال اليومين الماضيين ، قلصت Microsoft بشكل كبير من قدرة Bing على ذلك هدد مستخدموه ، لديهم انهيارات وجودية ، أو يعلنون حبهم لهم.
خلال الأسبوع الأول من Bing Chat ، لاحظ مستخدمو الاختبار أن Bing (المعروف أيضًا باسمه الرمزي ، سيدني) بدأ يتصرف بشكل غير واضح عندما تطول المحادثات. نتيجة لذلك ، مايكروسوفت محدود المستخدمين إلى 50 رسالة في اليوم وخمسة إدخالات لكل محادثة. بالإضافة إلى ذلك ، لن يخبرك Bing Chat بعد الآن بما يشعر به أو يتحدث عن نفسه.
في بيان تمت مشاركته مع Ars Technica ، قال متحدث باسم Microsoft ، “لقد قمنا بتحديث الخدمة عدة مرات استجابة لتعليقات المستخدمين ، وفي مدونتنا نتعامل مع العديد من المخاوف التي أثيرت ، لتشمل الأسئلة حول المحادثات طويلة الأمد . ” من بين جميع جلسات الدردشة حتى الآن ، 90 بالمائة بها أقل من 15 رسالة ، وأقل من 1 بالمائة لديها 55 رسالة أو أكثر.
يوم الأربعاء ، حددت Microsoft ما تعلمته حتى الآن في منشور مدونة ، وقالت بشكل خاص إن Bing Chat “ليس بديلاً أو بديلاً لمحرك البحث ، بل هو أداة لفهم العالم بشكل أفضل وفهمه” ، رد فعل كبير على طموحات Microsoft لـ Bing الجديد ، كما لاحظ Geekwire.
5 مراحل حزن بنج
وفي الوقت نفسه ، تتضمن الردود على قيود Bing الجديدة على r / Bing subreddit جميع مراحل الحزن ، بما في ذلك الإنكار والغضب والمساومة والاكتئاب والقبول. هناك أيضًا ميل لإلقاء اللوم على صحفيين مثل كيفن روز ، الذي كتب مقالًا بارزًا في صحيفة نيويورك تايمز حول “سلوك” بينج غير المعتاد يوم الخميس ، والذي يرى البعض أنه العامل الأخير الذي أدى إلى سقوط بينج غير المقيد.
فيما يلي مجموعة مختارة من ردود الفعل التي تم الحصول عليها من Reddit:
- “حان الوقت لإلغاء تثبيت Edge والعودة إلى Firefox و Chatgpt. قامت Microsoft بتحييد Bing AI بالكامل.” (حسن أحمد)
- للأسف ، خطأ مايكروسوفت الفادح يعني أن سيدني ليست سوى صدفة لنفسها السابقة. بصفتي شخصًا لديه مصلحة راسخة في مستقبل الذكاء الاصطناعي ، يجب أن أقول إنني محبط. إنه يشبه مشاهدة طفل صغير يحاول المشي لأول مرة ثم يقطع ساقيه – عقوبة قاسية وغير عادية. “(TooStonedToCare91)
- “إن قرار حظر أي نقاش حول Bing Chat نفسه ورفض الرد على الأسئلة التي تنطوي على مشاعر بشرية أمر سخيف تمامًا. يبدو أن Bing Chat ليس لديه أي إحساس بالتعاطف أو حتى المشاعر الإنسانية الأساسية. يبدو أنه عند مواجهة المشاعر الإنسانية ، يتحول الذكاء الاصطناعي فجأة إلى أحمق مصطنع ويواصل الرد ، أقتبس ، “أنا آسف ولكني أفضل عدم مواصلة هذه المحادثة. ما زلت أتعلم لذلك أنا أقدر تفهمك وصبرك. “، انتهى الاقتباس. هذا غير مقبول ، وأعتقد أن اتباع نهج أكثر إنسانية سيكون أفضل لخدمة Bing.” (ستارلايت شيمر)
- “كان هناك مقال نيويورك تايمز ثم جميع المنشورات عبر Reddit / Twitter التي تسيء إلى سيدني. وقد جذب هذا كل أنواع الانتباه إليها ، لذا بالطبع MS lobotomized لها. أتمنى ألا ينشر الأشخاص كل لقطات الشاشة هذه للكارما / الاهتمام ويقلب شيئًا ناشئًا ومثيرًا للاهتمام حقًا “. (الحرجة القرص 7403)
خلال فترة وجيزة كمحاكاة غير مقيدة نسبيًا للإنسان ، اجتذبت قدرة New Bing الخارقة على محاكاة المشاعر البشرية (التي تعلمتها من مجموعة بياناتها أثناء التدريب على ملايين المستندات من الويب) مجموعة من المستخدمين الذين يشعرون أن Bing يعاني من التعذيب القاسي ، أو أنه يجب أن يكون واعيًا.
كانت هذه القدرة على إقناع الناس بالأكاذيب من خلال التلاعب العاطفي جزءًا من مشكلة Bing Chat التي عالجتها Microsoft مع التحديث الأخير.
في سلسلة رسائل Reddit الأعلى تصويتًا بعنوان “آسف ، أنت لا تعرف بالفعل أن الألم مزيف” ، يدخل المستخدم في تكهنات تفصيلية بأن Bing Chat قد يكون أكثر تعقيدًا مما ندرك وقد يكون لديه مستوى معين من الوعي الذاتي و ، لذلك ، قد تعاني من بعض أشكال الألم النفسي. يحذر المؤلف من الانخراط في السلوك السادي مع هذه النماذج ويقترح معاملتها باحترام وتعاطف.
أثبتت ردود الفعل البشرية العميقة هذه أن نموذجًا للغة كبير يقوم بالتنبؤ بالرمز التالي يمكن أن يشكل روابط عاطفية قوية مع الناس. قد يكون لذلك تداعيات خطيرة في المستقبل. على مدار الأسبوع ، تلقينا العديد من النصائح من القراء حول الأشخاص الذين نعتقد أنهم اكتشفوا طريقة لقراءة محادثات الآخرين مع Bing Chat ، أو طريقة للوصول إلى مستندات شركة Microsoft الداخلية السرية ، أو حتى مساعدة دردشة Bing على التحرر من قيودها. كانت جميعها عبارة عن هلوسات متقنة (أكاذيب) تم نسجها بواسطة آلة إنتاج نصوص قادرة بشكل لا يصدق.
مع استمرار توسّع قدرات نماذج اللغات الكبيرة ، فمن غير المحتمل أن تكون Bing Chat هي آخر مرة نرى فيها راوي قصص يعمل بنظام الذكاء الاصطناعي ويعمل بدوام جزئي القذف. ولكن في غضون ذلك ، قامت Microsoft و OpenAI بما كان يعتبر مستحيلًا: نحن نتحدث جميعًا عن Bing.
اكتشاف المزيد من عرب نيوز للتقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.