أخبار التقنية

لماذا يعتبر ChatGPT و Bing Chat جيدًا في اختلاق الأشياء


أوريك لوسون | GettyImages

على مدار الأشهر القليلة الماضية ، استحوذت روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT على اهتمام العالم نظرًا لقدرتها على التحدث بطريقة تشبه البشر في أي موضوع تقريبًا. لكنها تأتي مع عيب خطير: يمكنهم تقديم معلومات كاذبة مقنعة بسهولة ، مما يجعلها مصادر غير موثوقة للمعلومات الواقعية ومصادر محتملة للتشهير.

لماذا تقوم روبوتات الدردشة بالذكاء الاصطناعي بصنع الأشياء ، وهل سنكون قادرين على الوثوق التام بمخرجاتها؟ لقد سألنا العديد من الخبراء وبحثنا في كيفية عمل نماذج الذكاء الاصطناعي هذه للعثور على الإجابات.

“الهلوسة” – مصطلح محمل في الذكاء الاصطناعي

تعتمد روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT من OpenAI على نوع من الذكاء الاصطناعي يسمى “نموذج اللغة الكبيرة” (LLM) لتوليد ردودهم. LLM هو برنامج كمبيوتر تم تدريبه على الملايين من مصادر النصوص التي يمكنها قراءة نصوص “لغة طبيعية” وتوليدها – وهي اللغة التي يكتبها البشر أو يتكلمون بها بشكل طبيعي. لسوء الحظ ، يمكنهم أيضًا ارتكاب الأخطاء.

في الأدبيات الأكاديمية ، غالبًا ما يطلق باحثو الذكاء الاصطناعي على هذه الأخطاء اسم “هلوسة”. لكن هذا التصنيف أصبح مثيرًا للجدل حيث أصبح الموضوع سائدًا لأن بعض الناس يشعرون أنه يجسد نماذج الذكاء الاصطناعي (مما يشير إلى أن لديهم ميزات شبيهة بالبشر) أو يمنحهم وكالة (مما يشير إلى أنه يمكنهم اتخاذ خياراتهم الخاصة) في المواقف التي لا ينبغي فيها الإشارة إليها ضمنيًا. قد يستخدم منشئو LLMs التجارية أيضًا الهلوسة كذريعة لإلقاء اللوم على نموذج AI للمخرجات المعيبة بدلاً من تحمل مسؤولية المخرجات بأنفسهم.

ومع ذلك ، فإن الذكاء الاصطناعي التوليدي جديد للغاية لدرجة أننا بحاجة إلى استعارات مستعارة من الأفكار الحالية لشرح هذه المفاهيم عالية التقنية للجمهور الأوسع. في هذا السياق ، نشعر أن مصطلح “confabulation” ، على الرغم من أنه غير كامل بالمثل ، هو استعارة أفضل من “الهلوسة”. في علم النفس البشري ، تحدث “البركة” عندما تكون ذاكرة شخص ما بها فجوة ويملأ الدماغ الباقي بشكل مقنع دون نية خداع الآخرين. الدردشة لا يعمل مثل الدماغ البشري ، ولكن يمكن القول إن مصطلح “confabulation” يمثل استعارة أفضل لأن هناك مبدأ إبداعيًا لملء الفجوات في العمل ، كما سنستكشف أدناه.

مشكلة الالتفاف

إنها مشكلة كبيرة عندما يولد روبوت الذكاء الاصطناعي معلومات خاطئة يمكن أن تكون مضللة أو مضللة أو تشويه سمعة. في الآونة الأخيرة ، نشرت صحيفة واشنطن بوست تقريرًا عن أستاذ قانون اكتشف أن ChatGPT قد وضعه على قائمة علماء القانون الذين تحرشوا جنسياً بشخص ما. لكن هذا لم يحدث أبدًا – اختلقه ChatGPT. في اليوم نفسه ، أبلغ آرس عن عمدة أسترالي زُعم أنه اكتشف أن ChatGPT ادعى أنه أدين بالرشوة وحُكم عليه بالسجن ، وهي اختلاق كامل.

بعد وقت قصير من إطلاق ChatGPT ، بدأ الناس يعلنون نهاية محرك البحث. في الوقت نفسه ، على الرغم من ذلك ، بدأت العديد من الأمثلة على تفسيرات ChatGPT تنتشر على وسائل التواصل الاجتماعي. اخترع روبوت الذكاء الاصطناعي الكتب و دراسات غير موجود ، المنشورات أن الأساتذة لم يكتبوا ، وهم مزيفون أوراق أكاديميةخطأ شنيع الاستشهادات القانونيةغير موجود ميزات نظام Linuxغير حقيقي تمائم البيع بالتجزئةو تفاصيل تقنية هذا لا معنى له.

ومع ذلك ، على الرغم من ميل ChatGPT للتضليل العرضي ، على عكس الحدس ، فإن مقاومته للمصارعة هي سبب حديثنا عنها اليوم. يلاحظ بعض الخبراء أن ChatGPT كان من الناحية الفنية تحسينًا على الفانيليا GPT-3 (النموذج السابق) لأنه قد يرفض الإجابة على بعض الأسئلة أو يخبرك عندما قد لا تكون إجاباته دقيقة.

قال رايلي جودسايد ، الخبير في نماذج اللغات الكبيرة والذي يعمل كمهندس موجه للموظفين في Scale AI: “أحد العوامل الرئيسية في نجاح Chat هو أنه نجح في قمع التشويش بما يكفي لجعله غير ملحوظ للعديد من الأسئلة الشائعة”. “بالمقارنة مع سابقاتها ، فإن ChatGPT بشكل ملحوظ أقل عرضة لاختلاق الأشياء.”

إذا تم استخدامها كأداة للعصف الذهني ، فقد تؤدي القفزات المنطقية والمفاهيم المنطقية لـ ChatGPT إلى اختراقات إبداعية. ولكن عند استخدامه كمرجع واقعي ، يمكن أن يتسبب ChatGPT في ضرر حقيقي ، وتعرف OpenAI ذلك.

لم يمض وقت طويل على إطلاق النموذج ، الرئيس التنفيذي لشركة OpenAI Sam Altman غرد، “ChatGPT محدودة بشكل لا يصدق ، لكنها جيدة بما يكفي في بعض الأشياء لخلق انطباع مضلل بالعظمة. من الخطأ الاعتماد عليها في أي شيء مهم في الوقت الحالي. إنها معاينة للتقدم ؛ لدينا الكثير من العمل لنفعله بشأن القوة والصدق. ” في وقت لاحق سقسقةكتب: “أنالا يعرف الكثير ، لكن الخطر هو أنه واثق وخاطئ لجزء كبير من الوقت.

ما الذي يحدث هنا؟



مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى