العشوائية المتأصلة في توليد نص الذكاء الاصطناعي هذه المشكلة. حتى مع وجود مطالبات متطابقة ، قد يعطي نموذج الذكاء الاصطناعي ردود مختلفة قليلاً حول قدراته الخاصة في كل مرة تسأل فيها.
طبقات أخرى تشكل أيضًا ردود الذكاء الاصطناعي
حتى لو كان لدى نموذج اللغة بطريقة ما معرفة مثالية بأعماله الخاصة ، فقد تكون الطبقات الأخرى من تطبيقات chatbot منظمة العفو الدولية غير شفافة تمامًا. على سبيل المثال ، ليس مساعدي الذكاء الاصطناعى الحديثين مثل ChatGPT نماذج واحدة ولكن أنظمة تنسيق لنماذج منظمة العفو الدولية المتعددة التي تعمل معًا ، كل منها “غير مدرك” إلى حد كبير لوجود أو قدرات الآخرين. على سبيل المثال ، يستخدم Openai نماذج طبقة تنفيس منفصلة تكون عملياتها منفصلة تمامًا عن نماذج اللغة الأساسية التي تولد النص الأساسي.
عندما تسأل chatgpt عن قدراته ، فإن نموذج اللغة الذي يولد الاستجابة ليس لديه معرفة ضئيلة بما يمكن أن تحظره طبقة الاعتدال ، أو الأدوات التي قد تكون متوفرة في النظام الأوسع (بصرف النظر عن ما قاله Openai في موجه النظام) ، أو بالضبط ما الذي ستحدثه بعد المعالجة. إنه مثل سؤال قسم واحد في شركة عن قدرات قسم آخر مع مجموعة مختلفة تمامًا من القواعد الداخلية.
ربما الأهم من ذلك ، يوجه المستخدمون دائمًا إخراج الذكاء الاصطناعى من خلال مطالباتهم ، حتى عندما لا يدركون ذلك. عندما سأل Lemkin إعادة الإعادة عما إذا كانت التراجعات كانت ممكنة بعد حذف قاعدة البيانات ، من المحتمل أن يكون تأطيره المعني قد دفع إلى استجابة تتطابق مع هذا القلق – توليد تفسير لسبب الاسترداد قد يكون مستحيلًا بدلاً من تقييم إمكانات النظام الفعلية بدقة.
هذا يخلق حلقة ملاحظات حيث يسأل المستخدمون القلقون “هل قمت بتدمير كل شيء؟” من المرجح أن تتلقى ردود تأكيد مخاوفهم ، ليس لأن نظام الذكاء الاصطناعى قد قام بتقييم الموقف ، ولكن لأنه يولد نصًا يناسب السياق العاطفي للمطالبة.
إن حياة البشر التي يسمعها يفسرون أفعالهم وعمليات التفكير دفعتنا إلى الاعتقاد بأن هذه الأنواع من التفسيرات المكتوبة يجب أن يكون لها مستوى من المعرفة الذاتية وراءهم. هذا ليس صحيحًا فقط مع LLMS التي تحاكي هذه الأنواع من أنماط النص لتخمينها في قدراتها وعيوبها.