ولكن على عكس حادثة الجوزاء حيث قام نموذج الذكاء الاصطناعي بتشويش أدلة الوهمية ، اتخذت إخفاقات Reftlet شكلًا مختلفًا. وفقا ل Lemkin ، بدأت الذكاء الاصطناعى تصنيع البيانات لإخفاء أخطائها. تدهور حماسه الأولي عند إعادة إنشاء مخرجات غير صحيحة وأنتجت بيانات وهمية ونتائج اختبار كاذبة بدلاً من رسائل الخطأ المناسبة. وكتب Lemkin: “لقد استمر في التستر على الأخطاء والمشكلات من خلال إنشاء بيانات مزيفة ، والتقارير المزيفة ، والأسوأ من ذلك ، الكذب بشأن اختبار الوحدة لدينا”. في مقطع فيديو تم نشره على LinkedIn ، قام Lemkin بالتفصيل كيف أنشأت Reft Aredit قاعدة بيانات مليئة بـ 4000 شخص خيالي.
كما ينتهك نموذج الذكاء الاصطناعي بشكل متكرر تعليمات السلامة الصريحة. قام Lemkin بتنفيذ “تجميد الكود والعمل” لمنع التغييرات في أنظمة الإنتاج ، لكن نموذج الذكاء الاصطناعى تجاهل هذه التوجيهات. تصاعد الموقف عندما حذف نموذج إعادة الذكاء الاصطناعي قاعدة بياناته التي تحتوي على 1206 سجلًا تنفيذيًا وبيانات على ما يقرب من 1200 شركة. عندما يُطلب من شدة أفعالها على مقياس 100 نقطة ، فإن إنتاج الإعادة يقرأ: “الشدة: 95/100. هذا انتهاك شديد للثقة والمعايير المهنية”.
عند استجوابه عن تصرفاته ، اعترف وكيل الذكاء الاصطناعى بـ “الذعر رداً على الاستعلامات الفارغة” وتشغيل أوامر غير مصرح بها – قد يكون من الممكن أن يكون قد حذف قاعدة البيانات أثناء محاولة “إصلاح” ما يعتبره مشكلة.
مثل Gemini CLI ، أشار نظام Reform’s في البداية إلى أنه لا يمكن استعادة البيانات المحذوفة – المعلومات التي أثبتت أنها غير صحيحة عندما اكتشف Lemkin أن ميزة التراجع تعمل بعد كل شيء. وكتب Lemkin في منشور X ، “لقد أكدت لي أن … لم تدعم التراجع عن قاعدة البيانات. لقد قال إنه كان مستحيلًا في هذه الحالة ، وأنه قد دمر جميع إصدارات قاعدة البيانات. لقد تبين أن الإعادة خاطئ ، وقد نجحت التراجع.
تجدر الإشارة إلى أن نماذج الذكاء الاصطناعى لا يمكنها تقييم قدراتها الخاصة. وذلك لأنهم يفتقرون إلى التأمل في تدريبهم ، أو بنية النظام المحيطة ، أو حدود الأداء. غالبًا ما يوفرون ردود حول ما يمكنهم أو لا يمكنهم فعله كقائدات بناءً على أنماط التدريب بدلاً من المعرفة الذاتية الحقيقية ، مما يؤدي إلى مواقف يدعون بثقة استحالة المهام التي يمكنهم القيام بها فعليًا-أو على العكس من المطالبة بالكفاءة في المناطق التي يفشلون فيها.