الأهداف سليمة، لكنها تعتمد في النهاية على قراءة المستخدمين لنوافذ الحوار التي تحذر من المخاطر وتتطلب موافقة دقيقة قبل المتابعة. وهذا بدوره يقلل من قيمة الحماية للعديد من المستخدمين.
“ينطبق التحذير المعتاد على مثل هذه الآليات التي تعتمد على قيام المستخدمين بالنقر فوق مطالبة الإذن” ، قال إيرلينس فرنانديز ، أستاذ جامعة كاليفورنيا في سان دييغو المتخصص في أمن الذكاء الاصطناعي ، لآرس. “في بعض الأحيان، لا يفهم هؤلاء المستخدمون تمامًا ما يجري، أو قد يعتادون على ذلك وينقرون على “نعم” طوال الوقت. وعند هذه النقطة، لا تكون الحدود الأمنية حدودًا حقًا.”
وكما يتضح من سلسلة هجمات “ClickFix”، يمكن خداع العديد من المستخدمين لاتباع تعليمات خطيرة للغاية. في حين أن المستخدمين الأكثر خبرة (بما في ذلك عدد لا بأس به من المعلقين على آرس) يلومون الضحايا الذين يقعون في مثل هذه عمليات الاحتيال، فإن هذه الحوادث لا مفر منها لمجموعة من الأسباب. في بعض الحالات، حتى المستخدمين الحذرين يكونون مرهقين أو يعانون من ضائقة عاطفية ويخطئون نتيجة لذلك. يفتقر المستخدمون الآخرون ببساطة إلى المعرفة اللازمة لاتخاذ قرارات مستنيرة.
قال أحد النقاد إن تحذير مايكروسوفت لا يزيد إلا قليلاً عن CYA (اختصار لـ Cover your Ass)، وهي مناورة قانونية تحاول حماية طرف ما من المسؤولية.
قال الناقد ريد ميديكي: “ليس لدى مايكروسوفت (مثل بقية الصناعة) أي فكرة عن كيفية إيقاف الحقن الفوري أو الهلوسة، مما يجعلها غير صالحة بشكل أساسي لأي شيء خطير تقريبًا”. “الحل؟ تحويل المسؤولية إلى المستخدم. تمامًا مثل كل روبوت دردشة LLM لديه “أوه بالمناسبة، إذا كنت تستخدم هذا لأي شيء مهم، فتأكد من التحقق من الإجابات” إخلاء المسؤولية، بغض النظر عن أنك لن تحتاج إلى chatbot في المقام الأول إذا كنت تعرف الإجابة.
وكما أشار ميديكي، فإن معظم الانتقادات تمتد إلى عروض الذكاء الاصطناعي التي تدمجها شركات أخرى – بما في ذلك أبل، وجوجل، وميتا – في منتجاتها. في كثير من الأحيان، تبدأ عمليات التكامل هذه كميزات اختيارية وتصبح في النهاية إمكانات افتراضية سواء أرادها المستخدمون أم لا.




