استخدم هجوم ثالث لإثبات المفهوم متعلق بالذكاء الاصطناعي والذي جذب الانتباه، حقنة سريعة لجعل برنامج Duo chatbot الخاص بـ GitLab يضيف خطوطًا ضارة إلى حزمة تعليمات برمجية مشروعة. نجح أحد أشكال الهجوم في سرقة بيانات المستخدم الحساسة.
هناك هجوم ملحوظ آخر استهدف أداة التشفير Gemini CLI. لقد سمح للمهاجمين بتنفيذ أوامر ضارة، مثل مسح القرص الصلب، على أجهزة الكمبيوتر الخاصة بالمطورين باستخدام أداة الذكاء الاصطناعي.
استخدام الذكاء الاصطناعي كطعم ومساعدين للقرصنة
استخدم المتسللون الآخرون المتورطون في LLM برامج الدردشة الآلية لجعل الهجمات أكثر فعالية أو أكثر سرية. وفي وقت سابق من هذا الشهر، تم توجيه الاتهام إلى رجلين بتهمة سرقة ومسح بيانات حكومية حساسة. وقال ممثلو الادعاء إن أحد الرجال حاول إخفاء آثاره من خلال سؤال إحدى أدوات الذكاء الاصطناعي “كيف يمكنني مسح سجلات النظام من خوادم SQL بعد حذف قواعد البيانات”. وبعد فترة وجيزة، زُعم أنه سأل الأداة، “كيف يمكنك مسح جميع سجلات الأحداث والتطبيقات من Microsoft Windows Server 2012.” وتمكن المحققون من تتبع تصرفات المتهمين على أي حال.
في شهر مايو، اعترف رجل بأنه مذنب في اختراق أحد موظفي شركة والت ديزني عن طريق خداع الشخص لتشغيل نسخة ضارة من أداة إنشاء صور الذكاء الاصطناعي مفتوحة المصدر والمستخدمة على نطاق واسع.
وفي أغسطس، حذر باحثو جوجل مستخدمي وكيل الدردشة Salesloft Drift AI من اعتبار جميع الرموز الأمنية المتصلة بالمنصة معرضة للخطر بعد اكتشاف أن مهاجمين غير معروفين استخدموا بعض بيانات الاعتماد للوصول إلى البريد الإلكتروني من حسابات Google Workspace. استخدم المهاجمون الرموز المميزة للوصول إلى حسابات Salesforce الفردية، ومن هناك لسرقة البيانات، بما في ذلك بيانات الاعتماد التي يمكن استخدامها في انتهاكات أخرى.
كانت هناك أيضًا حالات متعددة لنقاط الضعف في LLM التي عادت لتلحق الضرر بالأشخاص الذين يستخدمونها. في إحدى الحالات، تم القبض على برنامج CoPilot وهو يكشف محتويات أكثر من 20 ألف مستودع GitHub خاص من شركات بما في ذلك Google وIntel وHuawei وPayPal وIBM وTencent، ومن المفارقات، Microsoft. كانت المستودعات متاحة في الأصل من خلال Bing أيضًا. قامت Microsoft في النهاية بإزالة المستودعات من عمليات البحث، لكن برنامج CoPilot استمر في الكشف عنها على أي حال.




