أخبار التقنية

5 عائلات من البرامج الضارة التي تم تطويرها بواسطة الذكاء الاصطناعي والتي تم تحليلها بواسطة Google تفشل في العمل ويتم اكتشافها بسهولة



توفر التقييمات حجة مضادة قوية للروايات المبالغ فيها التي تروج لها شركات الذكاء الاصطناعي، والتي يسعى العديد منها إلى جولات جديدة من تمويل المشاريع، والتي تقول إن البرمجيات الخبيثة التي ينشئها الذكاء الاصطناعي منتشرة على نطاق واسع وجزء من نموذج جديد يشكل تهديدًا حاليًا للدفاعات التقليدية.

ومن الأمثلة النموذجية على ذلك شركة أنثروبيك، التي أعلنت مؤخراً عن اكتشافها لممثل تهديد استخدم شركة كلود إل إل إم “لتطوير وتسويق وتوزيع العديد من المتغيرات من برامج الفدية، كل منها يتمتع بقدرات تهرب متقدمة، وتشفير، وآليات لمكافحة الاسترداد”. ومضت الشركة لتقول: “بدون مساعدة كلود، لم يتمكنوا من تنفيذ أو استكشاف أخطاء مكونات البرامج الضارة الأساسية، مثل خوارزميات التشفير أو تقنيات مكافحة التحليل أو التلاعب الداخلي في Windows.”

صرحت شركة Startup ConnectWise مؤخرًا أن الذكاء الاصطناعي التوليدي “يخفض حاجز الدخول أمام الجهات الفاعلة التي تشكل تهديدًا للدخول إلى اللعبة”. استشهد المنشور بتقرير منفصل من OpenAI وجد 20 جهة فاعلة تهديدية منفصلة تستخدم محرك ChatGPT AI لتطوير برامج ضارة للمهام بما في ذلك تحديد نقاط الضعف وتطوير كود الاستغلال وتصحيح هذا الكود. وفي الوقت نفسه، قالت BugCrowd إنه في دراسة استقصائية لأفراد تم اختيارهم ذاتيًا، “وافق 74% من المتسللين على أن الذكاء الاصطناعي جعل القرصنة أكثر سهولة، مما فتح الباب أمام الوافدين الجدد للانضمام إلى الحظيرة”.

وفي بعض الحالات، يلاحظ مؤلفو هذه التقارير نفس القيود المذكورة في هذه المقالة. يقول تقرير الأربعاء الصادر عن جوجل إنه في تحليلها لأدوات الذكاء الاصطناعي المستخدمة لتطوير التعليمات البرمجية لإدارة قنوات القيادة والسيطرة والتعتيم على عملياتها “لم نر دليلاً على نجاح الأتمتة أو أي قدرات خارقة”. قال OpenAI نفس الشيء تقريبًا. ومع ذلك، نادرًا ما يتم تقديم إخلاءات المسؤولية هذه بشكل بارز، وغالبًا ما يتم التقليل من أهميتها في ظل الهوس الناتج عن تصوير البرامج الضارة المدعومة بالذكاء الاصطناعي على أنها تشكل تهديدًا على المدى القريب.

ويقدم تقرير جوجل نتيجة مفيدة أخرى على الأقل. تمكن أحد عناصر التهديد الذي استغل نموذج Gemini AI الخاص بالشركة من تجاوز حواجز الحماية الخاصة به من خلال التظاهر بأنه قراصنة ذوي قبعة بيضاء يقومون بإجراء بحث للمشاركة في لعبة التقاط العلم. تم تصميم هذه التدريبات التنافسية لتعليم وإظهار استراتيجيات الهجوم السيبراني الفعالة لكل من المشاركين والمتفرجين.

تم دمج حواجز الحماية هذه في جميع برامج LLM السائدة لمنع استخدامها بشكل ضار، كما هو الحال في الهجمات الإلكترونية وإيذاء النفس. وقالت جوجل إنها قامت منذ ذلك الحين بضبط الإجراءات المضادة بشكل أفضل لمقاومة مثل هذه الحيل.

في نهاية المطاف، تشير البرامج الضارة التي أنشأها الذكاء الاصطناعي والتي ظهرت حتى الآن إلى أنها تجريبية في الغالب، وأن النتائج ليست مثيرة للإعجاب. تستحق الأحداث مراقبة التطورات التي تظهر أن أدوات الذكاء الاصطناعي تنتج قدرات جديدة لم تكن معروفة من قبل. ومع ذلك، في الوقت الحالي، لا تزال أكبر التهديدات تعتمد في الغالب على التكتيكات القديمة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى