أخبار التقنية

باستخدام العلامة المائية AI ، يعود المبدعون إلى الخلف



هذه المقالة جزء من سلسلة IEEE Journal Watch الحصرية بالشراكة مع IEEE Xplore.

تعتمد نماذج الذكاء الاصطناعي على مجموعات بيانات هائلة لتدريب الخوارزميات المعقدة الخاصة بها ، ولكن في بعض الأحيان قد يؤثر استخدام مجموعات البيانات هذه لأغراض التدريب على حقوق أصحاب البيانات. ومع ذلك ، فإن إثبات أن نموذجًا ما يستخدم مجموعة بيانات دون إذن كان أمرًا صعبًا للغاية. ومع ذلك ، دراسة جديدةنشرت في IEEE المعاملات المتعلقة بالطب الشرعي للمعلومات والأمن، قدم الباحثون طريقة لحماية مجموعات البيانات من الاستخدام غير المصرح به عن طريق تضمين العلامات المائية الرقمية فيها. يمكن أن تمنح هذه التقنية مالكي البيانات دورًا أكبر في تحديد من يُسمح له بتدريب نماذج الذكاء الاصطناعي باستخدام بياناتهم.

إن أبسط طريقة لحماية مجموعات البيانات هي تقييد استخدامها ، مثل التشفير. لكن القيام بذلك سيجعل من الصعب استخدام مجموعات البيانات هذه للمستخدمين المصرح لهم أيضًا. بدلاً من ذلك ، ركز الباحثون على اكتشاف ما إذا كان نموذج معين للذكاء الاصطناعي قد تم تدريبه باستخدام مجموعة بيانات معينة ، كما يقول المؤلف الرئيسي للدراسة ، Yiming Li. يمكن وضع علامة على النماذج التي يُعرف أنها تم تدريبها بشكل غير مسموح به على مجموعة بيانات لمتابعتها من قبل مالك البيانات.

طرق وضع العلامات المائية يمكن أن تسبب ضررًا أيضًا. يمكن للجهات الخبيثة ، على سبيل المثال ، تعليم نظام القيادة الذاتية التعرف بشكل غير صحيح على إشارات التوقف كإشارات حد للسرعة.

قال لي إنه يمكن تطبيق هذه التقنية على العديد من الأنواع المختلفة من مشاكل التعلم الآلي ، على الرغم من أن الدراسة تركز على نماذج التصنيف ، بما في ذلك تصنيف الصور. أولاً ، يتم تحديد عينة صغيرة من الصور من مجموعة بيانات ويتم تضمين علامة مائية تتكون من نمط مجموعة من وحدات البكسل المعدلة في كل صورة. ثم يتم تغيير ملصق التصنيف لكل صورة ذات علامة مائية لتتوافق مع التسمية المستهدفة. يؤدي هذا إلى إنشاء علاقة بين العلامة المائية والتسمية المستهدفة ، مما يؤدي إلى إنشاء ما يسمى هجوم الباب الخلفي. أخيرًا ، يتم إعادة دمج الصور المعدلة مع بقية مجموعة البيانات ونشرها ، حيث تكون متاحة للاستهلاك من قبل كل من المستخدمين المصرح لهم. للتحقق مما إذا تم تدريب نموذج معين باستخدام مجموعة البيانات ، يقوم الباحثون ببساطة بتشغيل الصور ذات العلامات المائية من خلال النموذج ومعرفة ما إذا كانوا قد استعادوا التسمية المستهدفة.

يمكن استخدام هذه التقنية في مجموعة واسعة من نماذج الذكاء الاصطناعي. نظرًا لأن نماذج الذكاء الاصطناعي تتعلم بشكل طبيعي دمج العلاقة بين الصور والتسميات في الخوارزمية الخاصة بهم ، يمكن لمالكي مجموعة البيانات إدخال هجوم الباب الخلفي في النماذج دون حتى معرفة كيفية عملها. تتمثل الحيلة الرئيسية في اختيار العدد الصحيح لعينات البيانات من مجموعة بيانات إلى علامة مائية – فعدد قليل جدًا منها يمكن أن يؤدي إلى هجوم خلفي ضعيف ، في حين أن الكثير منها يمكن أن يثير الشك ويقلل من دقة مجموعة البيانات للمستخدمين الشرعيين.

يمكن أن يستخدم الفنانون والمبدعون الآخرون العلامة المائية في النهاية لإلغاء الاشتراك في تدريب نماذج الذكاء الاصطناعي على أعمالهم مثل مولدات الصور. يمكن لمولدات الصور مثل Stable Diffusion و DALL-E 2 إنشاء صور واقعية عن طريق استيعاب أعداد كبيرة من الصور والأعمال الفنية الموجودة ، لكن بعض الفنانين أثاروا مخاوف بشأن استخدام أعمالهم دون إذن صريح. في حين أن التقنية محدودة حاليًا بكمية البيانات المطلوبة للعمل بشكل صحيح – يفتقر عمل الفنان الفردي عمومًا إلى العدد الضروري من نقاط البيانات – يقول لي إن اكتشاف ما إذا كان العمل الفني الفردي قد ساعد في تدريب نموذج ما قد يكون ممكنًا في المستقبل. قد يتطلب الأمر إضافة خطوة “استدلال العضوية” لتحديد ما إذا كان العمل الفني جزءًا من مجموعة بيانات غير مصرح بها.

قال لي إن الفريق يبحث أيضًا عما إذا كان يمكن إجراء العلامات المائية بطريقة تمنعها من أن تكون مُلزمة للاستخدام الضار. في الوقت الحالي ، يمكن استخدام القدرة على وضع علامة مائية على مجموعة بيانات بواسطة جهات فاعلة سيئة لإحداث ضرر. على سبيل المثال ، إذا تم تدريب نموذج ذكاء اصطناعي تستخدمه السيارات ذاتية القيادة على تفسير إشارات التوقف بشكل غير صحيح كإشارة لتعيين حد السرعة بدلاً من ذلك عند 100 ميل في الساعة ، فقد يؤدي ذلك إلى حدوث تصادمات على الطريق. عمل الباحثون على طرق الوقاية ، والتي قدموها كورقة شفوية في مؤتمر التعلم الآلي NeurIPS العام الماضي.

يأمل الباحثون أيضًا في جعل التقنية أكثر فاعلية من خلال تقليل عدد العينات التي تحمل علامة مائية اللازمة لإنشاء هجوم خلفي ناجح. سيؤدي القيام بذلك إلى مجموعات بيانات أكثر دقة للمستخدمين الشرعيين ، بالإضافة إلى زيادة القدرة على تجنب الاكتشاف بواسطة بناة نماذج الذكاء الاصطناعي.

قد يكون تجنب الاكتشاف معركة مستمرة لأولئك الذين يستخدمون العلامات المائية في النهاية لحماية مجموعات البيانات الخاصة بهم. هناك تقنيات تُعرف باسم “دفاع الباب الخلفي” التي تسمح لمنشئي النماذج بتنظيف مجموعة بيانات قبل استخدامها ، مما يقلل من قدرة العلامة المائية على إنشاء هجوم خلفي قوي. قد يتم إحباط دفاعات الباب الخلفي من خلال تقنية علامة مائية أكثر تعقيدًا ، ولكن هذا بدوره قد يتم التغلب عليه من خلال دفاع خلفي أكثر تطوراً. نتيجة لذلك ، قد تحتاج تقنيات العلامات المائية إلى التحديث بشكل دوري.

قال لي: “إن هجوم الباب الخلفي والدفاع الخلفي يشبهان مشكلة القط والفأر”.

من مقالات موقعك

مقالات ذات صلة حول الويب


اكتشاف المزيد من عرب نيوز للتقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Related Articles

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button

اكتشاف المزيد من عرب نيوز للتقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading