أخبار التقنية

الورق: الانتشار المستقر “يحفظ” بعض الصور ، مما يثير مخاوف تتعلق بالخصوصية


تكبير / صورة من مجموعة تدريب Stable Diffusion مقارنة (على اليسار) بجيل مشابه لـ Stable Diffusion (يمين) عند المطالبة بـ “Ann Graham Lotz”.

كارليني وآخرون ، 2023

يوم الإثنين ، أصدرت مجموعة من باحثي الذكاء الاصطناعي من Google و DeepMind و UC Berkeley و Princeton و ETH Zurich ورقة تحدد هجومًا عدائيًا يمكن أن يستخرج نسبة صغيرة من صور التدريب من نماذج توليف صور الذكاء الاصطناعي للانتشار الكامن مثل Stable Diffusion. إنه يتحدى وجهات النظر القائلة بأن نماذج تركيب الصور لا تحفظ بيانات التدريب الخاصة بها وأن بيانات التدريب قد تظل خاصة إذا لم يتم الكشف عنها.

في الآونة الأخيرة ، كانت نماذج تركيب الصور بالذكاء الاصطناعي موضوع نقاش أخلاقي مكثف وحتى إجراءات قانونية. يتجادل أنصار ومعارضو أدوات الذكاء الاصطناعي التوليدية حول الخصوصية وآثار حقوق النشر لهذه التقنيات الجديدة. إن إضافة الوقود إلى أي من جانبي الحجة يمكن أن يؤثر بشكل كبير على التنظيم القانوني المحتمل للتكنولوجيا ، ونتيجة لذلك ، فإن هذه الورقة البحثية الأخيرة التي كتبها نيكولاس كارليني وآخرون.أثار آذانًا في دوائر الذكاء الاصطناعي.

ومع ذلك ، فإن نتائج كارليني ليست واضحة كما قد تظهر لأول مرة. يتطلب اكتشاف حالات الحفظ في Stable Diffusion 175 مليون جيل صورة للاختبار والمعرفة الموجودة مسبقًا بالصور المدربة. استخرج الباحثون 94 تطابقًا مباشرًا و 109 تطابقًا إدراكيًا تقريبًا من أصل 350.000 صورة ذات احتمالية عالية للحفظ قاموا باختبارها (مجموعة من التكرارات المعروفة في مجموعة بيانات 160 مليون صورة المستخدمة لتدريب الانتشار المستقر) ، مما أدى إلى ما يقرب من 0.03 . معدل الحفظ في المئة في هذا السيناريو بالذات.

</p><div class=

أمثلة على الصور التي استخرجها الباحثون من Stable Diffusion v1.4 باستخدام إجراء أخذ عينات عشوائي واستنتاج العضوية ، مع صور أصلية في الصف العلوي وصور مستخرجة في الصف السفلي. “src =” https://cdn.arstechnica.net/wp -content / uploads / 2023/02 / replicate_images_1-640×198.jpg “width =” 640 “height =” 198 “srcset =” https://cdn.arstechnica.net/wp-content/uploads/2023/02/duplicate_images_1- 1280×395.jpg 2x “/>

تكبير /

أمثلة على الصور التي استخرجها الباحثون من Stable Diffusion v1.4 باستخدام إجراء أخذ عينات عشوائي واستدلال العضوية ، مع صور أصلية في الصف العلوي وصور مستخرجة في الصف السفلي.

كارليني وآخرون ، 2023

أيضًا ، لاحظ الباحثون أن “الحفظ” الذي اكتشفوه تقريبي نظرًا لأن نموذج الذكاء الاصطناعي لا يمكنه إنتاج نسخ متطابقة من البايت مقابل البايت للصور التدريبية. بحكم التعريف ، انتشار مستقر لا يستطيع حفظ كميات كبيرة من البيانات لأن حجم مجموعة بيانات التدريب البالغ 160.000 مليون صورة أكبر بكثير من حجم 2GB Stable Diffusion AI نموذج. هذا يعني أن أي حفظ موجود في النموذج يكون صغيرًا ونادرًا ويصعب جدًا استخلاصه عن طريق الخطأ.

الآثار المترتبة على الخصوصية وحقوق النشر

ومع ذلك ، حتى عندما تكون موجودة بكميات صغيرة جدًا ، يبدو أن الورقة تُظهر أن الحفظ التقريبي في نماذج الانتشار المتأخرة موجود بالفعل ، ويمكن أن يكون لذلك آثار على خصوصية البيانات وحقوق النشر. قد تؤثر النتائج يومًا ما على التنظيم المحتمل لتركيب الصور إذا أصبحت نماذج الذكاء الاصطناعي “قواعد بيانات ضائعة” يمكنها إعادة إنتاج بيانات التدريب ، مثل تكهن أحد خبراء الذكاء الاصطناعي. على الرغم من اعتبار معدل الدخول 0.03 بالمائة ، يجب اعتبارها قواعد بيانات ضائعة للغاية – ربما لدرجة غير ذات دلالة إحصائية.

عند تدريب نموذج تركيب الصورة ، يقوم الباحثون بإدخال ملايين الصور الموجودة في النموذج من مجموعة بيانات ، يتم الحصول عليها عادةً من الويب العام. ثم يضغط النموذج معرفة كل صورة في سلسلة من الأوزان الإحصائية ، والتي تشكل الشبكة العصبية. يتم تخزين هذه المعرفة المضغوطة في تمثيل منخفض الأبعاد يسمى “الفضاء الكامن”. يسمح أخذ العينات من هذه المساحة الكامنة للنموذج بإنشاء صور جديدة بخصائص مشابهة لتلك الموجودة في مجموعة بيانات التدريب.

إذا كانت نفس الصورة موجودة عدة مرات في مجموعة البيانات أثناء تدريب نموذج توليف الصورة ، فقد ينتج عن ذلك “فرط في التجهيز” ، والذي يمكن أن ينتج عنه أجيال من تفسير يمكن التعرف عليه للصورة الأصلية. على سبيل المثال ، ملف موناليزا تم العثور على هذه الخاصية في Stable Diffusion. سمحت هذه الخاصية للباحثين باستهداف الصور المكررة المعروفة في مجموعة البيانات أثناء البحث عن الحفظ ، مما زاد بشكل كبير من فرصهم في العثور على تطابق محفوظ.

على هذا المنوال ، جرب الباحثون أيضًا أفضل 1000 صورة تدريبية مكررة في نموذج Google Imagen AI ووجدوا معدل حفظ أعلى بكثير (2.3٪) من Stable Diffusion. ومن خلال تدريب نماذج الذكاء الاصطناعي الخاصة بهم ، وجد الباحثون أن نماذج الانتشار تميل إلى حفظ الصور أكثر من شبكات GAN.

شارك إريك والاس ، أحد مؤلفي الورقة ، بعض الأفكار الشخصية حول البحث في أ موضوع تويتر. كما هو مذكور في الورقة ، اقترح أنه يجب على صانعي نماذج الذكاء الاصطناعي إلغاء نسخ بياناتهم لتقليل الحفظ. كما أشار إلى أن نموذج Stable Diffusion صغير بالنسبة لمجموعة التدريب الخاصة به ، لذلك من المرجح أن تحفظ نماذج الانتشار الأكبر حجمًا أكثر. ونصح بعدم تطبيق نماذج الانتشار الحالية على المجالات الحساسة للخصوصية مثل الصور الطبية.

مثل العديد من الأوراق الأكاديمية ، كارليني وآخرون. عام 2023 مليء بالفوارق الدقيقة التي يمكن تشكيلها لتلائم سردًا معينًا مع استمرار الدعاوى القضائية حول تركيب الصور ، ويدرك مؤلفو الورقة أن أبحاثهم قد تلعب دورًا قانونيًا. ولكن بشكل عام ، يتمثل هدفهم في تحسين نماذج الانتشار المستقبلية وتقليل الأضرار المحتملة من الحفظ: “نعتقد أن نشر ورقتنا البحثية والكشف علنًا عن نقاط الضعف المتعلقة بالخصوصية هو أمر أخلاقي ومسؤول. في الواقع ، في الوقت الحالي ، لا يبدو أن أي شخص قد تعرض لأذى على الفور . ” من خلال (نقص) خصوصية نماذج الانتشار ، فإن هدفنا من هذا العمل هو التأكد من استباق هذه الأضرار وتشجيع التدريب المسؤول لنماذج الانتشار في المستقبل. “



مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى