أخبار التقنية

يخطط الذكاء الاصطناعي للثبات للسماح للفنانين بإلغاء الاشتراك في تدريب الصورة Stable Diffusion 3


تكبير / صورة تم إنشاؤها بواسطة الذكاء الاصطناعي لشخص يغادر المبنى ، وبالتالي يختار الخروج من اتفاقية الستائر الرأسية.

آرس تكنيكا

يوم الأربعاء ، استقرار منظمة العفو الدولية أعلن سيسمح للفنانين بإزالة أعمالهم من مجموعة بيانات التدريب لإصدار Stable Diffusion 3.0 القادم. تأتي هذه الخطوة كمجموعة مناصرة للفنان تسمى Spawning غرد أن Stability AI ستحترم طلبات إلغاء الاشتراك التي تم جمعها على موقع Have I been Trained الإلكتروني. ومع ذلك ، لا تزال تفاصيل كيفية تنفيذ الخطة غير مكتملة وغير واضحة.

كخلاصة موجزة ، اكتسب Stable Diffusion ، وهو نموذج لتركيب الصور بالذكاء الاصطناعي ، قدرته على إنشاء الصور عن طريق “التعلم” من مجموعة بيانات كبيرة من الصور المأخوذة من الإنترنت دون استشارة أي من أصحاب الحقوق للحصول على إذن. ينزعج بعض الفنانين من ذلك لأن Stable Diffusion يولد صورًا يمكن أن تنافس الفنانين البشريين بكمية غير محدودة. لقد تابعنا النقاش الأخلاقي منذ الإطلاق العام لـ Stable Diffusion في أغسطس 2022.

لفهم كيفية عمل نظام إلغاء الاشتراك Stable Diffusion 3 ، أنشأنا حسابًا على Have I been Trained وقمنا بتحميل صورة من Atari بونغ نشرة أركيد (التي لا نملكها). بعد أن عثر محرك بحث الموقع على التطابقات في قاعدة بيانات صور الشبكة المفتوحة للذكاء الاصطناعي (LAION) على نطاق واسع ، قمنا بالنقر بزر الماوس الأيمن على العديد من الصور المصغرة بشكل فردي وحددنا “إلغاء الاشتراك في هذه الصورة” في قائمة منبثقة.

بمجرد وضع علامة ، يمكننا رؤية الصور في قائمة الصور التي حددناها على أنها إلغاء الاشتراك. لم نواجه أي محاولة للتحقق من هويتنا أو أي سيطرة قانونية على الصور التي نفترض أننا “اخترناها”.

لقطة شاشة لـ
تكبير / لقطة شاشة لصور “إلغاء الاشتراك” التي لا نمتلكها على موقع Have I Been Trained. تم “استبعاد” الصور التي تحتوي على رموز العلم.

آرس تكنيكا

عقبات أخرى: لإزالة صورة من التدريب ، يجب أن تكون موجودة بالفعل في مجموعة بيانات LAION ويجب أن تكون قابلة للبحث في Have I been Trained. ولا توجد حاليًا طريقة لاستبعاد مجموعات كبيرة من الصور أو النسخ العديدة لنفس الصورة التي قد تكون موجودة في مجموعة البيانات.

يطرح النظام ، كما هو مطبق حاليًا ، تساؤلات يتردد صداها في سلاسل الإعلان على تويتر ويوتيوب. على سبيل المثال ، إذا قام Stability AI أو LAION أو Spawning بجهد كبير للتحقق من الملكية بشكل قانوني للتحكم في من يختار الصور ، فمن سيدفع مقابل العمل المعني؟ هل سيثق الناس في هذه المنظمات بالمعلومات الشخصية اللازمة للتحقق من حقوقهم وهوياتهم؟ ولماذا تحاول التحقق منها على الإطلاق عند الرئيس التنفيذي لشركة Stability يقول أن الإذن قانونيًا ليس ضروريًا لاستخدامها؟

https://www.youtube.com/watch؟v=SMMjqKWLsbc

مقطع فيديو من وضع التناسل يعلن عن خيار إلغاء الاشتراك.

أيضا ، وضع العبء على الفنان للتسجيل في موقع بامتداد اتصال غير ملزم إلى Stability AI أو LAION ثم على أمل أن يتم قبول طلبهم يبدو أنه لا يحظى بشعبية. ردًا على تصريحات حول موافقة Spawning في فيديو إعلانها ، قام بعض الأشخاص وأشار أن عملية إلغاء الاشتراك لا تتناسب مع تعريف الموافقة في اللائحة العامة لحماية البيانات في أوروبا ، والتي تنص على وجوب منح الموافقة بشكل فعال ، وليس افتراضها افتراضيًا (“يجب منح الموافقة بحرية ، ومحددة ، ومستنيرة ، ولا لبس فيها. من أجل الحصول على الموافقة الحرة ، يجب أن تعطى على أساس طوعي. “) على هذا المنوال ، العديد يجادل أن العملية يجب أن تكون قابلة للاشتراك فقط ، ويجب استبعاد جميع الأعمال الفنية من تدريب الذكاء الاصطناعي افتراضيًا.

حاليًا ، يبدو أن Stability AI تعمل ضمن القانون الأمريكي والأوروبي لتدريب Stable Diffusion باستخدام الصور المقطوعة التي تم جمعها دون إذن (على الرغم من أن هذه المشكلة لم يتم اختبارها في المحكمة بعد). لكن الشركة تتخذ أيضًا خطوات للتعرف على الجدل الأخلاقي الذي أثار احتجاجًا كبيرًا على الفن الناتج عن الذكاء الاصطناعي على الإنترنت.

هل هناك توازن يمكن أن يرضي الفنانين ويسمح بمواصلة التقدم في تقنية تركيب الصور بالذكاء الاصطناعي؟ في الوقت الحالي ، الرئيس التنفيذي لشركة Stability Emad Mostaque منفتح على الاقتراحات ، التغريد“إن فريقlaion_ai منفتح جدًا على التعليقات ويريد إنشاء مجموعات بيانات أفضل للجميع ويقومون بعمل رائع. من جانبنا ، نعتقد أن هذه تقنية تحويلية ويسعدنا التعامل مع جميع الجوانب ومحاولة التحلي بأكبر قدر ممكن من الشفافية . الكل يتحرك وينضج بسرعة. “




اكتشاف المزيد من عرب نيوز للتقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من عرب نيوز للتقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading