أخبار التقنية

مع انتشار المنتجات المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، تخطط Google للرد


تكبير / الصور الواقعية التي تم إنشاؤها بواسطة الذكاء الاصطناعي مثل هذه قد تشوه إحساسنا بالتاريخ. جوجل يريد إصلاح ذلك.

ميدجورني

في يوم الأربعاء في Google I / O 2023 ، أعلنت Google عن ثلاث ميزات جديدة مصممة لمساعدة الأشخاص على اكتشاف الصور المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي في نتائج البحث ، وفقًا لتقارير بلومبرج. ستحدد الميزات الأصول المعروفة للصورة ، وتضيف البيانات الوصفية إلى صور AI التي تم إنشاؤها بواسطة Google ، وتسمية الصور الأخرى التي تم إنشاؤها بواسطة AI في نتائج البحث.

بفضل نماذج تركيب الصور بالذكاء الاصطناعي مثل Midjourney و Stable Diffusion ، أصبح من التافه إنشاء كميات هائلة من الصور المزيفة الواقعية ، والتي قد لا تؤثر فقط على المعلومات المضللة والدعاية السياسية ، ولكن أيضًا على مفهومنا للسجل التاريخي كمقادير كبيرة من الأدوات الإعلامية المزيفة . تدخل التداول.

في محاولة لمواجهة بعض هذه الاتجاهات ، ستقدم شركة البحث العملاقة ميزات جديدة لمنتجها للبحث عن الصور “في الأشهر المقبلة” ، وفقًا لـ Google:

يعتقد 62 في المائة من الناس أنهم يصادفون معلومات مضللة يوميًا أو أسبوعيًا ، وفقًا لدراسة بوينتر عام 2022. لهذا السبب نواصل إنشاء أدوات وميزات سهلة الاستخدام على بحث Google لمساعدتك في اكتشاف المعلومات الخاطئة عبر الإنترنت ، وتقييم المحتوى بسرعة ، وفهم سياق ما تراه بشكل أفضل. لكننا نعلم أيضًا أنه من المهم بنفس القدر تقييم المحتوى المرئي الذي تصادفه.

الميزة الأولى ، “حول هذه الصورة” ، ستسمح للمستخدمين بالنقر فوق ثلاث نقاط على صورة في نتائج صور Google ، أو البحث بصورة أو لقطة شاشة في Google Lens ، أو التمرير لأعلى في تطبيق Google لاكتشاف المزيد حول سجل الصورة ، بما في ذلك وقت فهرسة الصورة (أو الصور المماثلة) لأول مرة بواسطة Google ، حيث ربما ظهرت الصورة لأول مرة ، والأماكن الأخرى التي شوهدت فيها الصورة على الإنترنت (أي مواقع إخبارية أو اجتماعية أو مواقع التحقق من الحقائق).

في وقت لاحق من هذا العام ، تقول Google إنها ستسمح أيضًا للمستخدمين بالوصول إلى هذه الأداة عن طريق النقر بزر الماوس الأيمن أو الضغط لفترة طويلة على صورة في Chrome على سطح المكتب والجوال.

يمكن أن يساعد هذا السياق الإضافي حول الصورة في تحديد مدى موثوقيتها أو الإشارة إلى ما إذا كانت تتطلب مزيدًا من التدقيق. على سبيل المثال ، باستخدام ميزة “حول هذه الصورة” ، يمكن للمستخدمين اكتشاف أن الصورة التي توضح هبوطًا مزيفًا على سطح القمر تم الإبلاغ عنها من قبل منافذ الأخبار على أنها تم إنشاؤها بواسطة الذكاء الاصطناعي. يمكن أن يضعها أيضًا في السياق التاريخي: هل كانت هذه الصورة موجودة في سجل البحث قبل ظهور الدافع لتزييفها؟

مثال على شخص يستخدم
تكبير / مثال على شخص يستخدم “حول هذه الصورة” للحصول على سياق حول صورة من خلال بحث Google.

جوجل

الميزة الثانية تتناول الاستخدام المتزايد لأدوات الذكاء الاصطناعي في إنشاء الصور. عندما تبدأ Google في طرح أدوات تجميع الصور ، فإنها تخطط لتسمية جميع الصور التي تم إنشاؤها بواسطة أدوات الذكاء الاصطناعي الخاصة بها باستخدام “علامات أو بيانات وصفية” خاصة مخزنة في كل ملف تشير بوضوح إلى أصول الذكاء الاصطناعي الخاصة بها.

وثالثًا ، تقول Google إنها تتعاون أيضًا مع الأنظمة الأساسية والخدمات الأخرى لتشجيعهم على إضافة تسميات مماثلة إلى الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي. وقعت ميدجورني وشاترستوك على المبادرة ؛ سيقوم كل منها بتضمين البيانات الوصفية في الصور التي تم إنشاؤها بواسطة AI والتي سيقرأها بحث الصور من Google ويعرضها للمستخدمين ضمن نتائج البحث.

مثال على كيفية ظهور ترميز الصور التي تم إنشاؤها باستخدام الذكاء الاصطناعي ، وفقًا لـ Google.
تكبير / مثال على كيفية ظهور ترميز الصور التي تم إنشاؤها باستخدام الذكاء الاصطناعي ، وفقًا لـ Google.

جوجل

قد لا تكون هذه الجهود مثالية لأن البيانات الوصفية يمكن إزالتها لاحقًا أو يحتمل تغييرها ، لكنها تمثل محاولة بارزة في مواجهة مشكلة التزييف العميق على الإنترنت.

نظرًا لأن المزيد من الصور يتم إنشاؤها بواسطة الذكاء الاصطناعي أو يتم تعزيزها بمرور الوقت ، فقد نجد أن الخط الفاصل بين “الحقيقي” و “المزيف” يبدأ في التعتيم ، متأثرًا بتغيير الأعراف الثقافية. في هذه المرحلة ، قد يتوقف قرارنا بشأن نوعية المعلومات التي نثق بها باعتبارها انعكاسًا دقيقًا للواقع (بغض النظر عن كيفية إنشائها) ، كما هو الحال دائمًا ، على إيماننا بالمصدر. لذلك ، حتى وسط التطور التكنولوجي السريع ، تظل مصداقية المصدر ذات أهمية قصوى. في غضون ذلك ، قد تقدم الحلول التكنولوجية مثل حلول Google المساعدة في مساعدتنا في تقييم تلك المصداقية.


اكتشاف المزيد من عرب نيوز للتقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Related Articles

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button

اكتشاف المزيد من عرب نيوز للتقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading