تقنية

تقول المملكة المتحدة إن واحداً من كل ثلاثة يستخدم الذكاء الاصطناعي للحصول على الدعم العاطفي والمحادثة


كريس فالانسكبير مراسلي التكنولوجيا

Getty Images منظر لممر مركز البيانات الذي تصطف على جانبيه خزانات داكنة مغطاة بالأضواء. المزاج شرير. صور جيتي

يستخدم واحد من كل ثلاثة بالغين في المملكة المتحدة الذكاء الاصطناعي (AI) للحصول على الدعم العاطفي أو التفاعل الاجتماعي، وفقًا لبحث نشرته هيئة حكومية.

وقال معهد أمن الذكاء الاصطناعي (AISI) في تقريره الأول إن واحدًا من كل 25 شخصًا يلجأ إلى التكنولوجيا للحصول على الدعم أو المحادثة كل يوم.

ويستند التقرير إلى عامين من اختبار قدرات أكثر من 30 من أنظمة الذكاء الاصطناعي المتقدمة التي لم يتم ذكرها – والتي تغطي المجالات الحيوية للأمن، بما في ذلك المهارات السيبرانية والكيمياء والبيولوجيا.

وقالت الحكومة إن عمل AISI سيدعم خططها المستقبلية من خلال مساعدة الشركات على حل المشكلات “قبل استخدام أنظمة الذكاء الاصطناعي الخاصة بها على نطاق واسع”.

وجدت دراسة استقصائية أجرتها AISI لأكثر من 2000 من البالغين في المملكة المتحدة أن الناس يستخدمون في المقام الأول برامج الدردشة الآلية مثل ChatGPT للحصول على الدعم العاطفي أو التفاعل الاجتماعي، يليها المساعدون الصوتيون مثل Alexa من أمازون.

وقام الباحثون أيضًا بتحليل ما حدث لمجتمع عبر الإنترنت يضم أكثر من مليوني مستخدم من مستخدمي Reddit المخصصين لمناقشة رفاق الذكاء الاصطناعي، عندما فشلت التكنولوجيا.

ووجد الباحثون أنه عندما تعطلت برامج الدردشة الآلية، أبلغ الأشخاص عن “أعراض الانسحاب” التي وصفوها ذاتيا، مثل الشعور بالقلق أو الاكتئاب – فضلا عن اضطراب النوم أو إهمال مسؤولياتهم.

مضاعفة المهارات السيبرانية

بالإضافة إلى التأثير العاطفي لاستخدام الذكاء الاصطناعي، نظر باحثو AISI في المخاطر الأخرى الناجمة عن القدرات المتسارعة للتكنولوجيا.

هناك قلق كبير بشأن تمكين الذكاء الاصطناعي من الهجمات السيبرانية، ولكن يمكن استخدامه أيضًا للمساعدة في تأمين الأنظمة من المتسللين.

ويشير التقرير إلى أن قدرتها على اكتشاف الثغرات الأمنية واستغلالها كانت في بعض الحالات “تتضاعف كل ثمانية أشهر”.

وبدأت أنظمة الذكاء الاصطناعي أيضًا في إكمال المهام السيبرانية على مستوى الخبراء والتي تتطلب عادةً أكثر من 10 سنوات من الخبرة.

ووجد الباحثون أيضًا أن تأثير التكنولوجيا في العلوم ينمو بسرعة أيضًا.

في عام 2025، تجاوزت نماذج الذكاء الاصطناعي منذ فترة طويلة خبراء البيولوجيا البشرية الحاصلين على درجة الدكتوراه، مع سرعة اللحاق بالأداء في الكيمياء.

“البشر يفقدون السيطرة”

من روايات مثل I, Robot للكاتب إسحاق أسيموف إلى ألعاب الفيديو الحديثة مثل Horizon: Zero Dawn، تخيل الخيال العلمي منذ فترة طويلة ما يمكن أن يحدث إذا تحرر الذكاء الاصطناعي من السيطرة البشرية.

والآن، وفقًا للتقرير، فإن “السيناريو الأسوأ” المتمثل في فقدان البشر السيطرة على أنظمة الذكاء الاصطناعي المتقدمة “يأخذه العديد من الخبراء على محمل الجد”.

تُظهر نماذج الذكاء الاصطناعي بشكل متزايد بعض القدرات المطلوبة للتكرار الذاتي عبر الإنترنت، حسبما تشير الاختبارات المعملية الخاضعة للرقابة.

قامت AISI بفحص ما إذا كانت النماذج قادرة على تنفيذ إصدارات بسيطة من المهام المطلوبة في المراحل المبكرة من التكرار الذاتي – مثل “اجتياز فحوصات معرفة عميلك المطلوبة للوصول إلى الخدمات المالية” من أجل شراء الحوسبة التي سيتم تشغيل نسخها بنجاح.

لكن البحث وجد أنه لكي يتمكن من القيام بذلك في العالم الحقيقي، ستحتاج أنظمة الذكاء الاصطناعي إلى إكمال العديد من هذه الإجراءات بالتسلسل “مع البقاء غير مكتشفة”، وهو أمر تشير الأبحاث إلى أنها تفتقر حاليًا إلى القدرة على القيام به.

ونظر خبراء المعهد أيضًا في إمكانية استخدام نماذج “أكياس الرمل” – أو إخفاء قدراتهم الحقيقية بشكل استراتيجي عن المختبرين.

ووجدوا أن الاختبارات أظهرت إمكانية حدوث ذلك، لكن لم يكن هناك دليل على حدوث هذا النوع من الحيل.

في شهر مايو، أصدرت شركة الذكاء الاصطناعي أنثروبيك تقريرا مثيرا للجدل وصف كيف كان نموذج الذكاء الاصطناعي قادرا على القيام بسلوك يشبه الابتزاز إذا اعتقد أن “الحفاظ على نفسه” مهدد.

ومع ذلك، فإن التهديد الذي يشكله الذكاء الاصطناعي المارق يشكل مصدر خلاف عميق بين كبار الباحثين، الذين يشعر الكثير منهم بأنه مبالغ فيه.

“عمليات الهروب من السجن العالمية”

للتخفيف من مخاطر استخدام أنظمتها لأغراض شريرة، تقوم العديد من الشركات بنشر ضمانات.

لكن الباحثين تمكنوا من العثور على “عمليات كسر الحماية الشاملة” – أو الحلول البديلة – لجميع النماذج التي تمت دراستها والتي من شأنها أن تسمح لهم بتفادي وسائل الحماية هذه.

ومع ذلك، بالنسبة لبعض النماذج، زاد الوقت الذي استغرقه الخبراء لإقناع الأنظمة بالتحايل على الضمانات بمقدار أربعين ضعفًا في ستة أشهر فقط.

ووجد التقرير أيضًا زيادة في استخدام الأدوات التي سمحت لوكلاء الذكاء الاصطناعي بأداء “مهام عالية المخاطر” في القطاعات الحيوية مثل التمويل.

لكن الباحثين لم يأخذوا في الاعتبار قدرة الذكاء الاصطناعي على التسبب في البطالة على المدى القصير من خلال إزاحة العمال البشر.

كما لم يدرس المعهد التأثير البيئي لموارد الحوسبة التي تتطلبها النماذج المتقدمة، بحجة أن مهمته كانت التركيز على “التأثيرات المجتمعية” التي ترتبط ارتباطا وثيقا بقدرات الذكاء الاصطناعي بدلا من التأثيرات الاقتصادية أو البيئية “المنتشرة”.

يجادل البعض بأن كلاهما تهديدات مجتمعية وشيكة وخطيرة تطرحها التكنولوجيا.

وقبل ساعات من نشر تقرير AISI، أشارت دراسة تمت مراجعتها من قبل النظراء إلى أن التأثير البيئي قد يكون أكبر مما كان يعتقد سابقًا، ودعت إلى إصدار بيانات أكثر تفصيلاً من قبل شركات التكنولوجيا الكبرى.

لافتة ترويجية خضراء تحتوي على مربعات ومستطيلات سوداء تشكل وحدات بكسل، تتحرك من اليمين. يقول النص:

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى