أخبار التقنية

حذرًا من خطر الذكاء الاصطناعي ، استقال الرائد جيفري هينتون من Google للتحدث بحرية


تكبير / يتحدث جيفري هينتون ، كبير المستشارين العلميين في معهد Vector ، خلال منتدى تورنتو العالمي للمنتدى الاقتصادي الدولي للأمريكتين (IEFA) في تورنتو ، أونتاريو ، كندا ، يوم الخميس ، 5 سبتمبر 2019.

جيتي إيماجيس / بنج إدواردز

وفقًا لصحيفة نيويورك تايمز ، استقال رائد الذكاء الاصطناعي الدكتور جيفري هينتون من Google حتى يتمكن من “التحدث بحرية” عن المخاطر المحتملة التي يشكلها الذكاء الاصطناعي. يخشى هينتون ، الذي ساعد في إنشاء بعض التقنيات الأساسية وراء أنظمة الذكاء الاصطناعي التوليدية الحالية ، من أن دافع صناعة التكنولوجيا لتطوير منتجات الذكاء الاصطناعي قد يؤدي إلى عواقب وخيمة – من المعلومات المضللة إلى فقدان الوظيفة أو حتى تهديد البشرية.

ونقلت الصحيفة عن هينتون قوله “انظروا كيف كانت الأمور قبل خمس سنوات وكيف هي الآن”. “خذ الفرق وانشره للأمام. هذا مخيف.”

تمتد سيرة هينتون في مجال الذكاء الاصطناعي إلى عام 1972 ، وقد أثرت إنجازاته على الممارسات الحالية في الذكاء الاصطناعي التوليدي. في عام 1987 ، قام هينتون وديفيد روميلهارت ورونالد ج. في عام 2012 ، أنشأ Hinton و Alex Krizhevsky و Ilya Sutskever AlexNet ، والتي يتم الترحيب بها عمومًا على أنها اختراق في الرؤية الآلية والتعلم العميق ، ويمكن القول إنها أطلقت عصرنا الحالي من الذكاء الاصطناعي التوليدي. في عام 2018 ، فاز هينتون بجائزة تورينج ، التي يسميها البعض “جائزة نوبل للحوسبة” ، جنبًا إلى جنب مع يوشوا بنجيو ويان ليكون.

انضم Hinton إلى Google في 2013 بعد أن استحوذت Google على شركة Hinton ، DNNresearch. يمثل رحيله بعد عقد من الزمان لحظة بارزة في صناعة التكنولوجيا حيث إنها تتفوق وتحذر في نفس الوقت من التأثير المحتمل لأنظمة الأتمتة المتطورة بشكل متزايد. على سبيل المثال ، أدى إصدار GPT-4 الخاص بـ OpenAI في مارس إلى توقيع مجموعة من الباحثين التقنيين على خطاب مفتوح يدعو إلى وقف لمدة ستة أشهر لتطوير أنظمة ذكاء اصطناعي جديدة “أقوى” من GPT-4. ومع ذلك ، يعتقد بعض النقاد البارزين أن مثل هذه المخاوف مبالغ فيها أو في غير محلها.

لم يوقع هينتون على تلك الرسالة المفتوحة ، لكنه يعتقد أن المنافسة الشديدة بين عمالقة التكنولوجيا مثل Google و Microsoft يمكن أن تؤدي إلى سباق عالمي للذكاء الاصطناعي لا يمكن إيقافه إلا من خلال التنظيم الدولي. ويؤكد على التعاون بين كبار العلماء لمنع الذكاء الاصطناعي من أن يصبح خارج نطاق السيطرة.

“لا أعتقد [researchers] يجب أن يوسعوا هذا الأمر أكثر حتى يفهموا ما إذا كان بإمكانهم السيطرة عليه “.

يشعر هينتون بالقلق أيضًا من انتشار المعلومات الخاطئة في شكل صور ومقاطع فيديو ونصوص ، مما يجعل من الصعب على الناس تمييز ما هو صحيح. كما أنه يخشى أن يؤدي الذكاء الاصطناعي إلى قلب سوق العمل رأساً على عقب ، ويكمل في البداية العاملين البشريين ، لكنه يستبدلهم في نهاية المطاف بأدوار مثل المساعدين القانونيين ، والمساعدين الشخصيين ، والمترجمين الذين يتولون مهام روتينية.

قلق هينتون على المدى الطويل هو أن أنظمة الذكاء الاصطناعي المستقبلية يمكن أن تشكل تهديدًا للبشرية لأنها تتعلم سلوكًا غير متوقع من كميات هائلة من البيانات. قال لصحيفة التايمز: “فكرة أن هذه الأشياء يمكن أن تصبح في الواقع أكثر ذكاءً من الناس – قلة من الناس يعتقدون ذلك”. “لكن معظم الناس اعتقدوا أن الأمر بعيد المنال. واعتقدت أنه بعيد المنال. اعتقدت أنه كان من 30 إلى 50 عامًا أو حتى أكثر من ذلك. من الواضح ، لم أعد أعتقد ذلك.”

تبدو تحذيرات هينتون ملحوظة لأنه في وقت ما كان أحد أكبر مؤيدي هذا المجال. في ملف تعريف تورنتو ستار لعام 2015 ، عبر هينتون عن حماسه لمستقبل الذكاء الاصطناعي وقال: “لا أعتقد أنني سأتقاعد أبدًا.” لكن اليوم ، تقول صحيفة التايمز إن قلق هينتون بشأن مستقبل الذكاء الاصطناعي دفعه إلى الندم جزئيًا على أعمال حياته. قال: “أعزّي نفسي بالعذر العادي: لو لم أفعل ذلك ، لكان شخص آخر يفعل”.

ألقى بعض النقاد نظرة متشككة على استقالة الدكتورة هينتون وندم عليها. رداً على مقال نيويورك تايمز ، الدكتورة ساشا لوتشيوني من Hugging Face غرد“يشير الناس إلى هذا بمعنى: انظر ، الذكاء الاصطناعي أصبح خطيرًا للغاية ، حتى رواده يستقيلون. أرى أنه: الأشخاص الذين تسببوا في المشكلة أصبحوا الآن يقفزون من السفينة.”

يوم الاثنين ، أوضح هينتون دوافعه لترك Google. هو كتب في تغريدة: “في نيويورك تايمز اليوم ، يشير كيد ميتز إلى أنني تركت Google حتى أتمكن من انتقاد Google. في الواقع ، غادرت حتى أتمكن من التحدث عن مخاطر الذكاء الاصطناعي دون التفكير في كيفية تأثير ذلك على Google. لقد تصرفت Google بمسؤولية كبيرة . ” . “




اكتشاف المزيد من عرب نيوز للتقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من عرب نيوز للتقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading