أخبار التقنية

لا يجب أن يكون الذكاء الاصطناعي بهذه الطريقة



لا تستحق كل الابتكارات التكنولوجية أن تسمى تقدمًا. ذلك لأن بعض التطورات ، على الرغم من وسائل الراحة التي توفرها ، قد لا تفعل نفس القدر من التقدم الاجتماعي ، بشكل متوازن ، كما هو معلن. أحد الباحثين الذين يقفون عكس مشجعي التكنولوجيا هو دارون أسيموغلو الاقتصادي بمعهد ماساتشوستس للتكنولوجيا. (يتم نطق “c” في لقبه مثل “g” الناعم.) IEEE Spectrum تحدثت مع Agemoglu – الذي تشمل مجالات أبحاثه اقتصاديات العمل ، والاقتصاد السياسي ، واقتصاديات التنمية – حول عمله الأخير وتناوله ما إذا كانت التقنيات مثل الذكاء الاصطناعي سيكون لها تأثير إيجابي أو سلبي على المجتمع البشري.

IEEE Spectrumفي ورقة العمل الخاصة بك في تشرين الثاني (نوفمبر) 2022 بعنوان “الأتمتة والقوى العاملة” ، تقول أنت والمؤلفون المشاركون أن السجل مختلط ، في أحسن الأحوال ، عندما يواجه الذكاء الاصطناعي القوة العاملة. ما الذي يفسر التناقض بين الطلب المتزايد على العمالة الماهرة ومستويات التوظيف؟

أسيموغلوغالبًا ما تقوم الشركات بتسريح العمال الأقل مهارة وتحاول زيادة توظيف العمال المهرة.

يمكن استخدام الذكاء الاصطناعي التوليدي ، ليس لاستبدال البشر ، ولكن ليكون مفيدًا للبشر. … لكن هذا ليس المسار الذي يسير عليه الآن “.
—دارون أسيموجلو ، معهد ماساتشوستس للتكنولوجيا

من الناحية النظرية ، من المفترض أن يؤدي ارتفاع الطلب وضيق العرض إلى ارتفاع الأسعار – وفي هذه الحالة ، عروض رواتب أعلى. ومن المنطقي أنه بناءً على هذا المبدأ المقبول منذ فترة طويلة ، فإن الشركات ستفكر “المزيد من المال ، مشاكل أقل”.

أسيموغلو: قد تكون محقًا إلى حد ما ، ولكن … عندما تشتكي الشركات من نقص المهارات ، أعتقد أن جزءًا منها هو أنها تشتكي من النقص العام في المهارات بين المتقدمين الذين يرونهم.

في ورقتك البحثية لعام 2021 بعنوان “أضرار الذكاء الاصطناعي” ، تجادل إذا ظل الذكاء الاصطناعي غير منظم ، فسوف يتسبب ذلك في ضرر كبير. هل يمكنك تقديم بعض الأمثلة؟

أسيموغلوحسنًا ، اسمحوا لي أن أقدم لكم مثالين من Chat GPT ، وهو كل الغضب في الوقت الحاضر. يمكن استخدام ChatGPT للعديد من الأشياء المختلفة. لكن المسار الحالي لنموذج اللغة الكبير ، الذي تجسده Chat GPT ، يركز بشكل كبير على أجندة الأتمتة الواسعة. تحاول ChatGPT إقناع المستخدمين … ما تحاول القيام به هو محاولة أن تكون جيدًا مثل البشر في مجموعة متنوعة من المهام: الإجابة على الأسئلة ، والمحادثة ، وكتابة السوناتات ، وكتابة المقالات. في الواقع ، في بعض الأشياء ، يمكن أن يكون أفضل من البشر لأن كتابة نص متماسك يعد مهمة صعبة وأدوات تنبؤية لكلمة يجب أن تأتي بعد ذلك ، على أساس مجموعة الكثير من البيانات من الإنترنت ، افعل ذلك بشكل عادل. حسنًا.

المسار الذي هو GPT3 [the large language model that spawned ChatGPT] يتجه نحو الأسفل يؤكد على الأتمتة. وهناك بالفعل مجالات أخرى كان للأتمتة فيها تأثير ضار – فقدان الوظائف ، وعدم المساواة ، وما إلى ذلك. إذا فكرت في الأمر سترى – أو يمكنك المجادلة على أي حال – أن نفس الهيكل كان يمكن استخدامه لأشياء مختلفة تمامًا. يمكن استخدام الذكاء الاصطناعي التوليدي ، ليس لاستبدال البشر ، ولكن ليكون مفيدًا للبشر. إذا كنت تريد كتابة مقال عن IEEE Spectrum، يمكنك إما أن تذهب وتطلب من ChatGPT كتابة هذه المقالة نيابة عنك ، أو يمكنك استخدامها لإنشاء قائمة قراءة لك قد تلتقط أشياء لم تكن تعرفها بنفسك وذات صلة بالموضوع. سيكون السؤال بعد ذلك هو مدى موثوقية المقالات المختلفة في قائمة القراءة هذه. ومع ذلك ، وبهذه الصفة ، سيكون الذكاء الاصطناعي التوليدي أداة تكميلية بشرية وليست أداة بديلة بشرية. لكن هذا ليس المسار الذي يسير فيه الآن.

افتح AI ، أخذ صفحة من كتاب الرموز الخاص بـ “التحرك بسرعة وكسر الأشياء” على Facebook ، وألغى كل شيء. هل هذا شيء جيد؟
—دارون أسيموجلو ، معهد ماساتشوستس للتكنولوجيا

اسمحوا لي أن أقدم لكم مثالاً آخر أكثر صلة بالخطاب السياسي. لأنه ، مرة أخرى ، تعتمد بنية Chat GPT على مجرد أخذ المعلومات من الإنترنت التي يمكن الحصول عليها مجانًا. وبعد ذلك ، فإن وجود بنية مركزية تُدار بواسطة Open AI ، لديها معضلة: إذا كنت تستخدم الإنترنت فقط واستخدمت أدوات الذكاء الاصطناعي الخاصة بك لتكوين جمل ، فمن المحتمل جدًا أن ينتهي بك الأمر بخطاب يحض على الكراهية بما في ذلك الصفات العرقية وكراهية النساء ، لأن الإنترنت مليء بذلك. لذا ، كيف تتعامل ChatGPT مع ذلك؟ حسنًا ، جلس مجموعة من المهندسين وقاموا بتطوير مجموعة أخرى من الأدوات ، تعتمد في الغالب على التعلم المعزز ، والتي تسمح لهم بالقول ، “لن يتم نطق هذه الكلمات.” هذا هو لغز النموذج المركزي. إما أن يبث أشياء بغيضة أو أن على شخص ما أن يقرر ما هو الكراهية بما فيه الكفاية. لكن هذا لن يفضي إلى أي نوع من الثقة في الخطاب السياسي. لأنه قد يتضح أن ثلاثة أو أربعة مهندسين – مجموعة من المعاطف البيضاء بشكل أساسي – يقررون ما يمكن أن يسمعه الناس في القضايا الاجتماعية والسياسية. أعتقد أنه يمكن استخدام أدوات الخراطيم بطريقة أكثر لامركزية ، بدلاً من رعاية الشركات المركزية الكبرى مثل Microsoft و Google و Amazon و Facebook.

بدلاً من الاستمرار في التحرك بسرعة وكسر الأشياء ، يجب على المبتكرين اتخاذ موقف أكثر تعمدًا ، كما تقول. هل هناك بعض اللاءات المحددة التي يجب أن توجه الخطوات التالية نحو الآلات الذكية؟

أسيموغلو: نعم. ومرة أخرى ، دعني أقدم لك توضيحًا باستخدام ChatGPT. أرادوا التغلب على جوجل[to market, understanding that] تم تطوير بعض التقنيات في الأصل بواسطة Google. وهكذا ، مضوا قدما وأطلقوا سراحه. يتم استخدامه الآن من قبل عشرات الملايين من الناس ، لكن ليس لدينا أي فكرة عن الآثار الأوسع لنماذج اللغة الكبيرة إذا تم استخدامها بهذه الطريقة ، أو كيف ستؤثر على الصحافة ، أو فصول اللغة الإنجليزية في المدارس المتوسطة ، أو ما هي الآثار السياسية. سوف يمتلكون. Google ليست شركتي المفضلة ، ولكن في هذه الحالة ، أعتقد أن Google ستكون أكثر حذراً. كانوا في الواقع يعيقون نموذجهم اللغوي الكبير. لكن Open AI ، أخذ صفحة من كتاب الرموز الخاص بـ “التحرك بسرعة وكسر الأشياء” على Facebook ، ألغى كل شيء. هل هذا شيء جيد؟ لا أعرف. نتيجة لذلك ، أصبحت Open AI شركة بمليارات الدولارات. لقد كانت دائمًا جزءًا من Microsoft في الواقع ، ولكن الآن تم دمجها في Microsoft Bing ، بينما خسرت Google ما يقرب من 100 مليار دولار في القيمة. لذا ، ترى البيئة الشديدة الخطورة التي نعيش فيها والحوافز التي تخلقها. لا أعتقد أنه يمكننا الوثوق في الشركات للتصرف بمسؤولية هنا دون تنظيم.

أكدت شركات التكنولوجيا أن الأتمتة ستضع البشر في دور إشرافي بدلاً من مجرد قتل جميع الوظائف. الروبوتات على الأرض والبشر في غرفة خلفية يشرفون على أنشطة الآلات. ولكن من الذي سيقول أن الغرفة الخلفية ليست عبر المحيط بدلاً من الجانب الآخر من الجدار – وهو الفصل الذي من شأنه أن يمكّن أصحاب العمل من خفض تكاليف العمالة عن طريق نقل الوظائف إلى الخارج؟

أسيموغلو: صحيح. أنا أتفق مع كل تلك البيانات. أود أن أقول ، في الواقع ، هذا هو العذر المعتاد لبعض الشركات المنخرطة في التشغيل الآلي الخوارزمي السريع. إنها لازمة شائعة. لكنك لن تخلق 100 مليون وظيفة للأشخاص المشرفين ، وتوفير البيانات ، والتدريب على الخوارزميات. الهدف من توفير البيانات والتدريب هو أن الخوارزمية يمكنها الآن القيام بالمهام التي اعتاد البشر القيام بها. هذا وصف مختلف تمامًا عما أنا عليه في التكامل البشري ، حيث تصبح الخوارزمية أداة للبشر.

“[Imagine] باستخدام الذكاء الاصطناعي … للجدولة في الوقت الفعلي والتي قد تأخذ شكل عقود ساعة الصفر. بعبارة أخرى ، أنا أوظفك ، لكني لا ألتزم بتزويدك بأي عمل .. “
—دارون أسيموجلو ، معهد ماساتشوستس للتكنولوجيا

وفقًا لـ “أضرار الذكاء الاصطناعي” ، استخدم المسؤولون التنفيذيون المدربون على اختراق تكاليف العمالة التكنولوجيا للمساعدة ، على سبيل المثال ، في تجنب قوانين العمل التي تفيد العمال. لنفترض ، جدولة نوبات العمال بالساعة بحيث لا يكاد يصل أي منهم إلى الحد الأسبوعي للساعات التي تجعلهم مؤهلين للحصول على تغطية التأمين الصحي التي يرعاها صاحب العمل و / أو أجر العمل الإضافي.

أسيموغلو: نعم ، أنا أتفق مع هذا البيان أيضًا. ومن الأمثلة الأكثر أهمية استخدام الذكاء الاصطناعي لمراقبة العمال ، وللجدولة في الوقت الفعلي والتي قد تتخذ شكل عقود ساعة الصفر. بعبارة أخرى ، أنا أوظفك ، لكني لا ألتزم بتزويدك بأي عمل. أنت موظف بلدي. لدي الحق في الاتصال بك. وعندما اتصل بك ، من المتوقع أن تحضر. لذا ، لنفترض أنني ستاربكس. سأتصل وأقول “ويلي ، تعال الساعة 8 صباحًا”. لكنني لست مضطرًا للاتصال بك ، وإذا لم أفعل ذلك لمدة أسبوع ، فلن تكسب أي أموال في هذا الأسبوع.

هل سيؤدي الانتشار المتزامن للذكاء الاصطناعي والتقنيات التي تمكن دولة المراقبة إلى الغياب التام للخصوصية وإخفاء الهوية ، كما تم تصويره في فيلم الخيال العلمي تقرير الأقلية؟

أسيموغلو: حسنًا ، أعتقد أنه حدث بالفعل. في الصين ، هذا هو بالضبط الوضع الذي يجد سكان المدن أنفسهم فيه. وفي الولايات المتحدة ، إنها في الواقع شركات خاصة. لدى Google الكثير من المعلومات عنك ويمكنها مراقبتك باستمرار ما لم تقم بإيقاف تشغيل الإعدادات المختلفة على هاتفك. كما أنه يستخدم باستمرار البيانات التي تتركها على الإنترنت أو على تطبيقات أخرى أو عند استخدام Gmail. لذلك ، هناك خسارة كاملة للخصوصية وإخفاء الهوية. يقول بعض الناس “أوه ، هذا ليس بهذا السوء. هذه شركات. هذا ليس مثل الحكومة الصينية. لكنني أعتقد أن ذلك يثير الكثير من المشكلات المتعلقة باستخدامهم البيانات للإعلانات الفردية والمستهدفة. من الصعب أيضًا بيع بياناتك إلى جهات خارجية.

في غضون أربع سنوات ، عندما يكون أطفالي على وشك التخرج من الكلية ، كيف سيغير الذكاء الاصطناعي خياراتهم المهنية؟

أسيموغلو: هذا يعود مباشرة إلى المناقشة السابقة مع ChatGPT. قد تؤدي برامج مثل GPT3 و GPT4 إلى قطع الكثير من الوظائف ولكن دون إجراء تحسينات إنتاجية ضخمة على مسارها الحالي. من ناحية أخرى ، كما ذكرت ، هناك مسارات بديلة من شأنها أن تكون في الواقع أفضل بكثير. إن تطورات الذكاء الاصطناعي ليست مقدرة. ليس الأمر وكأننا نعرف بالضبط ما سيحدث في السنوات الأربع المقبلة ، لكن الأمر يتعلق بالمسار. المسار الحالي يعتمد على الأتمتة. وإذا استمر ، فسيتم إغلاق الكثير من الوظائف أمام أطفالك. ولكن إذا كان المسار يسير في اتجاه مختلف ، وأصبح مكملًا للإنسان ، فمن يدري؟ ربما قد يكون لديهم بعض المهن الجديدة ذات المغزى للغاية المفتوحة لهم.

من مقالات موقعك

مقالات ذات صلة حول الويب


اكتشاف المزيد من عرب نيوز للتقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Related Articles

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button

اكتشاف المزيد من عرب نيوز للتقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading