بالأمس ، في حدث تم بثه على الهواء مباشرة ، ناقش دان أودود – ملياردير برمجيات وناقد لاذع لتقنيات القيادة الذاتية المزعومة لشركة تسلا موتورز – روس جيربر ، المصرفي الاستثماري الذي يدعم الشركة. جاء التحدي الحقيقي بعد حديثهما ، عندما دخل الرجلان في سيارة Tesla Model S واختبروا برمجياتها للقيادة الذاتية الكاملة (FSD) – وهي تقنية قيادة ذاتية القيادة أو شبه ذاتية القيادة تمثل النهاية الراقية لمجموعة مساعدة السائق. ميزات الشركة تسميها “الطيار الآلي” و الطيار الآلي المتقدم. تدقيق FSD الذي يجلبه O’Dowd للتأثير على صانع EV هو الأحدث في سلسلة من الضربات الأخيرة – بما في ذلك دعوى قضائية لمساهمي Tesla حول وعود FSD المبالغ فيها ، ومزاعم داخلية عن التزوير في الأحداث الترويجية FSD ، وبيانات الشركة الأخيرة تسرب يتضمن الآلاف من شكاوى عملاء FSD.
في الحدث الذي تم بثه مباشرة يوم أمس ، قال O’Dowd إن FSD لا تفعل ما يوحي به اسمها ، وأن ما تفعله ، يؤدي بشكل سيء بما يكفي لتعريض الأرواح للخطر. وافق جربر. لقد أحبها بدلاً من سائق الطالب ، والإنسان خلف عجلة القيادة لمدرب القيادة.
لقد أبلغنا عن العشرات من الأخطاء ، وإما أنهم لا يستطيعون إصلاحها أو لا يفعلون ذلك. إذا كانت “لن تفعل” ، فهذا أمر إجرامي ؛ إذا كان الأمر “لا يمكن” ، فهذا ليس أفضل بكثير “.
– دان أودود ، مشروع الفجر
في الاختبارات ، أخذ جربر عجلة القيادة ، وركب O’Dowd بندقيته ، وقادوا السيارة حول سانتا باربرا ، كاليفورنيا – أو تم قيادتهم ، إذا صح التعبير ، بمساعدة جربر. في مقطع فيديو نشره الفريق على الإنترنت ، قاموا بتغطية الطرق والطرق السريعة متعددة المسارات ومنطقة عبور المشاة. في مرحلة ما مروا بسيارة إطفاء ، أخطأ برنامج السيارة في اعتبارها مجرد شاحنة: حشرة ، على الرغم من عدم تعرض أحد للخطر. غالبًا ما يتم إيقاف السيارة بقوة ، وهو أمر أصعب مما قد يفعله السائق البشري. وذات مرة ، ركضت لافتة توقف.
بمعنى آخر ، لا تريد أن تغفو أثناء قيادة FSD. وإذا كنت تستمع إلى O’Dowd ، فأنت لا تريد FSD في سيارتك على الإطلاق.
يقول O’Dowd إنه يحب سيارات Tesla ، وليس برامجها. وأشار إلى أنه اشترى سيارة تيسلا رودستر في عام 2010 ، عندما كانت لا تزال السيارة الكهربائية الوحيدة الموجودة ، وأنه لم يقود أي سيارة أخرى حتى يومنا هذا. اشترى زوجته سيارة Tesla Model S في عام 2012 ، وما زالت تقود أي شيء آخر.
لقد سمع عن نظام القيادة الذاتية للشركة ، المعروف في الأصل باسم AutoPilot ، في سنواته الأولى ، لكنه لم يستخدمه أبدًا. لم يستطع سيارة Roadster الخاصة به تشغيل البرنامج. لقد لاحظ فقط عندما علم أن البرنامج متورط في حوادث. في عام 2021 أطلق مشروع Dawn ، وهو منظمة غير ربحية ، للتحقيق ، ووجد الكثير من الأخطاء في البرنامج. نشر دود النتائج ، ونشر إعلانًا في صحيفة نيويورك تايمز وإعلانًا تجاريًا خلال Super Bowl. حتى أنه لعب بحملة من قضية واحدة لمجلس الشيوخ الأمريكي.
إنه يشعر بالإهانة جزئياً مما يعتبره استخدام برامج غير موثوقة في التطبيقات ذات المهام الحرجة. لكن لاحظ جيدًا أن شركته متخصصة في موثوقية البرامج ، وهذا يعطيه اهتمامًا بالترويج للموضوع.
التقينا مع O’Dowd في منتصف يونيو ، عندما كان يستعد للبث المباشر.
طيف IEEE: ما الذي بدأته؟
كشف مشروع Dawn الخاص بـ Dan O’Dowd عن مجموعة من الأخطاء في برنامج Tesla “للقيادة الذاتية الكاملة”.
دان اودود: في أواخر عام 2020 هم [Tesla Motors] أنشأ موقعًا تجريبيًا ، وأخذ 100 من مشجعي Tesla وقالوا ، جربه. وقد فعلوا ، وفعلوا الكثير من الأشياء السيئة حقًا ؛ ركضت الأضواء الحمراء. ولكن بدلاً من حل المشكلات ، وسعت Tesla الاختبار ليشمل 1000 شخص. والآن امتلكه الكثير من الناس ، ووضعوا الكاميرات في السيارات ووضعوها على الإنترنت. كانت النتائج مروعة فقط: لقد حاولت أن تصطدم بالجدران ، وتتشقق. في وقت ما من عام 2021 ، في منتصف العام تقريبًا ، اعتقدت أنه لا ينبغي طرحه في السوق.
هذا عندما أسست مشروع Dawn. هل يمكنك إعطاء مثال على ما اكتشفه بحثها؟
أود: كنت في [Tesla] السيارة ، كراكب ، تم اختبارها على طريق ريفي ، واقتربت سيارة BMW. عندما كانت تقترب منا ، قررت سيارتنا أن تنعطف يسارًا. لم تكن هناك طرق جانبية ، ولا ممرات انعطاف يسار ، كان طريق ذو مسارين ؛ لدينا فيديو. أدارت سيارة Tesla عجلة القيادة لعبور الخط الأصفر ، وأطلق السائق صرخة. أمسك بالعجلة ، ليمنعنا من تجاوز الخط الأصفر ، وينقذ حياتنا ؛ كان لديه 0.4 ثانية للقيام بذلك.
لقد أجرينا اختبارات خلال العام الماضي. “بالنسبة لحافلة مدرسية مع أطفال ينزلون منها ، أظهرنا أن سيارة تسلا ستمر في الماضي تمامًا ، متجاهلين تمامًا علامة” منطقة المدرسة “، واستمروا في القيادة بسرعة 40 ميلاً في الساعة .
هل عكست اختباراتك الأحداث في العالم الحقيقي؟
أود: في شهر آذار (مارس) ، في ولاية كارولينا الشمالية ، مرت سيارة تسلا ذاتية القيادة عبر حافلة مدرسية مع وميض أضواءها الحمراء واصطدمت بطفل على الطريق ، تمامًا كما أظهرنا في إعلان Super Bowl الخاص بنا. لم يتعافى الطفل وقد لا يتعافى تمامًا. ولا تزال تسلا تؤكد أن FSD لن تتخطى حافلة مدرسية بأضوائها الساطعة وعلامة التوقف ممتدة ، ولن تصطدم بطفل يعبر الطريق. يُظهر فشل تسلا في إصلاح أو حتى الاعتراف بعيوب الأمان البشعة هذه اللامبالاة الفاسدة بحياة الإنسان.
ما عليك سوى ركوب تلك السيارة وقيادتها ، وفي غضون 20 دقيقة ستفعل شيئًا غبيًا. لقد أبلغنا عن العشرات من الأخطاء ، وإما أنهم لا يستطيعون إصلاحها أو لا يفعلون ذلك. إذا كانت “لن تفعل” ، فهذا أمر إجرامي ؛ إذا كان الأمر “لا يمكن” ، فهذا ليس أفضل بكثير.
هل لديك لحم بقري مع السيارة نفسها ، أي مع جانبها الميكانيكي؟
أود: قم بإخراج البرنامج ، وستظل لديك سيارة جيدة تمامًا – واحدة من تلك السيارات أنت يجب أن تقود.
هل معدل الحوادث المرتبط بعدد سيارات تسلا على الطريق بهذا السوء حقًا؟ هناك مئات الآلاف من سيارات Teslas على الطريق. مشاريع السيارات ذاتية القيادة الأخرى أصغر بكثير.
O’Dowd: عليك أن تميز. هناك بالفعل سيارات بدون سائق ، حيث لا يجلس أحد في مقعد السائق. بالنسبة لسيارة Tesla ، فأنت بحاجة إلى سائق ، ولا يمكنك النوم ؛ إذا قمت بذلك ، ستتحطم السيارة قريبًا. حصلت مرسيدس للتو على ترخيص في كاليفورنيا لقيادة سيارة لا تحتاج إلى أن تكون يديك على عجلة القيادة. مسموح به ، مع وجود قيود – على سبيل المثال ، على الطرق السريعة فقط.
“لا يوجد اختبار الآن للبرامج في السيارات. ليس كما هو الحال في الطائرات ، فهم يدرسون شفرة المصدر “.
– دان أودود ، مشروع الفجر
يتحدث Tesla عن اكتشاف النقاط العمياء ، والفرملة الأمامية في حالات الطوارئ ، ومجموعة كاملة من الميزات – تسمى مساعدة السائق. لكن كل سيارة تخرج الآن بها هذه الأشياء ؛ هناك نتائج أسوأ من تسلا. لكنها تسمي مجموعتها ذاتية القيادة الكاملة ، حيث تظهر مقاطع الفيديو أشخاصًا بدون أيديهم على عجلة القيادة. يجب أن تثبت أنك مستيقظ بلمس العجلة ؛ ولكن يمكنك شراء وزن على أمازون للتعليق على عجلة القيادة للالتفاف على ذلك.
كيف يمكن تطوير مشروع القيادة الذاتية وطرحه بأمان؟ هل تؤيد الاستخدام المبكر في مجالات محدودة للغاية؟
O’Dowd: أعتقد أن وايمو يفعل ذلك ؛ كروز يفعل ذلك. تم قيادة Waymo منذ 5 سنوات في تشاندلر ، أريزونا ، حيث نادراً ما تمطر ، والطرق جديدة وواسعة ، وإشارات المرور طبيعية وموحدة. استخدموه هناك لسنوات وسنوات. بعض الناس سخروا منهم للاختبار في مكان بحجم طابع البريد. لا أعتقد أنه كان خطأ – أعتقد أنه كان حذرًا. حاول Waymo قضية سهلة أولاً. ثم توسعت إلى فينيكس ، وهي أيضًا سهلة نسبيًا ، إنها مدينة نشأت بعد ظهور السيارة. لكنهم الآن في سان فرانسيسكو ، مدينة صعبة للغاية بها جميع أنواع التقاطعات المجنونة. لقد كانوا يعملون بشكل جيد ، ولم يقتلوا أحداً ، هذا جيد: كانت هناك بعض الحوادث. لكنها مدينة صعبة للغاية.
أعلن كروز للتو أنهم سيفتحون دالاس وهيوستن. إنهم يتوسعون – كانوا على طابع بريدي ، ثم انتقلوا إلى مدن سهلة ، ثم إلى مدن أصعب. نعم هم [Waymo and Cruise] يتحدثون عن ذلك ، لكنهم لا يقفزون لأعلى ولأسفل مدعين أنهم يحلون مشاكل العالم.
ماذا حدث عندما قدمت نتائج الاختبار إلى الإدارة الوطنية لسلامة النقل على الطرق السريعة؟
O’Dowd: يقولون إنهم يدرسونها. لقد مضى أكثر من عام منذ أن قدمنا البيانات ، وسنوات منذ وقوع الحوادث الأولى. لكن لم ترد تقارير ولا تعليقات مؤقتة. يقولون “لا يمكننا التعليق على التحقيق الجاري”.
لا يوجد اختبار الآن للبرامج في السيارات. ليس كما هو الحال في الطائرات ، فهم يدرسون شفرة المصدر. العديد من المنظمات تنظر إليه عدة مرات.
لنفترض أنك ربحت جدالتك مع تسلا. ماذا بعد؟
O’Dowd: لقد قمنا بتوصيل كل شيء بالإنترنت وجعلنا أجهزة الكمبيوتر مسؤولة عن الأنظمة الكبيرة. يبني الناس نظامًا حرجًا للسلامة ، ثم يضعون منتجًا برمجيًا تجاريًا رخيصًا في منتصفه. إنه تمامًا مثل وضع مسمار ملولب دون المستوى في طائرة.
المستشفيات هي حقا مشكلة كبيرة. تحتاج برامجهم إلى أن تكون أكثر صلابة. يتم تهديدهم ببرامج الفدية طوال الوقت: يدخل المتسللون ، ويستولون على بياناتك ، ليس لبيعها للآخرين ولكن لبيعها لك مرة أخرى. يجب استبدال هذا البرنامج ببرنامج تم تصميمه مع مراعاة حياة الناس.
شبكة الطاقة مهمة ، وربما الأهم ، لكن من الصعب إثبات أنها ضعيفة للناس. إذا قمت باختراقها ، فسوف يعتقلونني. لا أعرف أي أمثلة على شخص ما أغلق شبكة ببرامج ضارة.
من مقالات موقعك
مقالات ذات صلة حول الويب