تقنية

يقوم OpenAI بمشاركة بيانات مستخدمي ChatGPT الذين لديهم أفكار انتحارية أو ذهان


أصدرت OpenAI تقديرات جديدة لعدد مستخدمي ChatGPT الذين تظهر عليهم علامات محتملة لحالات الطوارئ المتعلقة بالصحة العقلية، بما في ذلك الهوس أو الذهان أو الأفكار الانتحارية.

وقالت الشركة إن حوالي 0.07% من مستخدمي ChatGPT النشطين في أسبوع معين أظهروا مثل هذه العلامات، مضيفة أن برنامج الدردشة الآلي الخاص بالذكاء الاصطناعي (AI) يتعرف على هذه المحادثات الحساسة ويستجيب لها.

بينما تؤكد OpenAI أن هذه الحالات “نادرة للغاية”، قال النقاد إن نسبة صغيرة منها قد تصل إلى مئات الآلاف من الأشخاص، حيث وصل ChatGPT مؤخرًا إلى 800 مليون مستخدم نشط أسبوعيًا، وفقًا لرئيسه Sam Altman.

ومع تزايد الأبحاث، قالت الشركة إنها قامت ببناء شبكة من الخبراء حول العالم لتقديم المشورة لها.

وقالت الشركة إن هؤلاء الخبراء يضمون أكثر من 170 طبيبًا نفسيًا وعلماء نفس وأطباء رعاية أولية مارسوا المهنة في 60 دولة.

لقد ابتكروا سلسلة من الاستجابات في ChatGPT لتشجيع المستخدمين على طلب المساعدة في العالم الحقيقي، وفقًا لـ OpenAI.

لكن إلقاء نظرة على بيانات الشركة أثار الدهشة بين بعض المتخصصين في مجال الصحة العقلية.

وقال الدكتور جيسون ناجاتا، الأستاذ الذي يدرس استخدام التكنولوجيا بين الشباب في جامعة كاليفورنيا، سان فرانسيسكو: “على الرغم من أن 0.07% تبدو كنسبة مئوية صغيرة، إلا أنه على مستوى السكان الذي يضم مئات الملايين من المستخدمين، يمكن أن يكون ذلك في الواقع عددًا لا بأس به من الأشخاص”.

وأضاف الدكتور ناجاتا: “يمكن للذكاء الاصطناعي أن يوسع نطاق الوصول إلى دعم الصحة العقلية، وفي بعض النواحي يدعم الصحة العقلية، ولكن علينا أن نكون على دراية بالقيود”.

وتقدر الشركة أيضًا أن 0.15% من مستخدمي ChatGPT لديهم محادثات تتضمن “مؤشرات صريحة لتخطيط أو نية انتحارية محتملة”.

قالت OpenAI إن التحديثات الأخيرة لبرنامج الدردشة الآلي الخاص بها مصممة “للاستجابة بأمان وتعاطف للعلامات المحتملة للوهم أو الهوس” وملاحظة “الإشارات غير المباشرة لاحتمال إيذاء النفس” أو خطر الانتحار.

تم تدريب ChatGPT أيضًا على إعادة توجيه المحادثات الحساسة “الناشئة من نماذج أخرى إلى نماذج أكثر أمانًا” عن طريق فتحها في نافذة جديدة.

ردًا على أسئلة بي بي سي حول الانتقادات المتعلقة بأعداد الأشخاص المحتمل تأثرهم، قالت OpenAI إن هذه النسبة الصغيرة من المستخدمين تمثل عددًا كبيرًا من الأشخاص، وأشارت إلى أنهم يأخذون التغييرات على محمل الجد.

تأتي التغييرات في الوقت الذي تواجه فيه OpenAI تدقيقًا قانونيًا متزايدًا حول الطريقة التي يتفاعل بها ChatGPT مع المستخدمين.

في واحدة من أبرز الدعاوى القضائية المرفوعة مؤخرًا ضد شركة OpenAI، رفع زوجان من كاليفورنيا دعوى قضائية ضد الشركة بسبب وفاة ابنهما المراهق زاعمين أن ChatGPT شجعه على الانتحار في أبريل.

تم رفع الدعوى من قبل والدي آدم رين البالغ من العمر 16 عامًا وكانت أول إجراء قانوني يتهم شركة OpenAI بالقتل غير المشروع.

وفي قضية منفصلة، ​​نشر المشتبه به في جريمة القتل والانتحار التي وقعت في أغسطس في غرينتش بولاية كونيتيكت ساعات من محادثاته مع ChatGPT، والتي يبدو أنها غذت أوهام الجاني المزعوم.

وقال البروفيسور روبن فيلدمان، مدير معهد قانون الذكاء الاصطناعي والابتكار في جامعة كاليفورنيا للقانون، إن المزيد من المستخدمين يعانون من ذهان الذكاء الاصطناعي لأن “روبوتات الدردشة تخلق وهم الواقع”. “إنه وهم قوي.”

وقالت إن OpenAI تستحق الثناء على “مشاركة الإحصائيات والجهود المبذولة لتحسين المشكلة”، لكنها أضافت: “يمكن للشركة وضع جميع أنواع التحذيرات على الشاشة، لكن الشخص المعرض للخطر عقليًا قد لا يتمكن من الاستجابة لهذه التحذيرات”.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى