ولكن على الرغم من حديث OpenAI عن دعم الأهداف الصحية، فإن شروط الخدمة الخاصة بالشركة تنص بشكل مباشر على أن ChatGPT وخدمات OpenAI الأخرى “ليست مخصصة للاستخدام في تشخيص أو علاج أي حالة صحية”.
يبدو أن السياسة لا تتغير مع ChatGPT Health. كتبت OpenAI في إعلانها: “تم تصميم الصحة لدعم الرعاية الطبية، وليس استبدالها. وليس المقصود منها التشخيص أو العلاج. وبدلاً من ذلك، فهي تساعدك على التنقل بين الأسئلة اليومية وفهم الأنماط بمرور الوقت – وليس فقط لحظات المرض – حتى تتمكن من الشعور بمزيد من المعرفة والاستعداد للمحادثات الطبية المهمة.”
حكاية تحذيرية
يوضح تقرير SFGate حول وفاة سام نيلسون مدى أهمية الحفاظ على إخلاء المسؤولية من الناحية القانونية. وفقًا لسجلات الدردشة التي استعرضتها المجلة، سأل نيلسون ChatGPT لأول مرة عن جرعات الأدوية الترفيهية في نوفمبر 2023. رفض مساعد الذكاء الاصطناعي في البداية ووجهه إلى متخصصي الرعاية الصحية. ولكن على مدار 18 شهرًا من المحادثات، تغيرت ردود ChatGPT. في نهاية المطاف، أخبره برنامج الدردشة الآلي بأشياء مثل “نعم، دعنا نذهب إلى الوضع الثلاثي الكامل” وأوصى بمضاعفة كمية شراب السعال الذي يتناوله. عثرت عليه والدته ميتًا بسبب جرعة زائدة في اليوم التالي لبدء علاج الإدمان.
في حين أن حالة نيلسون لم تتضمن تحليل تعليمات الرعاية الصحية التي أقرها الطبيب مثل النوع الذي ستربطه ChatGPT Health ومع ذلك، فإن حالته ليست فريدة من نوعها، حيث تم تضليل العديد من الأشخاص بواسطة برامج الدردشة الآلية التي تقدم معلومات غير دقيقة أو تشجع سلوك خطير، كما غطينا في الماضي.
وذلك لأن نماذج لغة الذكاء الاصطناعي يمكن أن تخلط بسهولة، وتولد معلومات معقولة ولكنها خاطئة بطريقة تجعل من الصعب على بعض المستخدمين التمييز بين الحقيقة والخيال. تستخدم نماذج الذكاء الاصطناعي التي تقدمها خدمات مثل ChatGPT العلاقات الإحصائية في بيانات التدريب (مثل النصوص من الكتب، ونصوص YouTube، ومواقع الويب) لإنتاج استجابات معقولة بدلاً من استجابات دقيقة بالضرورة. علاوة على ذلك، يمكن أن تختلف مخرجات ChatGPT بشكل كبير اعتمادًا على من يستخدم برنامج الدردشة الآلي وما حدث مسبقًا في سجل الدردشة الخاص بالمستخدم (بما في ذلك الملاحظات حول الدردشات السابقة).




