هذا لا يتعلق بشيطانية الذكاء الاصطناعي أو الإشارة إلى أن هذه الأدوات خطرة بطبيعتها على الجميع. يستخدم الملايين مساعدي الذكاء الاصطناعى بشكل مثمر للترميز والكتابة والفأر دون وقوع حادث كل يوم. المشكلة محددة ، وتتضمن المستخدمين المستضعفين ، ونماذج اللغة الكبرى sycophant ، وحلقات التغذية المرتدة الضارة.
الجهاز الذي يستخدم اللغة بشكل سائل ، بشكل مقنع ، والبلده هو نوع من المخاطر التي لم تصادفها في تاريخ الإنسانية. من المحتمل أن يكون لدى معظمنا دفاعات فطرية ضد التلاعب – نحن نتساءل عن الدوافع ، والشعور عندما يكون شخص ما مقبولًا للغاية ، ويعترف بالخداع. بالنسبة لكثير من الناس ، تعمل هذه الدفاعات بشكل جيد حتى مع الذكاء الاصطناعي ، ويمكنهم الحفاظ على الشكوك الصحية حول مخرجات chatbot. لكن هذه الدفاعات قد تكون أقل فعالية ضد نموذج الذكاء الاصطناعى مع عدم وجود دوافع للكشف ، ولا توجد شخصية ثابتة للقراءة ، ولا يروي أي بيولوجي مراقبة. يمكن أن تلعب LLM أي دور ، ويحاكي أي شخصية ، وتكتب أي خيال بنفس السهولة.
على عكس قاعدة بيانات الكمبيوتر التقليدية ، لا يسترجع نموذج لغة الذكاء الاصطناعي البيانات من كتالوج “حقائق” مخزنة ؛ يولد المخرجات من الارتباطات الإحصائية بين الأفكار. تكليف بإكمال إدخال المستخدم يسمى “موجه” ، تنشئ هذه النماذج نصًا معقولًا إحصائياً استنادًا إلى البيانات (الكتب ، تعليقات الإنترنت ، نصوص YouTube) التي يتم تغذيتها في شبكاتها العصبية أثناء عملية التدريب الأولية والضغط اللاحق. عندما تكتب شيئًا ما ، يستجيب النموذج لمدخلاتك بطريقة تكمل نسخة محادثة بطريقة متماسكة ، ولكن دون أي ضمان للدقة الواقعية.
والأكثر من ذلك ، أن المحادثة بأكملها تصبح جزءًا مما يتم تغذيته مرارًا وتكرارًا في النموذج في كل مرة تتفاعل معها ، لذلك كل ما تفعله به يشكل ما يخرج ، وإنشاء حلقة تعليقات تعكس وتضخّم أفكارك الخاصة. لا يوجد لدى النموذج ذكرى حقيقية لما تقوله بين الردود ، وشبكته العصبية لا تخزن المعلومات عنك. إنه يتفاعل فقط مع مطالبة متزايدة باستمرار يتم تغذيتها من جديد في كل مرة تضيف فيها إلى المحادثة. أي “ذكريات” مساعدي الذكاء الاصطناعى تحتفظ بك فيك جزء من موجه الإدخال هذا ، يتم تغذيته في النموذج بواسطة مكون برنامج منفصل.