منذ أن أطلقت OpenAI برنامج الدردشة ChatGPT الخاص بها في نوفمبر 2022 ، تم استخدامه من قبل الناس لمساعدتهم على كتابة كل شيء من القصائد إلى رسائل البريد الإلكتروني الخاصة بالعمل إلى الأوراق البحثية. ومع ذلك ، في حين أن ChatGPT قد تتنكر كإنسان ، فإن دقة كتابتها يمكن أن تؤدي إلى أخطاء قد تكون مدمرة إذا تم استخدامها في مهام جادة مثل الكتابة الأكاديمية.
طور فريق من الباحثين من جامعة كانساس أداة للتخلص من الكتابة الأكاديمية الناتجة عن الذكاء الاصطناعي من الأشياء التي يكتبها الأشخاص ، بدقة تزيد عن 99 بالمائة. تم نشر هذا العمل في 7 يونيو في المجلة تقارير الخلية العلوم الفيزيائية.
تقول هيذر ديزاير ، أستاذة الكيمياء بجامعة كانساس والمؤلفة الرئيسية للورقة البحثية الجديدة ، إنه على الرغم من “إعجابها حقًا” بالعديد من نتائج ChatGPT ، فإن حدود دقتها هي التي دفعتها إلى تطوير أداة تعريف جديدة . . تقول: “أدوات إنشاء نصوص الذكاء الاصطناعي مثل ChatGPT ليست دقيقة طوال الوقت ، ولا أعتقد أنه سيكون من السهل جدًا جعلها تنتج معلومات دقيقة فقط”.
يقول ديزاير: “في العلم – حيث نبني على المعرفة العامة لكوكب الأرض – أتساءل ما هو التأثير إذا تم الاستعانة بشكل كبير بتوليد نصوص الذكاء الاصطناعي في هذا المجال”. “بمجرد وضع المعلومات غير الدقيقة في مجموعة تدريب على الذكاء الاصطناعي ، سيكون من الصعب التمييز بين الحقيقة والخيال.”
“بعد حين، [the ChatGPT-generated papers] لديهم شعور رتيب حقًا لهم “. – هيذر ديزاير ، جامعة كانساس
من أجل محاكاة الكتابة التي يولدها الإنسان بشكل مقنع ، يتم تدريب روبوتات المحادثة مثل ChatGPT على رزم من أمثلة النص الحقيقي. في حين أن النتائج غالبًا ما تكون مقنعة للوهلة الأولى ، يمكن لأدوات التعلم الآلي الحالية أن تحدد بشكل موثوق العلامات المنذرة لتدخل الذكاء الاصطناعي ، مثل استخدام لغة أقل عاطفية.
ومع ذلك ، فإن الأدوات الحالية مثل كاشف التعلم العميق RoBERTa لديها تطبيق محدود في الكتابة الأكاديمية ، كما كتب الباحثون ، لأن الكتابة الأكاديمية من المرجح بالفعل أن تحذف اللغة العاطفية. في الدراسات السابقة للملخصات الأكاديمية التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، كانت دقة RoBERTa تقارب 80٪.
لسد هذه الفجوة ، طورت ديزاير وزملاؤها أداة للتعلم الآلي تتطلب بيانات تدريب محدودة. لإنشاء بيانات التدريب ، جمع الفريق 64 مقالاً من مجلة Perspectives – حيث يقدم العلماء تعليقًا على بحث جديد – من المجلة علوم، واستخدمت هذه المقالات لإنشاء 128 عينة ChatGPT. تضمنت عينات ChatGPT هذه 1276 فقرة نصية لأداة الباحثين لفحصها.
بعد تحسين النموذج ، اختبره الباحثون على مجموعتي بيانات تحتوي كل منهما على 30 مقالة أصلية كتبها الإنسان و 60 مقالة تم إنشاؤها بواسطة ChatGPT. في هذه الاختبارات ، كان النموذج الجديد دقيقًا بنسبة 100 في المائة عند الحكم على المقالات الكاملة ، ودقيقًا بنسبة 97 و 99 في المائة في مجموعات الاختبار عند تقييم الفقرة الأولى فقط من كل مقالة. في المقابل ، كانت دقة RoBERTa 85 و 88 بالمائة فقط في مجموعات الاختبار.
من هذا التحليل ، حدد الفريق أن طول الجملة وتعقيدها كانا بضع علامات منبهة للكتابة بالذكاء الاصطناعي مقارنة بالبشر. ووجدوا أيضًا أن الكتاب البشريين كانوا أكثر ميلًا لتسمية زملائهم في كتاباتهم ، بينما كان من المرجح أن يستخدم ChatGPT مصطلحات عامة مثل “باحثون” أو “آخرون”.
بشكل عام ، يقول ديزاير إن هذا جعل الكتابة مملة أكثر. تقول: “بشكل عام ، أود أن أقول إن الأوراق التي كتبها الإنسان كانت أكثر جاذبية”. “يبدو أن الأوراق المكتوبة بواسطة الذكاء الاصطناعي تقلل التعقيد ، للأفضل أو للأسوأ. لكن بعد فترة ، كان لديهم شعور رتيب حقًا تجاههم.
يأمل الباحثون أن يكون هذا العمل دليلاً على الممارسة التي يمكن الاستفادة منها حتى الأدوات الجاهزة لتحديد العينات التي تم إنشاؤها بواسطة الذكاء الاصطناعي دون معرفة واسعة بالتعلم الآلي.
ومع ذلك ، قد تكون هذه النتائج واعدة فقط على المدى القصير. لاحظ Desaire وزملاؤه أن هذا السيناريو لا يزال مجرد جزء صغير من نوع الكتابة الأكاديمية التي يمكن أن يقوم بها ChatGPT. على سبيل المثال ، إذا طُلب من ChatGPT كتابة مقالة منظور بأسلوب عينة بشرية معينة ، فقد يكون من الصعب تحديد الفرق.
تقول ديزاير إنها تستطيع رؤية مستقبل يتم فيه استخدام الذكاء الاصطناعي مثل ChatGPT بشكل أخلاقي ، لكنها تقول إن أدوات تحديد الهوية ستحتاج إلى الاستمرار في النمو باستخدام التكنولوجيا لجعل ذلك ممكنًا.
“أعتقد أنه يمكن الاستفادة منه بأمان وفعالية بنفس الطريقة التي نستخدم بها التدقيق الإملائي الآن. يمكن للذكاء الاصطناعي تحرير مسودة كاملة بشكل أساسي كمراجعة أخيرة من أجل الوضوح “. “إذا قام الأشخاص بذلك ، فعليهم التأكد تمامًا من عدم وجود أخطاء واقعية في هذه الخطوة ، وأنا قلق من أن خطوة التحقق من الحقائق هذه قد لا تتم دائمًا بدقة.”
من مقالات موقعك
مقالات ذات صلة حول الويب
اكتشاف المزيد من عرب نيوز للتقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.