أخبار التقنية

ويكيبيديا + الذكاء الاصطناعي = الحقيقة؟ تأمل DuckDuckGo في ذلك باستخدام برنامج إجابة جديد


تكبير / صورة تم إنشاؤها بواسطة الذكاء الاصطناعي لبطة سايبورغ.

آرس تكنيكا

أعلنت DuckDuckGo يوم الأربعاء عن DuckAssist ، وهي خدمة ملخص وقائعي مدعومة بالذكاء الاصطناعي ومدعومة بتقنية من Anthropic و OpenAI ، حتى لا تُترك خارج الاندفاع لدمج الذكاء الاصطناعي التوليدي في البحث. إنه متاح مجانًا اليوم كاختبار تجريبي واسع لمستخدمي ملحقات متصفح DuckDuckGo وتطبيقات التصفح. نظرًا لكونها مدعومة بنموذج AI ، تعترف الشركة أن DuckAssist قد تصنع الأشياء ولكنها تأمل أن يحدث ذلك نادرًا.

وإليك كيفية عملها: إذا قام مستخدم DuckDuckGo بالبحث عن سؤال يمكن الإجابة عليه بواسطة Wikipedia ، فقد يظهر DuckAssist ويستخدم تقنية الذكاء الاصطناعي للغة الطبيعية لإنشاء ملخص موجز لما يجده في ويكيبيديا ، مع روابط المصدر المدرجة أدناه. يظهر الملخص أعلى نتائج البحث العادية لـ DuckDuckGo في مربع خاص.

تضع الشركة DuckAssist كشكل جديد من “الإجابات الفورية” — وهي ميزة تمنع المستخدمين من البحث في نتائج بحث الويب للعثور على معلومات سريعة حول مواضيع مثل الأخبار والخرائط والطقس. بدلاً من ذلك ، يقدم محرك البحث نتائج الإجابات الفورية أعلى القائمة المعتادة لمواقع الويب.

لقطة شاشة توضيحية لتطبيق DuckAssist أثناء العمل.
تكبير / لقطة شاشة توضيحية لتطبيق DuckAssist أثناء العمل.

DuckDuckGo

لا يذكر DuckDuckGo نموذج اللغة الكبيرة (LLM) أو النماذج التي يستخدمها لإنشاء DuckAssist ، على الرغم من احتمال وجود بعض أشكال OpenAI API. تواصلت Ars Technica مع ممثلي DuckDuckGo للتوضيح. لكن الرئيس التنفيذي لشركة DuckDuckGo Gabriel Weinberg يشرح كيف تستخدم المصادر في منشور مدونة الشركة:

يجيب DuckAssist على الأسئلة عن طريق مسح مجموعة محددة من المصادر – في الوقت الحالي هذا عادةً ويكيبيديا ، وأحيانًا المواقع ذات الصلة مثل بريتانيكا – باستخدام الفهرسة النشطة لـ DuckDuckGo. نظرًا لأننا نستخدم تقنية اللغة الطبيعية من OpenAI و Anthropic لتلخيص ما نجده في ويكيبيديا ، يجب أن تكون هذه الإجابات أكثر استجابة لسؤالك الفعلي بشكل مباشر من نتائج البحث التقليدية أو الإجابات الفورية الأخرى.

نظرًا لأن نقطة البيع الرئيسية لـ DuckDuckGo هي الخصوصية ، فإن الشركة تقول أن DuckAssist “مجهول” وتؤكد أنها لا تشارك محفوظات البحث أو التصفح مع أي شخص. كتب وينبيرج: “نحتفظ أيضًا بسجل البحث والتصفح الخاص بك مجهولاً لشركائنا في محتوى البحث ،” في هذه الحالة ، OpenAI و Anthropic ، يُستخدمان لتلخيص جمل Wikipedia التي نحددها. “

إذا كان DuckDuckGo يستخدم OpenAI’s GPT-3 أو واجهة برمجة تطبيقات ChatGPT ، فقد يقلق المرء من أن الموقع قد يرسل استعلام كل مستخدم إلى OpenAI في كل مرة يتم استدعاؤه. لكن عند القراءة بين السطور ، يبدو أنه يتم إرسال مقالة ويكيبيديا فقط (أو مقتطف منها) إلى OpenAI للتلخيص ، وليس بحث المستخدم نفسه. لقد تواصلنا مع DuckDuckGo لتوضيح هذه النقطة أيضًا.

يصف DuckDuckGo DuckAssist بأنه “الأول في سلسلة من الميزات المدعومة بالذكاء الاصطناعي التي نأمل طرحها في الأشهر المقبلة.” إذا سارت عملية الإطلاق بشكل جيد – ولم يكسرها أحد بمطالبات معادية – تخطط DuckDuckGo لطرح الميزة لجميع مستخدمي البحث “في الأسابيع المقبلة”.

DuckDuckGo: خطر الإصابة بالهلوسة “يتضاءل إلى حد كبير”

كما غطينا سابقًا في Ars ، تميل LLMs إلى إنتاج نتائج خاطئة مقنعة ، والتي يسميها باحثو الذكاء الاصطناعي “الهلوسة” كمصطلح فني في مجال الذكاء الاصطناعي. قد يكون من الصعب اكتشاف الهلوسة إلا إذا كنت تعرف أن المادة يتم الرجوع إليها ، وهي تحدث جزئيًا لأن LLMs على غرار GPT من OpenAI لا تميز بين الحقيقة والخيال في مجموعات البيانات الخاصة بهم. بالإضافة إلى ذلك ، يمكن للنماذج تقديم استنتاجات خاطئة بناءً على بيانات دقيقة بخلاف ذلك.

حول هذه النقطة ، يأمل DuckDuckGo في تجنب الهلوسة من خلال الاعتماد بشدة على ويكيبيديا كمصدر: “من خلال مطالبة DuckAssist بتلخيص المعلومات من ويكيبيديا والمصادر ذات الصلة فقط ،” يكتب واينبرغ ، “احتمالية” الهلوسة “- أي فقط يصنع شيئًا ما – يتضاءل إلى حد كبير “.

في حين أن الاعتماد على مصدر جودة للمعلومات قد يقلل من الأخطاء من المعلومات الخاطئة في مجموعة بيانات الذكاء الاصطناعي ، إلا أنه قد لا يقلل من المراجع الخاطئة. ويضع DuckDuckGo عبء التحقق من الحقائق على عاتق المستخدم ، حيث يوفر رابط مصدر أسفل النتيجة التي تم إنشاؤها بواسطة AI والتي يمكن استخدامها لفحص دقتها. لكنها لن تكون مثالية ، ويقر الرئيس التنفيذي وينبيرج بذلك: “ومع ذلك ، لن تقدم DuckAssist إجابات دقيقة طوال الوقت. نتوقع تمامًا أن ترتكب أخطاء.”

نظرًا لأن المزيد من الشركات تنشر تقنية LLM التي يمكن أن تقدم معلومات مضللة بسهولة ، فقد يستغرق الأمر بعض الوقت واستخدامها على نطاق واسع قبل أن تقرر الشركات والعملاء مستوى الهلوسة الذي يمكن تحمله في منتج مدعوم بالذكاء الاصطناعي مصمم لإعلام الناس بشكل واقعي.


اكتشاف المزيد من عرب نيوز للتقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من عرب نيوز للتقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading