الذكاء الاصطناعي

محركات البحث بالذكاء الاصطناعي دقة متذبذبة ومصادر غير موثوقة

Published

on

أصبحت محركات البحث القائمة على نماذج الذكاء الاصطناعي التوليدي بديلًا متزايد الاستخدام مقارنة بالمحركات التقليدية، حيث تجذب المستخدمين الذين يبحثون عن معلومات بسرعة وسهولة. إلا أن دراسة حديثة صادرة عن مركز تاو للصحافة الرقمية التابع لجامعة كولومبيا كشفت عن تراجع دقة هذه الأدوات، خاصة عند استخدامها كمصدر للأخبار.

محركات البحث بالذكاء الاصطناعي دقة متذبذبة ومصادر غير موثوقة

محركات البحث بالذكاء الاصطناعي دقة متذبذبة ومصادر غير موثوقة

قام الباحثون باختبار ثمانية أدوات تعتمد على الذكاء الاصطناعي في البحث المباشر، وهي: ChatGPT Search، وPerplexity، وPerplexity Pro، وDeepSeek Search، وGemini، وGrok-2 Search، وGrok-3 Search، وCopilot. وشملت الدراسة 1600 استفسار حول مقالات إخبارية حقيقية.

وأظهرت النتائج أن هذه النماذج قدمت إجابات غير صحيحة لأكثر من 60% من الاستفسارات المتعلقة بالمصادر الإخبارية، حيث تراوحت نسب الأخطاء بين 37% في نموذج Perplexity و94% في نموذج Grok-3، بينما سجل ChatGPT Search نسبة خطأ بلغت 67%.

إصرار على الإجابة حتى عند غياب المعلومات

أحد أكثر الجوانب المثيرة للقلق في الدراسة كان ميل نماذج الذكاء الاصطناعي إلى تقديم إجابات تبدو معقولة لكنها غير دقيقة، بدلاً من الاعتراف بعدم امتلاك معلومات موثوقة. ولم يكن هذا السلوك مقتصرًا على نموذج معين، بل كان سمة عامة بين جميع النماذج التي جرى اختبارها.

والمثير للدهشة أن الإصدارات المدفوعة من بعض النماذج كانت أكثر عرضة لتقديم معلومات غير صحيحة مقارنة بالإصدارات المجانية، مثل Perplexity Pro وGrok 3 المدفوعة، حيث قدمت هذه المنصات إجابات غير دقيقة بثقة أكبر، رغم قدرتها على الإجابة بشكل صحيح على عدد أكبر من المطالبات.

تحديات تواجه الناشرين والمحتوى الأصلي

لم تقتصر المشكلات على دقة الإجابات فحسب، بل شملت أيضًا قضايا تتعلق بحقوق الناشرين، حيث كشفت الدراسة عن تجاوز بعض أدوات الذكاء الاصطناعي لبروتوكول استبعاد الروبوتات (Robot Exclusion Protocol) للوصول إلى محتوى محمي. فعلى سبيل المثال، تمكن الإصدار المجاني من Perplexity من الوصول إلى مقتطفات من محتوى مدفوع تابع لموقع ناشيونال جيوغرافيك، رغم الحظر الصريح الذي يفرضه الموقع على زحف برمجيات الذكاء الاصطناعي.

كما وجدت الدراسة أن هذه الأدوات غالبًا ما توجه المستخدمين إلى نسخ مُعاد نشرها من المحتوى على منصات أخرى مثل Yahoo News، بدلاً من مواقع الناشرين الأصليين، حتى في الحالات التي تكون فيها هناك اتفاقيات ترخيص رسمية بين الناشرين وشركات الذكاء الاصطناعي.

مسؤولية المستخدمين ودور الشركات المطورة

علق مارك هوارد، الرئيس التنفيذي للعمليات في مجلة تايم، على نتائج الدراسة، مشيرًا إلى أن الناشرين يواجهون تحديات في التحكم في كيفية تعامل نماذج الذكاء الاصطناعي مع محتواهم. وأعرب عن قلقه من إمكانية تشويه العلامات التجارية للناشرين إذا قدمت هذه الأدوات ملخصات غير دقيقة للمحتوى.

رغم ذلك، أبدى هوارد تفاؤله بتطور هذه التقنيات مستقبلًا، مؤكدًا أن المستخدمين يتحملون مسؤولية التحقق من دقة المعلومات التي يحصلون عليها من الأدوات المجانية. وقال: “إذا كان أي مستهلك يعتقد أن هذه الأدوات ستوفر معلومات دقيقة بنسبة 100%، فاللوم يقع عليه”.

في المقابل، قدمت شركتا OpenAI ومايكروسوفت ردودًا على نتائج الدراسة، إذ أكدت OpenAI التزامها بدعم الناشرين عبر زيادة الزيارات إلى مواقعهم من خلال ملخصات وروابط واضحة، بينما شددت مايكروسوفت على التزامها ببروتوكولات استبعاد الروبوتات وتوجيهات الناشرين.

مستقبل البحث بالذكاء الاصطناعي

تكشف هذه الدراسة عن تحديات حقيقية تواجه نماذج الذكاء الاصطناعي في تقديم معلومات دقيقة وموثوقة، مما يدعو إلى ضرورة تطوير آليات أكثر صرامة لضمان نزاهة البحث الرقمي. ومع استمرار تطور هذه الأدوات، تبقى الحاجة ملحة لمراقبة أدائها وتوجيهها نحو تحسين دقة المعلومات وحماية حقوق الناشرين.

Trending

Exit mobile version