الذكاء الاصطناعي

محركات البحث بالذكاء الاصطناعي دقة المعلومات في مهب الريح

Published

on

أصبحت أدوات البحث المستندة إلى الذكاء الاصطناعي التوليدي بديلاً شائعًا لمحركات البحث التقليدية، حيث تتيح للمستخدمين الوصول إلى المعلومات بسرعة وسهولة. ومع ذلك، كشفت دراسة حديثة صادرة عن مركز تاو للصحافة الرقمية بجامعة كولومبيا عن مخاطر كبيرة تتعلق بدقة هذه الأدوات، لا سيما عند استخدامها كمصدر للأخبار.

محركات البحث بالذكاء الاصطناعي دقة المعلومات في مهب الريح

أظهرت الدراسة أن نماذج الذكاء الاصطناعي، بما في ذلك تلك المطورة من قبل شركات رائدة مثل OpenAI وxAI، تميل إلى تقديم معلومات غير صحيحة عند الاستفسار عن الأحداث الجارية. ووفقًا للباحثتين كلوديا يازفينسكا وأيسواريا تشاندراسيكار، فإن 25% من الأمريكيين يستخدمون هذه النماذج بدلاً من محركات البحث التقليدية، ما يجعل أخطائها ذات تأثير كبير قد يؤدي إلى انتشار المعلومات المضللة واتخاذ قرارات خاطئة.

محركات البحث بالذكاء الاصطناعي دقة المعلومات في مهب الريح

محركات البحث بالذكاء الاصطناعي دقة المعلومات في مهب الريح

تفاصيل الدراسة: اختبار ثمانية أدوات بحث بالذكاء الاصطناعي

قام الباحثون باختبار ثمانية أدوات تعتمد على الذكاء الاصطناعي التوليدي، وهي: ChatGPT Search، Perplexity، Perplexity Pro، DeepSeek Search، Gemini، Grok-2 Search، Grok-3 Search، وCopilot. تم توجيه 1600 استفسار لهذه الأدوات بناءً على مقالات إخبارية حقيقية، مع طلب تحديد عنوان المقال، الناشر الأصلي، تاريخ النشر، ورابط المقال. وأظهرت النتائج أن أكثر من 60% من الإجابات كانت غير صحيحة.

تفاوت دقة النماذج: من سيئ إلى الأسوأ

كشفت الدراسة عن تباين واضح في معدلات الخطأ بين النماذج:

  • سجل نموذج Perplexity نسبة خطأ بلغت 37%.
  • بلغ معدل الخطأ في ChatGPT Search نحو 67%.
  • تصدّر Grok-3 القائمة بمعدل خطأ مذهل وصل إلى 94%.

الذكاء الاصطناعي يختلق المعلومات بدلًا من الاعتراف بالجهل

أحد أبرز التحديات التي كشفتها الدراسة هو ميل نماذج الذكاء الاصطناعي إلى تقديم إجابات غير صحيحة ولكنها تبدو معقولة، بدلاً من الاعتراف بعدم توفر معلومات موثوقة. والمثير للقلق أن الإصدارات المدفوعة من هذه النماذج، مثل Perplexity Pro وGrok 3، كانت أكثر ميلًا إلى تقديم معلومات خاطئة بثقة أكبر من الإصدارات المجانية.

تحديات تواجه الناشرين: انتهاك بروتوكولات الوصول

واجهت الدراسة مشكلة أخرى تتعلق بكيفية تعامل الذكاء الاصطناعي مع المحتوى المحمي، حيث تمكنت بعض الأدوات من تجاوز بروتوكولات استبعاد الروبوتات (Robot Exclusion Protocol) للوصول إلى محتوى مدفوع. على سبيل المثال، تمكن الإصدار المجاني من Perplexity من استرجاع مقالات من موقع ناشيونال جيوغرافيك رغم حظرها صراحةً لبرامج الزحف الخاصة به.

بالإضافة إلى ذلك، لاحظ الباحثون أن هذه الأدوات غالبًا ما توجه المستخدمين إلى نُسخ مُعاد نشرها للمحتوى على منصات أخرى مثل Yahoo News، بدلًا من توجيههم إلى المصدر الأصلي، مما يشكل تحديًا للناشرين الذين يعتمدون على الزيارات المباشرة لتحقيق الإيرادات.

مسؤولية المستخدمين: ضرورة التحقق من المعلومات

أعرب مارك هوارد، الرئيس التنفيذي للعمليات في مجلة تايم، عن قلقه من التحديات التي يواجهها الناشرون في السيطرة على كيفية استخدام محتواهم من قبل نماذج الذكاء الاصطناعي. وأكد أن المستخدمين يتحملون أيضًا مسؤولية التحقق من صحة المعلومات قبل الاعتماد عليها. وقال: “إذا كان أي مستهلك يعتقد الآن أن أيًا من هذه المنتجات المجانية ستكون دقيقة بنسبة 100%، فاللوم يقع عليه”.

بين المخاطر والتحسينات المستقبلية

على الرغم من النتائج المثيرة للقلق، هناك تفاؤل بشأن إمكانية تحسين دقة محركات البحث بالذكاء الاصطناعي مستقبلاً. وقد أكدت شركتا OpenAI ومايكروسوفت التزامهما بدعم الناشرين وزيادة الشفافية من خلال تقديم ملخصات وروابط واضحة للمصادر الأصلية. ومع ذلك، لا يزال المستخدمون بحاجة إلى التعامل بحذر مع المعلومات التي تقدمها هذه الأدوات، خاصة في ظل استمرار التحديات المتعلقة بدقتها ومصداقيتها.

Leave a Reply

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Trending

Exit mobile version