أصبحت محركات البحث القائمة على نماذج الذكاء الاصطناعي التوليدي بديلًا متزايد الاستخدام مقارنة بالمحركات التقليدية، حيث تجذب المستخدمين الذين يبحثون عن معلومات بسرعة وسهولة. إلا أن دراسة حديثة صادرة عن مركز تاو للصحافة الرقمية التابع لجامعة كولومبيا كشفت عن تراجع دقة هذه الأدوات، خاصة عند استخدامها كمصدر للأخبار.
محركات البحث بالذكاء الاصطناعي دقة متذبذبة ومصادر غير موثوقة
محركات البحث بالذكاء الاصطناعي دقة متذبذبة ومصادر غير موثوقة
قام الباحثون باختبار ثمانية أدوات تعتمد على الذكاء الاصطناعي في البحث المباشر، وهي: ChatGPT Search، وPerplexity، وPerplexity Pro، وDeepSeek Search، وGemini، وGrok-2 Search، وGrok-3 Search، وCopilot. وشملت الدراسة 1600 استفسار حول مقالات إخبارية حقيقية.
وأظهرت النتائج أن هذه النماذج قدمت إجابات غير صحيحة لأكثر من 60% من الاستفسارات المتعلقة بالمصادر الإخبارية، حيث تراوحت نسب الأخطاء بين 37% في نموذج Perplexity و94% في نموذج Grok-3، بينما سجل ChatGPT Search نسبة خطأ بلغت 67%.
إصرار على الإجابة حتى عند غياب المعلومات
أحد أكثر الجوانب المثيرة للقلق في الدراسة كان ميل نماذج الذكاء الاصطناعي إلى تقديم إجابات تبدو معقولة لكنها غير دقيقة، بدلاً من الاعتراف بعدم امتلاك معلومات موثوقة. ولم يكن هذا السلوك مقتصرًا على نموذج معين، بل كان سمة عامة بين جميع النماذج التي جرى اختبارها.
والمثير للدهشة أن الإصدارات المدفوعة من بعض النماذج كانت أكثر عرضة لتقديم معلومات غير صحيحة مقارنة بالإصدارات المجانية، مثل Perplexity Pro وGrok 3 المدفوعة، حيث قدمت هذه المنصات إجابات غير دقيقة بثقة أكبر، رغم قدرتها على الإجابة بشكل صحيح على عدد أكبر من المطالبات.
لم تقتصر المشكلات على دقة الإجابات فحسب، بل شملت أيضًا قضايا تتعلق بحقوق الناشرين، حيث كشفت الدراسة عن تجاوز بعض أدوات الذكاء الاصطناعي لبروتوكول استبعاد الروبوتات (Robot Exclusion Protocol) للوصول إلى محتوى محمي. فعلى سبيل المثال، تمكن الإصدار المجاني من Perplexity من الوصول إلى مقتطفات من محتوى مدفوع تابع لموقع ناشيونال جيوغرافيك، رغم الحظر الصريح الذي يفرضه الموقع على زحف برمجيات الذكاء الاصطناعي.
كما وجدت الدراسة أن هذه الأدوات غالبًا ما توجه المستخدمين إلى نسخ مُعاد نشرها من المحتوى على منصات أخرى مثل Yahoo News، بدلاً من مواقع الناشرين الأصليين، حتى في الحالات التي تكون فيها هناك اتفاقيات ترخيص رسمية بين الناشرين وشركات الذكاء الاصطناعي.
علق مارك هوارد، الرئيس التنفيذي للعمليات في مجلة تايم، على نتائج الدراسة، مشيرًا إلى أن الناشرين يواجهون تحديات في التحكم في كيفية تعامل نماذج الذكاء الاصطناعي مع محتواهم. وأعرب عن قلقه من إمكانية تشويه العلامات التجارية للناشرين إذا قدمت هذه الأدوات ملخصات غير دقيقة للمحتوى.
رغم ذلك، أبدى هوارد تفاؤله بتطور هذه التقنيات مستقبلًا، مؤكدًا أن المستخدمين يتحملون مسؤولية التحقق من دقة المعلومات التي يحصلون عليها من الأدوات المجانية. وقال: “إذا كان أي مستهلك يعتقد أن هذه الأدوات ستوفر معلومات دقيقة بنسبة 100%، فاللوم يقع عليه”.
في المقابل، قدمت شركتا OpenAI ومايكروسوفت ردودًا على نتائج الدراسة، إذ أكدت OpenAI التزامها بدعم الناشرين عبر زيادة الزيارات إلى مواقعهم من خلال ملخصات وروابط واضحة، بينما شددت مايكروسوفت على التزامها ببروتوكولات استبعاد الروبوتات وتوجيهات الناشرين.
تكشف هذه الدراسة عن تحديات حقيقية تواجه نماذج الذكاء الاصطناعي في تقديم معلومات دقيقة وموثوقة، مما يدعو إلى ضرورة تطوير آليات أكثر صرامة لضمان نزاهة البحث الرقمي. ومع استمرار تطور هذه الأدوات، تبقى الحاجة ملحة لمراقبة أدائها وتوجيهها نحو تحسين دقة المعلومات وحماية حقوق الناشرين.
أثارت دراسة حديثة جدلاً واسعًا في الأوساط التقنية بعد أن نجح أحد نماذج الذكاء الاصطناعي المتقدمة في اجتياز اختبار تورينج الشهير. الدراسة، التي أجراها باحثان من جامعة كاليفورنيا في سان دييغو، أعادت إلى الواجهة نقاشًا قديمًا حول مدى فعالية هذا الاختبار كمؤشر على “الذكاء الحقيقي” للآلة، خصوصًا في ظل تباين الآراء حول طبيعته ومنهجيته.
بين الإقناع والمحاكاة هل خدع الذكاء الاصطناعي عقول البشر
الدراسة اختبرت أربعة نماذج لغوية:
بين الإقناع والمحاكاة هل خدع الذكاء الاصطناعي عقول البشر
ELIZA (نموذج قديم من الستينيات)
GPT-4o
LLaMa-3.1-405B
GPT-4.5 (من شركة OpenAI)
من خلال محادثات نصية تفاعلية امتدت لخمس دقائق، حاول المشاركون التمييز بين إنسان حقيقي ونموذج ذكاء اصطناعي دون معرفة مسبقة بهويتهما. أظهرت النتائج تفوق GPT-4.5، إذ اعتقد المشاركون أنه الإنسان الحقيقي بنسبة 73%، تلاه LLaMa بنسبة 56%.
اختبار تورينج: من فكرة فلسفية إلى مقياس للذكاء الآلي
اقترح عالم الرياضيات البريطاني آلان تورينج عام 1950 ما عُرف لاحقًا بـ”لعبة المحاكاة”، حيث يقيس المحقق قدرة آلة على تقليد البشر نصيًا دون أن يميز بينها وبين الإنسان. لم يكن الهدف هو تقييم “تفكير الآلة”، بل ببساطة مدى قدرتها على خداع المتلقي.
أربع انتقادات رئيسية تلاحق اختبار تورينج
رغم شهرته، يواجه الاختبار انتقادات جوهرية، من أبرزها:
الخلط بين المحاكاة والفهم الحقيقي: نجاح النموذج في التفاعل لا يعني أنه “يفهم” مثل الإنسان.
افتراض اختزالي للعقل البشري: العقل البشري أكثر تعقيدًا من أن يُختزل في أداء مشابه للآلة.
إهمال العمليات الداخلية: يُقوّم الاختبار النتيجة النهائية فقط، دون النظر إلى كيفية الوصول إليها.
محدودية في نطاق الذكاء: يركز على المحادثة النصية ويتجاهل جوانب الذكاء الأخرى كالإبداع أو التفكير النقدي.
الباحثون أنفسهم كانوا حذرين في تفسير نتائجهم، إذ وصفوا النجاح في اختبار تورينج بأنه “مؤشر على قابلية الاستبدال” وليس إثباتًا للذكاء الحقيقي. فالاختبار يقيس قدرة النموذج على أداء وظيفة إنسانية محددة (المحادثة النصية) دون أن يُكشف أمره، وليس على امتلاك عقل بشري فعلي.
بالنظر إلى طبيعة الاختبار، وقيوده، وتفسير الباحثين، يمكن القول إن نماذج مثل GPT-4.5 أظهرت تقدمًا كبيرًا في تقليد البشر، لكنها ما تزال في مرحلة “المحاكاة المقنعة” لا “الذكاء الأصيل”. فحتى الآن، لا تزال الفجوة قائمة بين الأداء الخارجي المشابه للبشر والقدرات الإدراكية الحقيقية التي تميز العقل البشري.
في خطوة علمية واعدة، طوّر باحثون نظامًا متقدمًا يجمع بين تقنيتي الواقع الافتراضي والذكاء الاصطناعي، يهدف إلى الكشف المبكر عن اضطراب طيف التوحد (ASD) لدى الأطفال، بدقة تتجاوز 85%، متفوقًا على الأساليب التقليدية المعتمدة على الملاحظة اليدوية والاستبيانات.
يعتمد النظام على تتبّع أنماط حركة الأطفال وتركيزهم البصري خلال تنفيذهم لمهام داخل بيئات افتراضية غامرة تحاكي مواقف الحياة الواقعية. وتسمح هذه البيئات التفاعلية بتحليل أكثر دقة واستجابة طبيعية من الأطفال، مقارنةً بجلسات التشخيص التقليدية.
ويستخدم النظام نموذج تعلم عميق لتحليل البيانات السلوكية الحركية، مقدمًا نتائج فورية بتكلفة منخفضة، معتمداً على شاشات وكاميرات تجارية متوفرة في الأسواق، مما يجعله قابلاً للتطبيق في مراكز التشخيص حول العالم.
نظام 3DCNN ResNet: نقلة نوعية في تحليل الحركة والتشخيص
أطلق الباحثون من معهد Human-Tech بجامعة البوليتكنيك في فالنسيا (UPV) هذا الابتكار تحت اسم 3DCNN ResNet، وهو نظام قائم على شبكات عصبونية عميقة مخصصة لتحليل الحركة. وقد حقق أداءً دقيقًا فاق 85% في الكشف عن أعراض التوحد، وفقًا لما نشر في مجلة Expert Systems with Applications.
خلال التجارب، تم تسجيل وتحليل حركات الأطفال أثناء تفاعلهم مع البيئة الافتراضية، مما سمح للنظام بالتقاط مؤشرات بصرية وحركية تُعد دلائل قوية على وجود التوحد.
ميزة بيئة التشخيص: واقعية تعكس السلوك الطبيعي للأطفال
بحسب Mariano Alcañiz، مدير معهد Human-Tech، فإن البيئة الافتراضية المستخدمة تُسهم في تحفيز ردود فعل طبيعية تمثّل بدقة سلوك الأطفال في حياتهم اليومية، مما يزيد من مصداقية النتائج. وقال:
“البيئة الافتراضية تتيح لنا محاكاة مواقف مألوفة، فنحصل على استجابات طبيعية بعيدًا عن التصنع الذي تُسببه البيئات السريرية”.
يتكوّن النظام من شاشة عرض كبيرة أو غرفة إسقاط محيطية، يتم خلالها دمج صورة حية للطفل أثناء أدائه للمهام، ثم تُسجل الكاميرات حركته وتحللها باستخدام نموذج التعلم العميق. ويؤكد الباحثون أن هذه التقنية أقل تكلفة مقارنةً بالاختبارات اليدوية، وتُعد بديلاً واقعيًا يمكن دمجه بسهولة في مراكز التأهيل والتشخيص.
8 سنوات من البحث والتعاون لتطوير أداة تشخيصية دقيقة
على مدى ثماني سنوات، عمل فريق معهد Human-Tech بالتعاون مع مركز Red Cenit لتنمية القدرات الإدراكية، على تحسين أدوات التشخيص المبكر. ويأمل الفريق في تطوير النموذج لاستخدامه في تحليل أنماط حركية أخرى، مثل المشي والتحدث، لدعم فهم أوسع لأعراض التوحد في سياقات متعددة.
الباحث Alberto Altozano، أحد المطورين، أشار إلى أن المقارنة بين النماذج التقليدية والنموذج الجديد أظهرت تفوقًا واضحًا في الدقة والتنوع، مؤكدًا:
“النموذج الجديد قادر على تحليل التفاعل داخل بيئة افتراضية بدقة أعلى ومن خلال عدد أكبر من المهام، مما يجعله أداة واعدة في تشخيص التوحد مستقبلاً”.
تُعدّ المعرفة الدعامة التي ارتكزت عليها مسيرة الحضارة البشرية عبر العصور. فمنذ فجر التاريخ، كانت المعرفة المحرك الأساسي وراء كل إنجاز علمي أو إنساني، سواء كان صعود الإنسان إلى الفضاء أو ابتكار علاج يغيّر حياة ملايين المرضى. فقد تطورت هذه المعرفة عبر سلسلة طويلة من التراكم، التبادل، والتحقق، ما جعلها رأس مال لا يُقدّر بثمن.
عصر جديد من المعرفة كيف يُعيد الذكاء الاصطناعي التوليدي تشكيل فهمنا للعالم
نحن اليوم على مشارف تحوّل جذري في الطريقة التي ننتج بها المعرفة ونستهلكها. وإذا كانت الطباعة قد أحدثت انقلابًا في نشر الأفكار، والعصر الرقمي قد فتح أبوابًا جديدة للوصول إلى المعلومات، فإن الذكاء الاصطناعي التوليدي يُبشر بثورة معرفية لا تقل أهمية، بل قد تتجاوز كل ما سبقها من حيث التأثير والسرعة.
عصر جديد من المعرفة كيف يُعيد الذكاء الاصطناعي التوليدي تشكيل فهمنا للعالم
هذه التقنية الجديدة لا تجمع فقط كميات هائلة من البيانات، بل تعيد تنظيمها وتلخيصها وتقديمها للمستخدم بضغطة زر، ما يجعلها أقرب إلى “آلة عقلية” تُعيد رسم خريطة الفهم البشري.
من غوتنبرغ إلى جوجل: الطباعة كبوابة للديمقراطية المعرفية
لعل أبرز التحولات التاريخية التي أعادت تشكيل الوعي البشري تمثلت في اختراع الطباعة على يد يوهانس غوتنبرغ في القرن الخامس عشر. فقد ساهمت في إتاحة الكتب والمعارف لشرائح واسعة من المجتمع، ووضعت حدًا لاحتكار النخب للمعلومة، مما مهد الطريق لعصور النهضة والإصلاح العلمي والثقافي.
ومع ذلك، لا يمكن إغفال أهمية التقاليد الشفهية القديمة ونسخ المخطوطات اليدوية، التي حفظت التراث البشري لآلاف السنين، وجعلت من الكتّاب حراسًا للمعرفة وقنواتها الشرعية.
الإنترنت.. من النخبة إلى الجماهير
ثم جاءت الثورة الرقمية، التي نقلت المعرفة من نموذج “واحد إلى كثيرين” إلى نموذج “كثيرين إلى كثيرين”، حيث أصبح لكل فرد القدرة على إنتاج المعرفة ومشاركتها. وقد شكلت شبكة الإنترنت مكتبة مفتوحة لا حدود لها، جعلت الوصول إلى المعلومات ممكنًا للجميع، بغض النظر عن الموقع أو الخلفية الاجتماعية.
لكن هذا الانفتاح تطلب أيضًا آليات لضبط الجودة والتأكد من مصداقية المحتوى، في مواجهة الفوضى المعرفية والمعلومات المضللة.
اليوم، يُدخل الذكاء الاصطناعي التوليدي بُعدًا جديدًا إلى المعادلة. فهو لا يكتفي بنقل أو تنظيم المعرفة، بل يُعيد إنتاجها بأشكال متعددة: نصوصًا، صورًا، مقاطع فيديو، أو حتى أصواتًا. ويكفي أن نذكر نماذج مثل ChatGPT وGemini وDall-E وDeepSeek لنفهم حجم التقدم الحاصل.
هذه النماذج قادرة على تلخيص ملايين الصفحات، وتخصيص الإجابات وفق اللغة أو الأسلوب المفضل للمستخدم، مما يجعل المعرفة أكثر قربًا، ومرونة، وسرعة.
لكن في المقابل، تبرز تحديات حقيقية، من أبرزها ظاهرة “هلوسة الذكاء الاصطناعي”، أي إنتاج معلومات غير دقيقة، فضلًا عن تساؤلات عميقة حول تأليف المعرفة وملكية محتواها، وكيفية التحقق من مصداقيتها.
الاعتماد المتزايد على الذكاء الاصطناعي يُنذر بإمكانية تضييق آفاق التفكير الإنساني بدلاً من توسيعها. فبدلًا من التفاعل مع أصوات متعددة وأفكار متباينة، قد يواجه المستخدم محتوى موحدًا يُقدمه نموذج واحد مهيمن، مما يُضعف التنوع الفكري والإبداعي الذي ميز الحضارة البشرية.
ويثور هنا سؤال مصيري: هل يصبح الذكاء الاصطناعي التوليدي قوة تمكين معرفي حقيقية، أم أنه يختصر الرحلة البشرية الطويلة نحو التعددية الفكرية في مسار واحد ضيق وسريع؟
المفارقة المعرفية.. هل يُحفز الذكاء الاصطناعي التفكير أم يُعطله؟
لقد بُنيت المعرفة البشرية على النقاش، الجدل، والتفاعل العميق مع الأفكار. فهل تستمر هذه الديناميكية في ظل اعتمادنا المتزايد على أدوات تقدم لنا المعرفة جاهزة ومُعالجة مسبقًا؟ أم أننا نخاطر بتراجع مهارات التفكير النقدي والتحليلي، مقابل الراحة الفورية في الوصول إلى المعلومة؟
هذه الأسئلة المفتوحة تُشكل محورًا رئيسيًا للنقاش الأكاديمي والتقني اليوم، وهي ما سيحدد ملامح علاقتنا المستقبلية بالمعرفة، ومكانة الذكاء الاصطناعي داخلها.