أظهرت دراسة حديثة أجراها باحثون من Google DeepMind وكلية لندن الجامعية (UCL) أن بعض أنظمة الذكاء الاصطناعي، وتحديدًا النماذج اللغوية الكبيرة (LLMs)، تعاني تقلبًا ملحوظًا في الثقة بقراراتها، مما قد يدفعها إلى التخلي عن إجابات صحيحة عند مواجهتها بمعلومات معارضة.
الثقة المتقلبة دراسة تكشف كيف تتردد نماذج الذكاء الاصطناعي في قراراتها
تُستخدم النماذج اللغوية الكبيرة على نطاق واسع في مجالات حساسة مثل الرعاية الصحية والمالية، نظرًا لقدرتها على فهم اللغة البشرية وتوليدها بدقة.
الثقة المتقلبة دراسة تكشف كيف تتردد نماذج الذكاء الاصطناعي في قراراتها
لكن الدراسة تشير إلى أن هذه النماذج ليست دائمًا واثقة من قراراتها، بل يمكن أن تتأثر بسهولة بالنصائح أو المعلومات الخارجية، ما يفتح الباب للتساؤل حول موثوقيتها في المهام الحرجة.
منهجية الدراسة: اختبار الثقة تحت الضغط
في إطار الدراسة، خضعت النماذج لاختبار ثقة يتضمن:
طرح أسئلة بنمط اختيار من متعدد.
تقديم “نصيحة خارجية” من نموذج آخر، مصحوبة بتقييم للدقة.
قياس تأثير هذه النصيحة، سواء كانت مؤيدة أو معارضة، على إجابة النموذج.
تكشف هذه النتائج أن النماذج اللغوية لا تعمل دائمًا بأسلوب منطقي صرف، بل تتأثر بسياق الحوار والمعلومات المقدمة لها. وهذا يُعد تحذيرًا مهمًا للمؤسسات التي تعتمد على الذكاء الاصطناعي لاتخاذ قرارات استراتيجية، إذ يمكن لمعلومة جديدة – حتى وإن كانت غير دقيقة – أن تُغيّر اتجاه النموذج بالكامل.
يشير الباحثون إلى أن فهم هذه الآليات الدقيقة في سلوك النماذج يمكن أن يساعد في تحسين تصميم أنظمة الذكاء الاصطناعي، لتكون أكثر تماسكًا في اتخاذ القرار، وتُقلل من خطر التحيز أو التردد غير المبرر.