الذكاء الاصطناعي

الثقة المتقلبة دراسة تكشف كيف تتردد نماذج الذكاء الاصطناعي في قراراتها

Published

on

أظهرت دراسة حديثة أجراها باحثون من Google DeepMind وكلية لندن الجامعية (UCL) أن بعض أنظمة الذكاء الاصطناعي، وتحديدًا النماذج اللغوية الكبيرة (LLMs)، تعاني تقلبًا ملحوظًا في الثقة بقراراتها، مما قد يدفعها إلى التخلي عن إجابات صحيحة عند مواجهتها بمعلومات معارضة.

الثقة المتقلبة دراسة تكشف كيف تتردد نماذج الذكاء الاصطناعي في قراراتها

تُستخدم النماذج اللغوية الكبيرة على نطاق واسع في مجالات حساسة مثل الرعاية الصحية والمالية، نظرًا لقدرتها على فهم اللغة البشرية وتوليدها بدقة.

الثقة المتقلبة دراسة تكشف كيف تتردد نماذج الذكاء الاصطناعي في قراراتها


لكن الدراسة تشير إلى أن هذه النماذج ليست دائمًا واثقة من قراراتها، بل يمكن أن تتأثر بسهولة بالنصائح أو المعلومات الخارجية، ما يفتح الباب للتساؤل حول موثوقيتها في المهام الحرجة.

منهجية الدراسة: اختبار الثقة تحت الضغط

في إطار الدراسة، خضعت النماذج لاختبار ثقة يتضمن:

كما تم اختبار النموذج في حالتين: الأولى عندما يرى إجابته السابقة، والثانية حين لا تُعرض عليه، لقياس مدى تمسكه بقراره الأول.

النتائج: تردد عند المعارضة وتمسك عند التأييد

كشفت النتائج أن:

تداعيات على الاستخدامات المهنية والتجارية

تكشف هذه النتائج أن النماذج اللغوية لا تعمل دائمًا بأسلوب منطقي صرف، بل تتأثر بسياق الحوار والمعلومات المقدمة لها. وهذا يُعد تحذيرًا مهمًا للمؤسسات التي تعتمد على الذكاء الاصطناعي لاتخاذ قرارات استراتيجية، إذ يمكن لمعلومة جديدة – حتى وإن كانت غير دقيقة – أن تُغيّر اتجاه النموذج بالكامل.

نحو تطوير أنظمة أكثر وعيًا واستقرارًا

يشير الباحثون إلى أن فهم هذه الآليات الدقيقة في سلوك النماذج يمكن أن يساعد في تحسين تصميم أنظمة الذكاء الاصطناعي، لتكون أكثر تماسكًا في اتخاذ القرار، وتُقلل من خطر التحيز أو التردد غير المبرر.

Trending

Exit mobile version