أخبار تقنية

تحليل سلوك النماذج اللغوية الكبيرة لماذا تختلق المعلومات

Published

on

تُعدّ إحدى المشكلات الأساسية في استخدام النماذج اللغوية الكبيرة ميلها إلى اختلاق المعلومات بدلاً من الاعتراف بعدم معرفة الإجابة. وهذا السلوك يثير تساؤلات حول سبب عدم قدرة هذه النماذج على قول “لا أعرف” بدلاً من تقديم إجابات غير دقيقة.

تحليل سلوك النماذج اللغوية الكبيرة لماذا تختلق المعلومات

كشفت أبحاث جديدة أجرتها شركة “Anthropic” عن وجود “دوائر” عصبية داخلية تساعد النموذج اللغوي الكبير على تحديد متى يقدم استجابة قد تكون مختلقة ومتى يرفض الإجابة تمامًا. ووفقًا لتقرير نشره موقع “Ars Technica”، فإن هذا الاكتشاف قد يساعد في تطوير حلول أكثر دقة لمشكلة اختلاق الذكاء الاصطناعي للمعلومات.

تحليل سلوك النماذج اللغوية الكبيرة لماذا تختلق المعلومات

آلية عمل الشبكة العصبية

في ورقة بحثية سابقة، استخدمت “Anthropic” نظامًا لتحليل الخلايا العصبية الاصطناعية التي تنشط عند مواجهة نموذج “Claude” لمفاهيم داخلية، مثل “أخطاء البرمجة”. وأطلقت على هذه المجموعات اسم “الخصائص”، والتي تتفاعل لتحديد كيفية استجابة النموذج لاستفسارات المستخدمين.

كيف يؤثر الضبط الدقيق على استجابات الذكاء الاصطناعي؟

تم تصميم النماذج اللغوية الكبيرة للتنبؤ بالنص التالي بناءً على المدخلات، وهو ما يجعلها عرضة للاستكمال التلقائي للمعلومات. عندما يتطابق نص الاستفسار مع البيانات المدربة عليها، فإن النموذج يقدم إجابات دقيقة. ولكن عند مواجهة معلومات نادرة أو غير مألوفة، يميل النموذج إلى تقديم تخمينات قد تكون غير صحيحة.

ويهدف الضبط الدقيق إلى تقليل هذه المشكلة من خلال توجيه النموذج للعمل كمساعد ذكي قادر على رفض الإجابة عند عدم توفر معلومات كافية.

تأثير “الأسماء المعروفة” و”غير المعروفة” على الإجابة

أظهرت الأبحاث أن الخلايا العصبية في النموذج تستجيب بشكل مختلف عند مواجهة “اسم معروف” مثل “مايكل جوردان” مقارنة باسم غير مألوف. عند التعرف على اسم غير معروف، يتم تفعيل دائرة “لا أستطيع الإجابة”، مما يؤدي إلى رفض النموذج للإجابة باستخدام عبارات مثل “أعتذر، لكن لا أستطيع…”.

أما عند مواجهة اسم معروف، فإن الخلايا العصبية المسؤولة عن خاصية “المعرفة” تنشط، مما يقلل من نشاط دائرة “لا أستطيع الإجابة”، ويسمح للنموذج بتقديم استجابة قائمة على البيانات المتاحة.

هل يمكن تحسين دقة النماذج اللغوية؟

وجد الباحثون أن زيادة أوزان الخلايا العصبية المسؤولة عن “الإجابة المعروفة” قد يؤدي إلى تعزيز ميل النموذج لاختلاق المعلومات بثقة زائفة. وهذا يشير إلى أن بعض حالات “الهلوسة” في النموذج قد تكون ناتجة عن خلل في آلية كبح الإجابات غير المؤكدة.

ويفتح هذا البحث الباب أمام تحسين النماذج اللغوية المستقبلية من خلال ضبط التوازن بين تقديم إجابات دقيقة والاعتراف بعدم المعرفة، مما يسهم في بناء أنظمة ذكاء اصطناعي أكثر موثوقية ودقة.

Leave a Reply

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Trending

Exit mobile version