أوضحت سارة بيرد، الرئيسة العليا للذكاء الاصطناعي المسؤول في مايكروسوفت، أن فريقهم قد طور عدة خصائص أمنية جديدة تتسم بالسهولة في الاستعمال لزبائن Azure الذين لم يجروا تجارب على خدمات الذكاء الاصطناعي التي أقيمت من قبلهم.
وتقول عملاقة البرمجيات إن هذه الأدوات يمكن للعاملين على النماذج اللغوية ذات الحجم الكبير تحديد أوجه القصور المحتملة، رصد الأوهام المتوقعة، ومنع تقديم الادعاءات الضارة فوراً بالنسبة لمستخدمي Azure AI الذين يستعينون بأي نموذج يتم استضافته على المنصة.
تسهم الأدوات في الحد من النزاعات المتعلقة بالذكاء الاصطناعي الإبداعي الناتجة عن الردود غير المرغوب فيها أو العَرَضية، كالردود التي تشمل صور مفبركة واضحة للمشاهير، أو الصور التي لا تتسق مع الحقائق التاريخية.
تقدم الأدوات ثلاث خصائص رئيسية متاحة حاليًا للاختبار من خلال Azure AI، وهذه الخصائص هي:
- حواجز الوقاية: التي تمنع العمليات المباشرة للحقن أو المُطالبات الضائرة الصادرة عن الوثائق الخارجية، والتي تُجبر النماذج على الخروج عن مسار التدريب الذي تلقته.
- كشف الأرضية: وهي آلية لاكتشاف الهذيان والوقاية منه.
- تقييمات السلامة: التي تعمل على تقييم نقاط الضعف الموجودة في النموذج.
ستصبح خاصيتان جديدتان متاحتين قريباً تهدفان إلى قيادة الأنماط نحو نتائج موثوقة ووظيفة متابعة مطالبات لتقديم تقارير حول المستخدمين الذين يُحتمل أن يثيروا مشاكل.
سواء أقدم المستخدم على الكتابة ضمن محطة الأوامر، أو في حالة كانت الاستمارة تتعامل مع معطيات من طرف آخر، فإن نظام الرصد يقوم بتقييم هذه المدخلات للتحقق مما إذا كانت تشتمل على ألفاظ ممنوعة أو تضمن طلبات ضمنية، وذلك قبل أن يتخذ قرار بإرسالها إلى الاستمارة لتستجيب عليها.
يقوم النظام أيضًا بفحص استجابات النموذج للتأكد من أنه لم يقم بخلق معلومات زائفة غير متواجدة في الوثيقة أو الادعاء.
تقر بيرد بوجود قلق بشأن إمكانية اتخاذ مايكروسوفت وشركات أخرى قرارات بشأن ما يعتبر ملائماً أو غير ملائم لنماذج الذكاء الاصطناعي. ولهذه الغاية، أدخل فريقها آلية تمكن مستخدمي Azure من تغيير إعدادات الفلترة للمحتوى الذي يعتبره النموذج كراهية أو عنف ويقوم بحجبه.
قد يتمكن مستقبلاً مستخدمو أزور من الحصول على تقرير يُظهر الأفراد الذين يحاولون تفعيل نتائج تشغيل محفوفة بالمخاطر.
تكون أدوات الحماية متصلة بشكل مباشر بالإصدار اللغوي المعقد GPT-4 وبالنماذج اللغوية الأخرى المستخدمة على نطاق واسع كما في Llama 2.
تعمل شركة مايكروسوفت على استغلال قدرات الذكاء الاصطناعي لرفع مستوى الحماية والأمان في تطبيقاتها، خصوصًا في ظل الاهتمام المتزايد من العملاء بتوظيف منصة Azure لتفعيل تقنيات الذكاء الاصطناعي.