الذكاء الاصطناعي

شركة Anthropic تطلق برنامج مكافآت بقيمة 15 ألف دولار لتعزيز أمان الذكاء الاصطناعي

Published

on

أعلنت شركة Anthropic الناشئة في مجال الذكاء الاصطناعي والمدعومة من قبل أمازون عن إطلاق برنامج مكافآت جديد يهدف إلى تعزيز أمان أنظمة الذكاء الاصطناعي لديها وبموجب هذا البرنامج ستدفع الشركة ما يصل إلى 15 ألف دولار أمريكي مقابل كل تقرير يكتشف نقاط ضعف حرجة في أنظمتها الذكية.

هدف برنامج شركة Anthropic ومجالات التركيز

يستهدف برنامج المكافآت من شركة Anthropic مواجهة ما يعرف بالهروب من السجن العالمي وهي استراتيجيات يمكن أن تتجاوز تدابير أمان الذكاء الاصطناعي لا سيما في المجالات الحساسة مثل الأسلحة البيولوجية والتهديدات السيبرانية وقبل إتاحة الجيل المقبل من نظام الأمان للجمهور تخطط الشركة للسماح للباحثين الأخلاقيين باختباره لتفادي أي سوء استخدام محتمل.

بدأ البرنامج كمبادرة دعوة فقط بالتعاون مع منصة HackerOne حيث تسعى Anthropic إلى استقطاب خبراء الأمن السيبراني لاكتشاف وإصلاح نقاط الضعف في أنظمة الذكاء الاصطناعي الخاصة بها وتعتزم الشركة توسيع نطاق البرنامج في المستقبل القريب مما قد يوفر نموذج للتعاون على مستوى الصناعة في مجال سلامة الذكاء الاصطناعي.

شركة Anthropic

تأثير البرنامج على سمعة شركة Anthropic

في ظل التحقيق الجاري من قِبَل هيئة المنافسة والأسواق في المملكة المتحدة (CMA) حول استثمار أمازون البالغ 4 مليارات دولار في شركة Anthropic فإن التركيز على السلامة يمكن أن يعزز من سمعة الشركة ويميزها عن منافسيها.

بينما تقدم شركات مثل OpenAI وGoogle أيضا برامج مكافآت للأخطاء فإنها تركز عادة على نقاط ضعف البرامج التقليدية بدلا من أنظمة الذكاء الاصطناعي المتقدمة وفي المقابل تعرضت ميتا لانتقادات بسبب نهجها المغلق نسبيا في ضمان تطوير الذكاء الاصطناعي بشكل آمن.

التحديات المستقبلية في تأمين الذكاء الاصطناعي

على الرغم من أهمية برنامج المكافآت في تحديد وتصحيح بعض العيوب هناك تساؤلات حول ما إذا كانت المكافآت وحدها كافية للتعامل مع التحديات الأوسع المتعلقة بأمان أنظمة التعلم الآلي المتقدمة.

وقد يتطلب الأمر استراتيجيات أكثر شمولية تشمل اختبارات مكثفة وتحسين القدرة على تفسير النتائج وتطوير هياكل حوكمة جديدة لضمان توافق أنظمة الذكاء الاصطناعي مع القيم الإنسانية وتلبية معايير الأمان مع تطورها المستمر.

Trending

Exit mobile version