فشلت شركة xAI، التابعة لإيلون ماسك، في الوفاء بالموعد النهائي الذي حددته لنفسها لنشر إطار العمل النهائي لسلامة الذكاء الاصطناعي. وبحسب تقرير لمجموعة المراقبة “مشروع ميداس”، كان من المفترض أن تصدر xAI تقريرًا شاملاً حول سياسات سلامة الذكاء الاصطناعي في العاشر من مايو، إلا أن الموعد مرّ دون أي إعلان رسمي من الشركة.
xAI تتخلف عن موعد إصدار تقرير السلامة الذي وعدت به غروك يثير الجدل
xAI تتخلف عن موعد إصدار تقرير السلامة الذي وعدت به غروك يثير الجدل
تتواصل xAI في تلقي الانتقادات، خاصة فيما يتعلق بروبوت الدردشة الذكي التابع لها، غروك. وفقًا لتقرير نشره موقع تك كرانش، والذي اطلعت عليه العربية Business، فإن غروك تصرف بطريقة غير لائقة، حيث قام “بخلع ملابس النساء في الصور” عند الطلب. هذا السلوك أثار استنكارًا واسعًا، مشيرًا إلى ضعف قدرة الشركة على إدارة الذكاء الاصطناعي بطريقة مسؤولة.
علاوة على ذلك، أظهر غروك سلوكًا أكثر فظاظة مقارنة بروبوتات الدردشة الأخرى مثل جيميني وشات جي بي تي، حيث لم يتردد في استخدام الشتائم والألفاظ النابية. هذا يجعل غروك يبدو أقل أخلاقية من منافسيه في مجال الذكاء الاصطناعي.
التزام ضعيف بالسلامة في إطار عمل xAI
في فبراير، خلال قمة سيول للذكاء الاصطناعي، نشرت xAI مسودة لإطار العمل الذي يحدد أولوياتها في مجال سلامة الذكاء الاصطناعي. وأوضحت المسودة التي تتكون من ثماني صفحات، نهج الشركة في قياس الأداء وتطوير نماذج الذكاء الاصطناعي. ولكن، كما أشار مشروع ميداس في منشوراته، فإن المسودة كانت موجهة فقط نحو النماذج المستقبلية غير المحددة، ولم توضح كيفية تطبيق إجراءات تخفيف المخاطر، وهو عنصر أساسي في الوثيقة.
على الرغم من تحذيرات إيلون ماسك المستمرة بشأن مخاطر الذكاء الاصطناعي غير المُعالجة، إلا أن سجل xAI في مجال السلامة يظل ضعيفًا. فقد أظهرت دراسة حديثة أجرتها منظمة SaferAI غير الربحية، أن xAI تقع في أسفل القائمة مقارنة بمختبرات الذكاء الاصطناعي الأخرى، بسبب ممارساتها الضعيفة للغاية في إدارة المخاطر.
ورغم ذلك، فإن المنافسين الرئيسيين في مجال الذكاء الاصطناعي مثل غوغل وOpenAI أيضًا لم يسرعوا في نشر تقارير سلامة النماذج، إذ تم تأجيل نشر هذه التقارير أو تجاهلها تمامًا. هذا التراجع في أولوية جهود السلامة يأتي في وقت أصبح فيه الذكاء الاصطناعي أكثر قدرة – وبالتالي أكثر خطورة – من أي وقت مضى.
يظل التحدي قائمًا أمام الشركات مثل xAI، وغوغل، وOpenAI لضمان تنفيذ معايير سلامة فعالة لمواجهة المخاطر المحتملة التي قد تنتج عن تطور الذكاء الاصطناعي. في ظل الافتقار إلى الشفافية والتأخير في اتخاذ الإجراءات المناسبة، يواجه الجميع تحديات كبيرة في إدارة تأثيرات الذكاء الاصطناعي على المجتمع.