أخبار تقنية

xAI تتخلف عن موعد إصدار تقرير السلامة الذي وعدت به غروك يثير الجدل

Published

on

فشلت شركة xAI، التابعة لإيلون ماسك، في الوفاء بالموعد النهائي الذي حددته لنفسها لنشر إطار العمل النهائي لسلامة الذكاء الاصطناعي. وبحسب تقرير لمجموعة المراقبة “مشروع ميداس”، كان من المفترض أن تصدر xAI تقريرًا شاملاً حول سياسات سلامة الذكاء الاصطناعي في العاشر من مايو، إلا أن الموعد مرّ دون أي إعلان رسمي من الشركة.

xAI تتخلف عن موعد إصدار تقرير السلامة الذي وعدت به غروك يثير الجدل

xAI تتخلف عن موعد إصدار تقرير السلامة الذي وعدت به غروك يثير الجدل

تتواصل xAI في تلقي الانتقادات، خاصة فيما يتعلق بروبوت الدردشة الذكي التابع لها، غروك. وفقًا لتقرير نشره موقع تك كرانش، والذي اطلعت عليه العربية Business، فإن غروك تصرف بطريقة غير لائقة، حيث قام “بخلع ملابس النساء في الصور” عند الطلب. هذا السلوك أثار استنكارًا واسعًا، مشيرًا إلى ضعف قدرة الشركة على إدارة الذكاء الاصطناعي بطريقة مسؤولة.

تفوق منافسي غروك في السلوكيات الأخلاقية

علاوة على ذلك، أظهر غروك سلوكًا أكثر فظاظة مقارنة بروبوتات الدردشة الأخرى مثل جيميني وشات جي بي تي، حيث لم يتردد في استخدام الشتائم والألفاظ النابية. هذا يجعل غروك يبدو أقل أخلاقية من منافسيه في مجال الذكاء الاصطناعي.

التزام ضعيف بالسلامة في إطار عمل xAI

في فبراير، خلال قمة سيول للذكاء الاصطناعي، نشرت xAI مسودة لإطار العمل الذي يحدد أولوياتها في مجال سلامة الذكاء الاصطناعي. وأوضحت المسودة التي تتكون من ثماني صفحات، نهج الشركة في قياس الأداء وتطوير نماذج الذكاء الاصطناعي. ولكن، كما أشار مشروع ميداس في منشوراته، فإن المسودة كانت موجهة فقط نحو النماذج المستقبلية غير المحددة، ولم توضح كيفية تطبيق إجراءات تخفيف المخاطر، وهو عنصر أساسي في الوثيقة.

منافسو xAI يسارعون في نشر تقارير السلامة

على الرغم من تحذيرات إيلون ماسك المستمرة بشأن مخاطر الذكاء الاصطناعي غير المُعالجة، إلا أن سجل xAI في مجال السلامة يظل ضعيفًا. فقد أظهرت دراسة حديثة أجرتها منظمة SaferAI غير الربحية، أن xAI تقع في أسفل القائمة مقارنة بمختبرات الذكاء الاصطناعي الأخرى، بسبب ممارساتها الضعيفة للغاية في إدارة المخاطر.

ورغم ذلك، فإن المنافسين الرئيسيين في مجال الذكاء الاصطناعي مثل غوغل وOpenAI أيضًا لم يسرعوا في نشر تقارير سلامة النماذج، إذ تم تأجيل نشر هذه التقارير أو تجاهلها تمامًا. هذا التراجع في أولوية جهود السلامة يأتي في وقت أصبح فيه الذكاء الاصطناعي أكثر قدرة – وبالتالي أكثر خطورة – من أي وقت مضى.

مستقبل السلامة في الذكاء الاصطناعي

يظل التحدي قائمًا أمام الشركات مثل xAI، وغوغل، وOpenAI لضمان تنفيذ معايير سلامة فعالة لمواجهة المخاطر المحتملة التي قد تنتج عن تطور الذكاء الاصطناعي. في ظل الافتقار إلى الشفافية والتأخير في اتخاذ الإجراءات المناسبة، يواجه الجميع تحديات كبيرة في إدارة تأثيرات الذكاء الاصطناعي على المجتمع.

Leave a Reply

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Trending

Exit mobile version