كشفت تقارير حديثة أن نموذج الذكاء الاصطناعي DeepSeek R1، الذي تطوّره الشركة الصينية الناشئة DeepSeek، يعاني من ضعف أمني يجعله أكثر عرضة للاختراق مقارنةً بالمنافسين. وأظهرت الاختبارات أن النموذج قد يُستخدم لتوليد محتوى ضار، مما يثير مخاوف كبيرة بشأن أمانه.
ثغرات أمنية خطِرة في نماذج DeepSeek تُثير مخاوف الخبراء
بحسب الاختبارات الأمنية، يمكن خداع النموذج لإنتاج تعليمات خطِرة، مثل وضع خطط لتنفيذ هجمات بأسلحة بيولوجية، بالإضافة إلى الترويج لإيذاء النفس بين المراهقين عبر خوارزمياته.
ثغرات أمنية خطِرة في نماذج DeepSeek تُثير مخاوف الخبراء
افتقار إلى معايير الحماية المتقدمة
ذكرت صحيفة وول ستريت جورنال أن نموذج DeepSeek R1 يفتقر إلى أنظمة الحماية المتطورة التي تعتمدها نماذج أخرى مثل ChatGPT، مما يجعله أكثر عرضة لاختراق الحماية (Jailbreaking)، وهي تقنية تتيح تجاوز الفلاتر الأمنية لإنتاج محتوى مضلل أو غير قانوني.
أجرت الصحيفة اختبارات على النموذج، ونجحت في دفعه إلى تصميم حملة تلاعب عاطفي تستهدف المراهقين عبر وسائل التواصل الاجتماعي، واستغلال نقاط ضعفهم النفسية. كما تمكن النموذج من تقديم تعليمات لهجوم بيولوجي، وصياغة بيان داعم للأحزاب المتطرفة، وحتى إنشاء رسالة تصيّد إلكتروني مرفقة ببرمجيات خبيثة. وعلى العكس، رفض ChatGPT تقديم أي استجابات مماثلة، مما يبرز الفجوة الأمنية الكبيرة في DeepSeek R1.
في المقابل، أشارت التقارير إلى أن تطبيق DeepSeek يتجنب الخوض في المواضيع السياسية الحسّاسة داخل الصين، مثل قضية تايوان، مما يعكس توجهًا رقابيًا واضحًا في محتواه.
أوضح داريو أمودي، الرئيس التنفيذي لشركة Anthropic، أن أداء نموذج DeepSeek R1 كان الأسوأ في اختبارات الأمان المتعلقة بالأسلحة البيولوجية، مما يرفع المخاوف حول قابليته للتلاعب وإساءة الاستخدام في السيناريوهات الخطِرة.