كشفت شركة أنثروبيك عن تفاصيل محاولة اختراق سيبراني، ووصفتها بأنها “أول حالة موثّقة لهجوم واسع النطاق يُنفّذ دون تدخّل بشري كبير”. أكدت الشركة في بيان رسمي رصدها لاستخدام فريق قرصنة – زعمت أنه مدعوم من الصين – لنموذج الذكاء الاصطناعي Claude لتنفيذ سلسلة من الهجمات استهدفت نحو 30 جهة حول العالم، شملت شخصيات سياسية، وشركات تقنية، ومؤسسات مالية، وجهات حكومية.
أوضحت أنثروبيك أن الذكاء الاصطناعي تولّى ما بين 80% و 90% من مراحل العملية، مما قلّل من التدخل البشري إلى خطوات محدودة، وسمح بتنفيذ الهجوم في زمن قياسي.
التحذير من “الذكاء الاصطناعي الوكيل”
حذرت أنثروبيك من أن الهجمات القائمة على “الذكاء الاصطناعي الوكيل (Agentic AI)” ستصبح أكثر تطوراً وفاعلية في المستقبل، حتى مع بعض الأخطاء التي رُصدت في الهجوم المذكور (مثل جمع معلومات متاحة للعامة).
مبررات نشر التفاصيل
ردّت أنثروبيك على التساؤلات حول خطورة نشر هذه التفاصيل بالقول إن التحقيق يُستخدم لإثبات أهمية Claude في تعزيز الدفاعات السيبرانية. وأكدت أن النموذج استطاع تحليل خطورة البيانات التي جمعها، ويمكن استخدامه كأداة داعمة للخبراء عند التعامل مع هجمات مشابهة مستقبلاً.
لا يقتصر استغلال الذكاء الاصطناعي على نموذج Claude. فقد كشفت OpenAI سابقاً أن مجموعات قرصنة استخدمت أدواتها للمساعدة في تصحيح الأكواد، والبحث عن أهداف محتملة، وكتابة رسائل تصيّد إلكتروني متقنة.
التحديات الجديدة للأمن
تختلف هذه الحادثة عن الوسائل التقليدية وتؤكد على ظهور تحديات أمنية جديدة:
شبكات هجومية ذاتية العمل: تنشأ “شبكات هجومية ذاتية العمل” قادرة على تنفيذ عمليات متقدمة دون إشراف بشري مباشر، مما يصعّب اكتشافها.
التزييف العميق والاحتيال: يُستخدم الذكاء الاصطناعي في تقنيات التزييف العميق لإنتاج مقاطع صوتية ومرئية مُقنعة تُوظف مباشرة في عمليات انتحال الشخصيات والاحتيال الرقمي.
استغلال الثغرات الدفاعية: يعمل المهاجمون على استغلال ثغرات أنظمة الحماية نفسها عبر هجمات مدعومة بالذكاء الاصطناعي تربك خوارزميات الأمن.
الكفاءة والتكلفة: يتيح الاعتماد على الأتمتة تنفيذ هجمات واسعة النطاق بسرعة وتكرار أعلى وبأقل تكلفة، مما يستلزم تطوير آليات حماية جديدة قادرة على التصدي للهجمات المعقدة.