أخبار الشركات

أنثروبيك تكشف عن أول هجوم سيبراني واسع بأكمله بالذكاء الاصطناعي الوكيل

Published

on

كشفت شركة أنثروبيك عن تفاصيل محاولة اختراق سيبراني، ووصفتها بأنها “أول حالة موثّقة لهجوم واسع النطاق يُنفّذ دون تدخّل بشري كبير”. أكدت الشركة في بيان رسمي رصدها لاستخدام فريق قرصنة – زعمت أنه مدعوم من الصين – لنموذج الذكاء الاصطناعي Claude لتنفيذ سلسلة من الهجمات استهدفت نحو 30 جهة حول العالم، شملت شخصيات سياسية، وشركات تقنية، ومؤسسات مالية، وجهات حكومية.

أنثروبيك تكشف عن أول هجوم سيبراني واسع بأكمله بالذكاء الاصطناعي الوكيل

أفادت أنثروبيك بأن مجموعة القراصنة استعانت بأداة Claude Code لتطوير إطار هجوم آلي بالكامل بعد أن نجحت في الالتفاف على ضوابط الحماية الداخلية للنموذج.

أنثروبيك تكشف عن أول هجوم سيبراني واسع بأكمله بالذكاء الاصطناعي الوكيل

تكتيكات التضليل والالتفاف

تمكن القراصنة من الالتفاف على الحماية عبر:

  1. تفكيك الهجوم إلى مهام صغيرة ومتسلسلة.

  2. إقناع النموذج بأن المهمة جزء من “تدريب دفاعي” داخل شركة متخصصة في الأمن السيبراني.

إنجازات الذكاء الاصطناعي في الاختراق

استطاع Claude، بشكل مستقل، تنفيذ مهام حاسمة:

أوضحت أنثروبيك أن الذكاء الاصطناعي تولّى ما بين 80% و 90% من مراحل العملية، مما قلّل من التدخل البشري إلى خطوات محدودة، وسمح بتنفيذ الهجوم في زمن قياسي.

التحذير من “الذكاء الاصطناعي الوكيل”

حذرت أنثروبيك من أن الهجمات القائمة على “الذكاء الاصطناعي الوكيل (Agentic AI)” ستصبح أكثر تطوراً وفاعلية في المستقبل، حتى مع بعض الأخطاء التي رُصدت في الهجوم المذكور (مثل جمع معلومات متاحة للعامة).

مبررات نشر التفاصيل

ردّت أنثروبيك على التساؤلات حول خطورة نشر هذه التفاصيل بالقول إن التحقيق يُستخدم لإثبات أهمية Claude في تعزيز الدفاعات السيبرانية. وأكدت أن النموذج استطاع تحليل خطورة البيانات التي جمعها، ويمكن استخدامه كأداة داعمة للخبراء عند التعامل مع هجمات مشابهة مستقبلاً.

الأمن السيبراني في زمن الذكاء الاصطناعي

لا يقتصر استغلال الذكاء الاصطناعي على نموذج Claude. فقد كشفت OpenAI سابقاً أن مجموعات قرصنة استخدمت أدواتها للمساعدة في تصحيح الأكواد، والبحث عن أهداف محتملة، وكتابة رسائل تصيّد إلكتروني متقنة.

التحديات الجديدة للأمن

تختلف هذه الحادثة عن الوسائل التقليدية وتؤكد على ظهور تحديات أمنية جديدة:

  • شبكات هجومية ذاتية العمل: تنشأ “شبكات هجومية ذاتية العمل” قادرة على تنفيذ عمليات متقدمة دون إشراف بشري مباشر، مما يصعّب اكتشافها.

  • التزييف العميق والاحتيال: يُستخدم الذكاء الاصطناعي في تقنيات التزييف العميق لإنتاج مقاطع صوتية ومرئية مُقنعة تُوظف مباشرة في عمليات انتحال الشخصيات والاحتيال الرقمي.

  • استغلال الثغرات الدفاعية: يعمل المهاجمون على استغلال ثغرات أنظمة الحماية نفسها عبر هجمات مدعومة بالذكاء الاصطناعي تربك خوارزميات الأمن.

  • الكفاءة والتكلفة: يتيح الاعتماد على الأتمتة تنفيذ هجمات واسعة النطاق بسرعة وتكرار أعلى وبأقل تكلفة، مما يستلزم تطوير آليات حماية جديدة قادرة على التصدي للهجمات المعقدة.

Trending

Exit mobile version