أعاد التقدم المتسارع في تقنيات الذكاء الاصطناعي فتح النقاش حول مستقبل العديد من المهن التقنية، وعلى رأسها الأمن السيبراني. وفي هذا السياق، كشفت دراسة حديثة أجراها باحثون من جامعة ستانفورد أن وكيلًا أمنيًا مدعومًا بالذكاء الاصطناعي قد لا يكتفي بمجاراة خبراء الاختراق البشريين، بل يمكنه التفوق عليهم في بعض السيناريوهات.
اختبر الباحثون وكيل ذكاء اصطناعي أطلقوا عليه اسم ARTEMIS في مواجهة مباشرة مع 10 مختصين محترفين في الأمن السيبراني تم اختيارهم بعناية. وخلال التجربة، حلّ ARTEMIS في المرتبة الثانية بين المشاركين، وتمكن من اكتشاف ثغرات أمنية لم يلاحظها بعض الخبراء البشر، خصوصًا أثناء تعامله المتوازي مع عدة مشكلات أمنية في الوقت نفسه.
هل يغيّر الذكاء الاصطناعي قواعد الأمن السيبراني
أداء قوي بتكلفة أقل
بحسب تقرير نشره موقع Business Insider، أمضى ARTEMIS نحو 16 ساعة في فحص الشبكات العامة والخاصة لقسم علوم الحاسوب بجامعة ستانفورد، باحثًا في آلاف الأجهزة عن ثغرات أمنية محتملة. وفي نهاية الاختبار، تفوق أداؤه على معظم المختبرين البشر، ليس فقط من حيث النتائج، بل أيضًا من حيث التكلفة.
فقد بلغت تكلفة تشغيل ARTEMIS نحو 18 دولارًا في الساعة، مقارنة بمتوسط تكلفة سنوية تصل إلى 125 ألف دولار لتوظيف مختبر اختراق محترف. وحتى أكثر وكلاء الذكاء الاصطناعي تقدمًا، والذين تبلغ تكلفة تشغيلهم نحو 59 دولارًا في الساعة، يظلون أقل تكلفة من خبير بشري عالي المستوى.
خلفية الدراسة وأهدافها
قاد الدراسة باحثو ستانفورد: Justin Lin و Eliot Jones و Donovan Jasper، الذين طوروا ARTEMIS بعد ملاحظتهم أن أدوات الذكاء الاصطناعي التقليدية تعاني صعوبة في إنجاز المهام الأمنية طويلة الأمد والمعقدة.
وخلال التجربة، مُنح الوكيل الذكي حق الوصول إلى شبكة تضم نحو 8000 جهاز، شملت خوادم، وحواسيب، وأجهزة ذكية. وطُلب من المختبرين البشر العمل لمدة لا تقل عن 10 ساعات، بينما عمل ARTEMIS لما يصل إلى 16 ساعة على مدار يومين. ولتحقيق العدالة، قارن الباحثون فقط أول 10 ساعات من عمل الذكاء الاصطناعي بأداء الخبراء البشر.
في تلك الفترة، اكتشف ARTEMIS 9 ثغرات أمنية حقيقية، وحقق معدل دقة بلغ 82% في التقارير الصحيحة، متفوقًا على 9 من أصل 10 مشاركين بشر. ومع ذلك، لم يكن أداؤه كاملًا؛ إذ أظهرت تقارير وول ستريت جورنال أن نحو 18% من إنذاراته كانت إنذارات كاذبة، كما أخفق في اكتشاف ثغرة واضحة في إحدى صفحات الويب، نجح معظم الخبراء البشر في رصدها سريعًا.
في المقابل، تثير هذه التطورات مخاوف متزايدة؛ إذ أسهم الذكاء الاصطناعي في خفض الحواجز التقنية أمام الاختراقات الإلكترونية ونشر المعلومات المضللة، ما مكّن مجرمين ذوي مهارات محدودة من تنفيذ هجمات واسعة النطاق.
وقد كشف تقرير لشركة Anthropic أن جهات من كوريا الشمالية استخدمت نموذج الذكاء الاصطناعي Claude للحصول على وظائف عمل عن بُعد وهمية في شركات تقنية أميركية، مما أتاح لها الوصول إلى أنظمة داخلية حساسة. كما أشار التقرير إلى استخدام مجموعات من الصين للنموذج نفسه في دعم هجمات سيبرانية استهدفت قطاعات الاتصالات والزراعة وجهات حكومية في فيتنام.
ردًا على هذه المخاطر، بدأت شركات الذكاء الاصطناعي الكبرى بتعزيز إجراءات الحماية. فقد طورت مايكروسوفت أدوات لرصد التعليمات المشبوهة، بينما تحذّر OpenAI المستخدمين عند محاولة وكلاء الذكاء الاصطناعي الوصول إلى مواقع أو بيانات حساسة، وتمنع الاستمرار إلا بإشراف مباشر.
وفي هذا الإطار، يدعو عدد من خبراء الأمن السيبراني إلى فرض ضوابط أكثر صرامة، مثل اشتراط موافقة بشرية مسبقة قبل تنفيذ عمليات عالية الخطورة، كاستخراج البيانات أو الوصول إلى الحسابات المصرفية، لضمان بقاء الذكاء الاصطناعي أداة دعم لا بديلًا كاملًا عن الخبرة البشرية.