أبرمت الحكومة الأمريكية اتفاقًا مع عدد من أبرز شركات التكنولوجيا، من بينها Microsoft وGoogle وxAI التابعة لرجل الأعمال Elon Musk، يتيح لها الوصول المبكر إلى نماذج الذكاء الاصطناعي قبل طرحها للعامة، وذلك بهدف تقييم المخاطر المرتبطة بالأمن القومي.
واشنطن تُشدد الرقابة على الذكاء الاصطناعي وصول مبكر للنماذج قبل إطلاقها
يتولى AI Safety Institute، التابع لوزارة التجارة الأمريكية، مسؤولية اختبار هذه النماذج وتحليل قدراتها، عبر إجراء أبحاث متخصصة لتحديد التهديدات المحتملة قبل انتشارها على نطاق واسع.
واشنطن تُشدد الرقابة على الذكاء الاصطناعي وصول مبكر للنماذج قبل إطلاقها
مخاوف متزايدة من التهديدات السيبرانية والعسكرية
تعكس هذه الخطوة تصاعد القلق داخل الأوساط الحكومية الأمريكية بشأن تداعيات الذكاء الاصطناعي المتقدم، خاصة في ما يتعلق بالهجمات السيبرانية والاستخدامات العسكرية. وتسعى الجهات المختصة إلى استباق المخاطر عبر تحليل النماذج قبل وصولها إلى المستخدمين.
جاء هذا التحرك في ظل الجدل الذي أثارته نماذج حديثة، مثل نموذج Mythos الذي طورته شركة Anthropic، وسط مخاوف من إمكانية استغلال هذه التقنيات لتعزيز قدرات القراصنة وتسريع الهجمات الإلكترونية.
امتداد لاتفاقات سابقة
لا يُعد هذا الاتفاق الأول من نوعه، إذ يستند إلى تفاهمات أُبرمت في عام 2024 مع شركات مثل OpenAI وAnthropic، عندما كان الكيان الحكومي المعني يُعرف باسم “معهد سلامة الذكاء الاصطناعي الأمريكي”.
أوضح المركز أنه أجرى بالفعل أكثر من 40 عملية تقييم شملت نماذج متقدمة لم تُطرح بعد للجمهور، في إطار جهود استباقية لرصد المخاطر المحتملة.
اختبار دون قيود أمان كاملة
في بعض الحالات، توفر الشركات نسخًا من نماذجها مع تخفيف ضوابط الأمان، ما يسمح للجهات الحكومية بإجراء اختبارات أعمق وفهم أدق لنقاط الضعف والتهديدات المرتبطة بالأمن القومي.
بالتوازي مع هذه الجهود، أعلنت United States Department of Defense عن توقيع اتفاقيات مع سبع شركات ذكاء اصطناعي، من بينها OpenAI وGoogle وxAI، بهدف دمج تقنياتها ضمن الشبكات العسكرية السرية، ما يعكس توجهًا متزايدًا نحو توظيف الذكاء الاصطناعي في المجالات الدفاعية.