في خطوة غير مسبوقة على مستوى العالم أقر الاتحاد الأوروبي قانون شامل لتنظيم استخدام الذكاء الاصطناعي ودخل هذا القانون حيز التنفيذ يوم الخميس ويهدف إلى تحديد وتنظيم استخدامات الذكاء الاصطناعي التي تعتبر عالية الخطورة وسيتم تطبيق بنود القانون تدريجي خلال العامين القادمين مما يمنح الشركات فترة سماح لتكييف عملياتها والامتثال للمتطلبات الجديدة.
المجالات عالية الخطورة حسب الاتحاد الأوروبي
حدد الملحق الثالث للقانون استخدامات الذكاء الاصطناعي التي تعتبر عالية الخطورة في عدة مجالات ومنها:
- تحليل البيانات البيومترية: يشمل ذلك التعرف على الوجوه عبر أنظمة المراقبة، مع استثناء أنظمة تأكيد الهوية.
- التصنيف البيومتري وتحليل المشاعر: يشمل استخدام الذكاء الاصطناعي في تحليل المشاعر وتصنيف الأفراد بناءً على البيانات البيومترية.
- البنية التحتية: تطبيقات الذكاء الاصطناعي في إدارة الأمان والحماية في المرافق الحيوية، مثل حركة المرور وإمدادات المياه والكهرباء.
تعاون جوجل والذكاء الاصطناعي نحو تقليل الانبعاثات وتعزيز الاستدامة
مستقبل التعليم: دور تقنية LearnLM من جوجل في تحول صناعة التعليم
تقنين استخدام الذكاء الاصطناعي في التعليم والعمل
ركز قانون الاتحاد الأوروبي على تنظيم استخدام الذكاء الاصطناعي في بيئات العمل والتعليم معتبر إياه عالي الخطورة ويشمل ذلك:
- قبول الأفراد في البرامج التعليمية والتدريبية.
- مراقبة وتقييم أداء الطلاب والمتدربين.
- إجراءات التوظيف وهي إعداد إعلانات الوظائف وفرز السير الذاتية.
خدمت االرعاية والتأمين
أشار القانون إلى خطورة استخدام الذكاء الاصطناعي في تحديد أحقية الأفراد للحصول على الخدمات العامة والخاصة مثل:
- الرعاية الصحية.
- المساعدات الاجتماعية.
- تقييم الجدارة للحصول على التأمين والائتمان.
نظارة آبل Vision Pro: شريكك في تقديم خدمات صحية متطورة
إنفاذ القانون والهجرة
لم يغفل المشرعون الأوروبيون عن سلطات إنفاذ القانون حيث صنفوا استخدام الذكاء الاصطناعي في هذا المجال كعالي الخطورة ويشمل ذلك:
- تقييم خطر وقوع الأفراد كضحايا للجرائم.
- استخدام الذكاء الاصطناعي في التحقيقات وكشف الكذب.
- تنظيم دخول المهاجرين واللاجئين من فحص طلبات اللجوء والتأشيرات ومراقبة الهجرة غير النظامية.
فهم الفروقات بين نقاط الخبرة والعملات الذهبية وعملات GP الزرقاء في eFootball 2024
القضاء والانتخابات
تضمن القانون أيضًا استخدام الذكاء الاصطناعي في المجالات القضائية والتشريعية، مثل:
- مساعدة القضاة في تفسير القوانين.
- التأثير على نتائج الانتخابات.
إجراءات التقييم والتوجيه
تشمل المادة السادسة من القانون الصادر من الاتحاد الأوروبي تحديد حالات الاستخدام عالي الخطورة للذكاء الاصطناعي مع إلزام إجراء تقييم من جهة خارجية قبل طرح النظام في السوق.
وستقدم المفوضية الأوروبية إرشادات وأمثلة على الأنظمة ذات المخاطر العالية قبل فبراير 2026 لضمان التزام الشركات والمؤسسات بالمعايير الجديدة وتعزيز الأمان والثقة في استخدام الذكاء الاصطناعي.