يشهد العالم طفرة في استخدام الذكاء الاصطناعي لحماية الفئات الضعيفة مثل الأطفال في دور الرعاية، وكبار السن، والطلاب. وتُستخدم هذه التقنية لرصد مؤشرات الخطر والتنبيه المبكر لمنع الأذى. ومع ذلك، فإن هذا التوسع لا يخلو من الأسئلة الأخلاقية والتقنية الجوهرية: هل نحن نطور أنظمة قادرة على رعاية المحتاجين، أم أننا نكرّس ظلمًا جديدًا من خلال أتمتة أخطاء الماضي؟
هل يمكن للذكاء الاصطناعي أن يحمي الفئات الضعيفة بين الأمل والتحديات
الذكاء الاصطناعي يوفر أدوات فعالة للكشف المبكر والتدخل السريع، ومن أبرز هذه التطبيقات:
هل يمكن للذكاء الاصطناعي أن يحمي الفئات الضعيفة بين الأمل والتحديات
تحليل اللغة: لاكتشاف التهديدات أو أنماط التلاعب في الرسائل النصية والصوتية.
النماذج التنبؤية: لتقدير مستويات الخطر في البيئات الأسرية.
المراقبة الذكية: باستخدام كاميرات ترصد حركات الأجسام لاكتشاف العنف الجسدي.
دعم اتخاذ القرار: من خلال تحليل البيانات الضخمة التي قد لا يمكن ملاحظتها بالعين المجردة.
ومع هذه القدرات، يرى بعض الخبراء – مثل الدكتورة أيسلين كونراد – أن هذه الأنظمة قد تفشل في حماية الفئات المستهدفة إذا لم تُصمم بعناية تراعي البعد الإنساني.
التحيزات الموروثة.. خطر أتمتة الظلم القديم
الذكاء الاصطناعي يتعلم من بيانات تاريخية قد تكون مشحونة بالتمييزات العرقية والطبقية. ومن أبرز الأمثلة على هذه المخاطر:
تمييز عنصري في التقييمات التنبؤية: دراسة في بنسلفانيا عام 2022 كشفت عن ارتفاع معدل بلاغات التحقيق ضد الأطفال السود بنسبة 20% مقارنة بالبيض إذا لم يُشرف عليها بشر.
تحيّز لغوي: أظهرت دراسات أن النماذج اللغوية تُخطئ في تفسير اللهجات، حيث تم تصنيف اللغة العامية للأفارقة الأمريكيين على أنها عدوانية أكثر بنسبة 62%.
فشل في فهم السياق: الرسائل الساخرة أو الفكاهية قد تُفسَّر بشكل خاطئ كمؤشرات خطر.
هذه الأخطاء ليست تقنية بحتة، بل تعكس خللاً في البيانات ونظرة مطوري الأنظمة، ما يؤدي إلى إعادة إنتاج التمييز المنهجي.
المراقبة المفرطة ومشكلة الخصوصية
في سبيل تحقيق الحماية، قد تُستخدم تقنيات الذكاء الاصطناعي بطريقة تمس خصوصية الأفراد:
تنبيهات كاذبة ترهق النظام: تجربة في أستراليا عام 2022 سجلت أكثر من 12,000 تنبيه كاذب خلال عام، ما أدى إلى تجاهل حادثة حقيقية واحدة على الأقل.
أنظمة مراقبة الطلاب: برامج مثل Gaggle وGoGuardian تُصنّف سلوكيات غير ضارة (مثل البحث عن معلومات صحية أو كتابة قصص خيالية) كمؤشرات خطر، ما يؤدي إلى تدخلات غير مبررة.
خلط بين الضحك والعدوانية: بعض الأنظمة تسيء تفسير سلوكيات طبيعية، مما يؤدي إلى عقوبات غير عادلة للطلاب.
بدأت بعض النماذج الواعدة بالظهور، مثل “التحالف في وجه برمجيات التتبع”، الذي يدعو إلى إشراك ضحايا التجسس الإلكتروني في مراحل تطوير الأنظمة.
وفي تطور تشريعي، أقرت ولاية مونتانا في مايو 2025 قانونًا يمنع اتخاذ قرارات آلية ضد الأفراد دون إشراف بشري واضح ويشترط الشفافية الكاملة في استخدام الذكاء الاصطناعي.