في السنوات الأخيرة، شهد الذكاء الاصطناعي التوليدي تطورات مذهلة تُوظَّف في مجالات متنوعة، من الرعاية الصحية إلى الأمن السيبراني والحوسبة الكمومية. لكن مع هذه القفزات التقنية، ظهرت تحديات، من بينها التحيز المتنامي في أنظمة الذكاء الاصطناعي، والذي قد يؤثر سلبًا على قراراتها.
التغلب على التحيز في الذكاء الاصطناعي تحديات جديدة وحلول مبتكرة
التحيز في الذكاء الاصطناعي ليس فقط مشكلة تقنية؛ إذ قد يتسبب في تأثيرات عميقة على المجالات التي تتطلب قرارات محايدة، مثل التوظيف والقضاء والرعاية الصحية. فعلى سبيل المثال، كانت شركة أمازون قد أوقفت استخدام خوارزمية توظيف لكونها تفضّل مصطلحات معينة مستخدمة في سير ذاتية للرجال، مما يعكس نمطًا متحيزًا.
التغلب على التحيز في الذكاء الاصطناعي تحديات جديدة وحلول مبتكرة
جهود تقليل التحيز: مؤسسة NTT نموذجًا
لمواجهة هذا التحدي، عملت بعض الشركات، مثل مؤسسة NTT للأبحاث، على تطوير حلول لتقليل التحيز في الشبكات العصبية العميقة (DNNs). وقد قدّم الباحثون تقنية “الضبط الدقيق القائم على الاتصال” (CBFT)، التي تهدف إلى تعديل مسارات التحليل داخل النموذج، بحيث يتم تجاهل السمات التي قد تؤدي إلى نتائج متحيزة.
تعتمد تقنية CBFT على إنشاء مسارات جديدة داخل بيانات النموذج لتجاوز العوامل التي قد تؤدي إلى التحيز. فعلى سبيل المثال، إن كان النموذج يعتمد على الخلفية لتصنيف كائنات معينة، تُعيد CBFT ضبطه ليعتمد على شكل الكائن فقط، ما يساهم في تقليل الاعتماد على العوامل المؤثرة غير ذات الصلة.
أظهرت دراسة للباحثة Joy Buolamwini بالتعاون مع Timnit Gebru من معهد ماساتشوستس للتكنولوجيا أن تقنيات تحليل الوجه تُظهر أخطاء أكبر عند تقييم النساء من الأقليات، ويرجع ذلك في الغالب إلى نقص في بيانات التدريب المتعلقة بهذه الفئات، مما يؤكد ضرورة التركيز على تمثيل البيانات بشكل أوسع وأكثر شمولية.
رغم الآفاق الواعدة للذكاء الاصطناعي، فإن التحديات المرتبطة بتحيزه تفرض على المطورين وصناع القرار وضع معايير أخلاقية وتنظيمية صارمة. عبر التعاون المستمر بين الباحثين والمطورين، يمكن ضمان استخدام مسؤول لهذه التقنية، بحيث تكون أداة للابتكار والتقدم، وليس لمزيد من التعقيدات والتحديات المجتمعية.