أعلنت شركة جوجل مؤخرًا عن نموذج الذكاء الاصطناعي الجديد (PaliGemma 2)، الذي يقدم تطورًا لافتًا في مجال تحليل الصور وفهم محتواها. يتميز النموذج بقدرته على التعرف على الأجسام والأشخاص في الصور، بل ويتجاوز ذلك إلى وصف الأفعال والمشاعر التي يعبر عنها الأشخاص في المشهد.
النموذج يعتمد على تقنيات متقدمة لتحليل الصور ومعالجة النصوص، مما يتيح له تقديم تعليقات توضيحية مفصلة تتعلق بالسياق الكامل للصورة. كما يدعم النموذج عدة تطبيقات تشمل:
هل يمكن للذكاء الاصطناعي قراءة مشاعرك من الصور
التعليق التوضيحي التفصيلي: يقدم أوصافًا دقيقة للأفعال والمشاعر والسياقات العامة في الصور.
التنوع في الاستخدام: يمتد استخدامه ليشمل مجالات مثل التجارة الإلكترونية، التعليم، وتوليد تقارير طبية من الصور.
المرونة العالية: النموذج متوفر بأحجام مختلفة (3، 10، و28 مليار معلمة)، مما يجعله مناسبًا للمهام المختلفة.
تحديات اكتشاف المشاعر
رغم الإمكانات الكبيرة التي يوفرها النموذج، تثير فكرة قراءة المشاعر بواسطة الذكاء الاصطناعي شكوكًا علمية وأخلاقية:
التعقيد البشري: المشاعر الإنسانية متعددة الأبعاد ولا يمكن للآلة إدراكها بالكامل.
التحيزات التقنية: أظهرت نماذج سابقة تحيزات مرتبطة بالعرق والجنس، مما يثير القلق حول دقة نتائج النموذج.
الأطر العلمية غير المكتملة: تعتمد العديد من الأنظمة على فرضيات مثل نظرية بول إيكمان، التي أثبتت دراسات لاحقة أنها مبسطة للغاية.
تشكل هذه التقنية خطرًا إذا تم استخدامها في مجالات حساسة مثل التوظيف والتعليم. قوانين الاتحاد الأوروبي، على سبيل المثال، تمنع استخدام أنظمة تحليل المشاعر في هذه السياقات لتجنب التمييز.
من خلال إتاحته عبر منصات مفتوحة مثل (Hugging Face)، قد يكون نموذج (PaliGemma 2) عرضة للاستخدام غير الأخلاقي، مما يزيد من احتمالية إساءة استخدامه لاتخاذ قرارات متحيزة أو التلاعب بالمعلومات.
بينما يمثل نموذج (PaliGemma 2) خطوة مهمة نحو تعزيز قدرة الذكاء الاصطناعي على فهم العالم المرئي، تظل مسألة قراءة المشاعر تحديًا تقنيًا وأخلاقيًا كبيرًا. يجب أن ترافق هذه التطورات معايير صارمة تضمن الشفافية، وتحمي الخصوصية، وتحد من التحيزات لضمان استخدامها بما يخدم المجتمع.