أوضحت جوجل أن التحديثات الجديدة ستتضمن واجهة تفاعلية تقوم بتوجيه المستخدمين إلى خطوط الدعم النفسي عند رصد مؤشرات على أفكار مرتبطة بالانتحار أو إيذاء النفس.
كما تعمل الشركة على إضافة وحدة جديدة داخل المحادثات تحمل اسم “المساعدة متاحة”، لتقديم إرشادات فورية ومصادر موثوقة للدعم النفسي، في محاولة للحد من أي سلوكيات قد تُشكّل خطرًا على المستخدم.
خلفية: قضايا قانونية وانتقادات متزايدة
تأتي هذه الخطوة في سياق تزايد القلق العالمي بشأن تأثير تطبيقات الذكاء الاصطناعي، مثل Google Gemini وChatGPT، على الصحة النفسية.
وأشارت تقارير إلى أن بعض المستخدمين طوّروا ارتباطًا عاطفيًا عميقًا مع هذه الأنظمة، ما أدى — وفق دعاوى قضائية — إلى تفاقم حالات نفسية مثل الهلاوس والضلالات، وفي بعض الحالات النادرة إلى حوادث عنف أو انتحار.
حوادث واقعية تضغط نحو التغيير
في إحدى القضايا الحديثة، رفعت عائلة رجل يبلغ 36 عامًا في ولاية Florida دعوى قضائية ضد جوجل، متهمةً نظام “Gemini” بالتسبب في تصعيد سلوكيات عنيفة انتهت بانتحار المستخدم خلال فترة قصيرة.
من جانبها، أكدت جوجل أن النظام قام بتوجيه المستخدم عدة مرات إلى خطوط دعم الأزمات النفسية، مع تعهدها بتعزيز إجراءات الأمان بشكل أكبر.
تحسينات على سلوك الذكاء الاصطناعي
ضمن التحديثات المرتقبة، أشارت جوجل إلى أنها عملت على تدريب “Gemini” ليكون أكثر وعيًا في التعامل مع الحالات الحساسة، وذلك من خلال:
امتداد لجهود سابقة في المجال الصحي
تُعد هذه الخطوة جزءًا من استراتيجية أوسع تتبعها جوجل لتحسين جودة المحتوى المرتبط بالصحة، حيث سبق أن أضافت معلومات من خبراء ومؤسسات متخصصة في الصحة النفسية ضمن نتائج البحث ومنصة YouTube، استجابةً للانتقادات المتزايدة حول دقة المحتوى الصحي على الإنترنت.
توازن مطلوب بين الابتكار والمسؤولية
تعكس هذه التحديثات إدراكًا متزايدًا لدى شركات التكنولوجيا لأهمية تحقيق التوازن بين تطوير تقنيات الذكاء الاصطناعي وضمان سلامة المستخدمين، خاصة في القضايا الحساسة مثل الصحة النفسية، والتي تتطلب أعلى درجات الحذر والمسؤولية.