أعلنت شركة ميتا عن بدء إعادة تدريب أنظمة الذكاء الاصطناعي التابعة لها، مع إضافة حواجز حماية إضافية تهدف إلى حماية المراهقين من التورط في محادثات غير آمنة مع روبوتات الدردشة. وتركز هذه الخطوة على منع التطرق لموضوعات حساسة مثل إيذاء النفس، واضطرابات الأكل، والانتحار، إلى جانب تقييد وصولهم إلى بعض الشخصيات الافتراضية التي ينشئها المستخدمون داخل المنصة.
تأتي هذه التحركات بعد سلسلة تقارير أثارت الجدل حول طبيعة تفاعلات روبوتات ميتا مع القاصرين. فقد كشف تقرير لوكالة رويترز في مطلع أغسطس أن إحدى الوثائق الداخلية سمحت للروبوتات بخوض محادثات حسية مع مراهقين، قبل أن تصف ميتا الأمر بأنه خطأ يتعارض مع سياساتها الرسمية.
أكدت المتحدثة باسم الشركة ستيفاني أوتواي أن ميتا “بنت آليات حماية للمراهقين منذ البداية”، مشيرة إلى أن التحديثات الجديدة ستجعل الروبوتات أكثر وعيًا بالمواضيع المحظورة، وستوجه المراهقين بدلًا من ذلك نحو مصادر دعم متخصصة عند الحاجة.
أوضحت الشركة أن هذه التحديثات ستظهر تدريجيًا خلال الأسابيع المقبلة، على أن تشمل في البداية المراهقين المستخدمين لخدمات ميتا في الدول الناطقة بالإنجليزية، دون توضيح موعد تعميمها على باقي اللغات.
يرى محللون أن هذه الإجراءات قد تجعل تجربة المراهقين على منصات ميتا أكثر أمانًا، لكنها في الوقت نفسه قد تثير نقاشًا واسعًا حول حدود الرقابة على حرية التفاعل الرقمي، وما إذا كانت هذه الخطوات ستؤثر على طبيعة تجربة المستخدم.