تشهد الصين مرحلة تنظيمية جديدة مرتبطة بتقنيات الذكاء الاصطناعي مع إعلانها عن مسودة لوائح صارمة تستهدف الحد من التأثير العاطفي لـ روبوتات الدردشة الذكية على المستخدمين، خصوصًا في الموضوعات الحساسة مثل إيذاء النفس والانتحار والمقامرة. وتفتح هذه الخطوة فصلًا جديدًا في علاقة الدول بتقنيات الذكاء الاصطناعي التفاعلي، حيث لم يعد التركيز منصبًا فقط على نوعية المحتوى، بل امتد إلى “سلامة المشاعر” وتأثير الحوار الافتراضي في الصحة النفسية للمستخدم.
المسودة التنظيمية الجديدة، الصادرة عن إدارة الفضاء الإلكتروني الصينية، تستهدف فئة ما يسمى “خدمات الذكاء الاصطناعي التفاعلية الشبيهة بالبشر”، أي الأنظمة التي تحاكي الشخصية الإنسانية وتتفاعل مع المستخدمين على نحو عاطفي وواقعي من خلال النصوص والصوت والصور والفيديو. وتفتح الصين باب التعليقات العامة حول هذه القواعد حتى أواخر يناير المقبل قبل اعتمادها بشكل نهائي.
الصين تشدد القيود على روبوتات الدردشة الذكية قواعد جديدة لحماية المشاعر قبل المحتوى
الصين تشدد القيود على روبوتات الدردشة الذكية قواعد جديدة لحماية المشاعر قبل المحتوى
يرى خبراء أن القواعد الجديدة تمثل سابقة عالمية، إذ تعد الصين أول دولة تتجه بوضوح إلى تنظيم البعد العاطفي للتفاعل بين البشر وروبوتات الدردشة الذكية، وليس فقط ما تنتجه من محتوى. ويصف أكاديميون الخطوة بأنها انتقال واضح من التركيز على “صحة المعلومات” إلى “سلامة المشاعر”، في ظل انتشار تطبيقات الرفيق الرقمي والشخصيات الافتراضية التي تبني علاقات وجدانية مع المستخدمين.
وقد حذر باحثون من أن الاعتماد المفرط على روبوتات مصممة لمحاكاة التعاطف أو تقديم الدعم العاطفي قد يؤثر بشكل عميق في الصحة النفسية، خصوصًا لدى القُصّر والأشخاص الذين يمرون بحالات هشاشة نفسية، ما دفع الجهات التنظيمية الصينية إلى التحرك مبكرًا قبل اتساع نطاق الظاهرة.
قيود صارمة على المحتوى عالي الحساسية
تنص القواعد المقترحة على منع روبوتات الدردشة الذكية من توليد أي محتوى يشجع على الانتحار أو إيذاء النفس أو يتضمن عنفًا لفظيًا أو تلاعبًا عاطفيًا يمكن أن يضر بالصحة النفسية للمستخدمين. وفي حال عبّر المستخدم صراحة عن نية الانتحار، تُلزم اللوائح الشركات المشغلة بالتدخل البشري الفوري والتواصل مع جهات أو أشخاص محددين مسبقًا لضمان تقديم المساندة.
كما تتضمن اللوائح أيضًا حظر توليد محتوى مرتبط بالمقامرة أو المواد الإباحية أو العنف، مع فرض رقابة خاصة على الخدمات التي تتعلق بـ “الصحبة العاطفية” المعتمدة على الذكاء الاصطناعي. وتشترط هذه الخدمات موافقة أولياء الأمور للقُصّر، بالإضافة إلى تحديد المدد الزمنية المسموح بها للاستخدام.
حماية القصر على رأس الأولويات
تركز اللوائح بشكل واضح على حماية الأطفال والمراهقين من الاعتماد المفرط على روبوتات الدردشة الذكية. وتنصّ على ضرورة محاولة التحقق من عمر المستخدم حتى إن لم يُفصح عنه صراحة، وتفعيل إعدادات مخصصة للقُصّر عند الشك في الفئة العمرية كما تلزم الشركات بتذكير المستخدمين الذين يتفاعلون لفترات طويلة مع الأنظمة الذكية بعد مرور ساعتين متواصلتين من الاستخدام، في محاولة للحد من الارتباط العاطفي الزائد أو الاعتماد النفسي على الذكاء الاصطناعي الرفاقي.
متطلبات صارمة للشركات المطورة
لا تقتصر القواعد الجديدة على الجوانب السلوكية والعاطفية فقط، بل تشمل كذلك التزامات تنظيمية وتقنية للشركات المطورة. فكل نظام من روبوتات الدردشة الذكية يتجاوز مليون مستخدم مسجل أو 100 ألف مستخدم نشط شهريًا سيكون مطالبًا بإجراء تقييمات أمان إلزامية لضمان توافقه مع المعايير الجديدة وكما تشدد اللوائح على وضوح هوية الذكاء الاصطناعي، بحيث يكون المستخدم على علم بأنه يتفاعل مع نظام غير بشري، لمنع حالات التعلق العاطفي أو الخلط بين الإنسان والآلة.
يأتي الإعلان عن هذه اللوائح في وقت حساس تشهد فيه السوق الصينية موجة اكتتابات عامة مرتقبة لشركات ناشئة رائدة في مجال الذكاء الاصطناعي. فقد تقدمت شركات مثل Minimax وZ.ai بطلبات إدراج في بورصة هونغ كونغ، وتعد هذه الشركات من أبرز مطوري تطبيقات روبوتات الدردشة الذكية في الصين ويمتلك تطبيق Talkie AI، التابع لإحدى هذه الشركات، عشرات الملايين من المستخدمين الذين يتفاعلون مع شخصيات افتراضية مصممة لتقديم الدعم العاطفي أو الرفقة الرقمية، وهو ما جعله في دائرة الضوء التنظيمي.
لا تقتصر المخاوف المتعلقة بالذكاء الاصطناعي التفاعلي على الصين فقط؛ إذ يتصاعد النقاش عالميًا حول تأثير هذه التقنيات على السلوك البشري وصحة المستخدمين النفسية. وقد أقر عدد من قادة قطاع الذكاء الاصطناعي بصعوبة تعامل النماذج اللغوية الحالية مع القضايا الحساسة مثل إيذاء النفس والانتحار والدعم النفسي العميق وفي ظل هذا الواقع، تسعى الصين إلى لعب دور قيادي في صياغة قواعد الحوكمة العالمية للذكاء الاصطناعي، واضعةً معايير توازن بين الابتكار التكنولوجي وحماية المستهلكين من المخاطر العاطفية والسلوكية المحتملة.