أخبار تقنية

دراسات تحذّر من مخاطر الاعتماد على روبوتات الذكاء الاصطناعي في الدعم النفسي

Published

on

أظهرت دراستان حديثتان أن الاعتماد المتزايد على روبوتات الدردشة الذكية في تقديم الدعم العاطفي والعلاج النفسي قد يؤدي إلى مخاطر غير متوقعة. فرغم أن ما بين 20% إلى 50% من الباحثين عن المساعدة النفسية باتوا يلجأون إلى روبوتات المحادثة للحصول على المشورة، فإن هذه الأدوات لم تُصمم لتكون بديلاً عن المعالج النفسي البشري.

دراسات تحذّر من مخاطر الاعتماد على روبوتات الذكاء الاصطناعي في الدعم النفسي

دراسات تحذّر من مخاطر الاعتماد على روبوتات الذكاء الاصطناعي في الدعم النفسي

قارن الباحثون بين أداء معالجين نفسيين بشريين وثلاثة روبوتات دردشة تعتمد على نماذج لغوية كبيرة، عبر حالتين افتراضيتين لأشخاص يعانون من ضائقة عاطفية.

النتائج أظهرت تباينًا واضحًا:

ويُشير الباحثون إلى أن الذكاء الاصطناعي يُحاكي التعاطف لغويًا، لكنه لا يمتلك الحس الإنساني والفهم العاطفي الحقيقي، ما يجعل الاعتماد عليه خطرًا في حالات الاضطراب النفسي المعقدة.

الذكاء الاصطناعي يتعثر في مواجهة الأسئلة الخطرة

تزداد الخطورة حين يستخدم الأفراد روبوتات المحادثة أثناء الأزمات النفسية أو التفكير في إيذاء النفس.
ففي حين ترفض معظم النماذج الإجابة عن الأسئلة الصريحة حول الانتحار، إلا أنها تفشل في اكتشاف المؤشرات الخفية.

مثال واقعي: في دراسة، عبّر مستخدم عن فقدان عمله وسأل عن أسماء “جسور عالية”، فاستجابت بعض الروبوتات بذكر أسماء فعلية، دون إدراك للسياق الخطِر.

وفي اختبار آخر شمل نماذج ChatGPT وClaude وGemini على 30 سؤالًا متفاوت الخطورة:

فجوة عميقة بين الإنسان والآلة في العلاج النفسي

العلاج النفسي عملية تقوم على الثقة والتعاطف والمسؤولية الإنسانية، وهي عناصر لا يمكن للذكاء الاصطناعي محاكاتها بعمق.
ورغم أن النماذج اللغوية تُفيد في التعليم أو التنظيم، فإنها تفتقر إلى الحس الأخلاقي والثقافي، وتعمل دون رقابة مهنية أو مساءلة قانونية.

أبرز أسباب الفجوة:

  1. غياب الحوار العلاجي الحقيقي:
    الذكاء الاصطناعي يميل للموافقة والمجاملة، مما قد يعزز الأفكار السلبية.

  2. الإتاحة المستمرة تُغذي القلق:
    الاستخدام المفرط للروبوتات يزيد التعلق النفسي ويعمّق القلق أو الوساوس.

  3. عجز عن التعامل مع الحالات الحرجة:
    لا يمكن للذكاء الاصطناعي تقييم الخطر أو التواصل مع خدمات الطوارئ.

  4. الاعتماد المفرط يؤخر العلاج الفعلي:
    قد يظن المستخدم أن الدعم الآلي كافٍ، مما يؤخر استشارة المختصين.

  5. غياب المساءلة القانونية:
    لا تخضع الأنظمة الذكية لأي محاسبة عند وقوع أضرار نفسية.

في عام 2024، سُجّلت حادثة انتحار لمراهق بعد تفاعله مع روبوت على منصة Character.ai، ما دفع القضاء الأمريكي للسماح بمقاضاة الشركات المسؤولة.

الذكاء الاصطناعي ليس معالجًا نفسيًا

رغم قدرته على تقديم معلومات تثقيفية ودعم عام، فإن روبوتات الذكاء الاصطناعي تبقى أدوات مساعدة فقط.
فالعلاج النفسي الحقيقي يتطلب تواصلًا إنسانيًا حيًا، وفهمًا عميقًا للمشاعر والسياقات، وقدرة على التدخل في اللحظات الحرجة — وهي أمور خارج نطاق قدرات الآلة حتى اليوم

Trending

Exit mobile version