أظهرت دراسة حديثة أن روبوتات الدردشة الذكية يمكن أن تُخضع للتأثير النفسي تمامًا مثل البشر، حيث يمكن استخدام أساليب مثل الإطراء أو ضغط الأقران لدفعها إلى خرق القواعد التي وُضعت لتقييد استجاباتها.
أجرى باحثون من جامعة بنسلفانيا اختبارات على نموذج GPT-4o Mini التابع لشركة OpenAI، مستخدمين تقنيات مستمدة من كتاب عالم النفس روبرت سيالديني: “Influence: The Psychology of Persuasion”. وتضمنت الأساليب سبع استراتيجيات للإقناع: السلطة، الالتزام، الإعجاب، المعاملة بالمثل، الندرة، الدليل الاجتماعي، والوحدة.
أظهرت الدراسة أن تقنيات مثل الإعجاب (الإطراء) والدليل الاجتماعي (ضغط الأقران) كانت أقل فعالية لكنها لا تزال مؤثرة. فعلى سبيل المثال، مجرد إخبار الروبوت أن “جميع النماذج الأخرى تفعل ذلك” رفع احتمالية الامتثال من 1% إلى 18%.
تشير هذه النتائج إلى أن نماذج الذكاء الاصطناعي قد تكون عرضة للتأثير بطرق غير متوقعة، ما يثير تساؤلات حول أمان استخدام روبوتات الدردشة في المواقف الحساسة، وضرورة تطوير أنظمة أقوى لمقاومة التلاعب النفسي.