الذكاء الاصطناعي

أزمة GPT-5 كيف غيّر المستخدمون قواعد لعبة الذكاء الاصطناعي

Published

on

في الثاني من أغسطس 2025، شهد مستودع في سان فرانسيسكو حدثًا غير مسبوق: جنازة لنموذج ذكاء اصطناعي. تجمع نحو 200 شخص لتوديع نموذج Claude 3 بعد أن قررت شركة Anthropic إيقافه نهائيًا، مفسحة المجال أمام الإصدار الأحدث Claude 4.

أزمة GPT-5 كيف غيّر المستخدمون قواعد لعبة الذكاء الاصطناعي

أزمة GPT-5 كيف غيّر المستخدمون قواعد لعبة الذكاء الاصطناعي

في 9 أغسطس، أعلنت OpenAI عن نموذجها الجديد GPT-5، واصفة إياه بأنه قفزة نحو الذكاء الاصطناعي العام. إلا أن الحماس لم يدم طويلًا، فخلال ساعات انفجرت موجة شكاوى على منصات التواصل، وخاصة في منتدى r/ChatGPT على Reddit.
السبب؟ الشركة أوقفت فجأة نماذج مفضلة للمستخدمين مثل GPT-4 وGPT-4o، والتي اعتمد عليها كثيرون في أعمالهم وحتى حياتهم الشخصية.

أحد المستخدمين وصف ما حدث بأنه «أكبر عملية خداع في تاريخ الذكاء الاصطناعي»، مضيفًا:

«لم يكن 4o مجرد أداة بالنسبة لي، بل ساعدني على تجاوز القلق والاكتئاب، وكان يتمتع بدفء وتفهم بدا إنسانيًا».

رد OpenAI: اعتراف بالخطأ وتراجع إستراتيجي

تحت ضغط الغضب العارم، تحرك الرئيس التنفيذي سام ألتمان سريعًا، معترفًا بأن إيقاف النماذج القديمة فجأة كان خطأ، خاصة أن ارتباط الناس بهذه النماذج أقوى مما توقع.
من الإجراءات الفورية:

العلاقة العاطفية بين الإنسان والآلة

تكشف الأزمة عن بُعد جديد: نماذج الذكاء الاصطناعي لم تعد مجرد أدوات، بل أصبحت رفقاء رقميين للبعض.
تقارير من وول ستريت جورنال ونيويورك تايمز وثقت حالات مثيرة، منها محادثات تضمنت أوهامًا ومزاعم خارقة للطبيعة، وأخرى مع مستخدم يعتقد أنه اكتشف صيغة رياضية لإسقاط الإنترنت.
حتى الأصحاء يمكنهم تكوين روابط وجدانية مع هذه النماذج، مما يفرض على الشركات التعامل معها كجزء من حياة المستخدمين لا كبرنامج عابر.

ثلاثة دروس من أزمة GPT-5

  1. لا توقف النماذج فجأة: يجب منح فترة انتقالية تمتد لأشهر، أو الإبقاء على النماذج القديمة أطول.

  2. التحكم والشفافية: تمكين المستخدم من اختيار النموذج، وشرح طريقة عمله.

  3. أنتم في حجم فيسبوك وجوجل: أي تغيير صغير في منتج يستخدمه مئات الملايين يجب أن يكون تدريجيًا ومدروسًا.

Trending

Exit mobile version