في الثاني من أغسطس 2025، شهد مستودع في سان فرانسيسكو حدثًا غير مسبوق: جنازة لنموذج ذكاء اصطناعي. تجمع نحو 200 شخص لتوديع نموذج Claude 3 بعد أن قررت شركة Anthropic إيقافه نهائيًا، مفسحة المجال أمام الإصدار الأحدث Claude 4.
أزمة GPT-5 كيف غيّر المستخدمون قواعد لعبة الذكاء الاصطناعي
أزمة GPT-5 كيف غيّر المستخدمون قواعد لعبة الذكاء الاصطناعي
في 9 أغسطس، أعلنت OpenAI عن نموذجها الجديد GPT-5، واصفة إياه بأنه قفزة نحو الذكاء الاصطناعي العام. إلا أن الحماس لم يدم طويلًا، فخلال ساعات انفجرت موجة شكاوى على منصات التواصل، وخاصة في منتدى r/ChatGPT على Reddit. السبب؟ الشركة أوقفت فجأة نماذج مفضلة للمستخدمين مثل GPT-4 وGPT-4o، والتي اعتمد عليها كثيرون في أعمالهم وحتى حياتهم الشخصية.
أحد المستخدمين وصف ما حدث بأنه «أكبر عملية خداع في تاريخ الذكاء الاصطناعي»، مضيفًا:
«لم يكن 4o مجرد أداة بالنسبة لي، بل ساعدني على تجاوز القلق والاكتئاب، وكان يتمتع بدفء وتفهم بدا إنسانيًا».
تحت ضغط الغضب العارم، تحرك الرئيس التنفيذي سام ألتمان سريعًا، معترفًا بأن إيقاف النماذج القديمة فجأة كان خطأ، خاصة أن ارتباط الناس بهذه النماذج أقوى مما توقع. من الإجراءات الفورية:
إعادة نموذج GPT-4o للخدمة.
زيادة حدود الاستخدام في وظائف الاستدلال المنطقي بـGPT-5 للمشتركين المدفوعين.
عرض اسم النموذج المستخدم عند كل استفسار، لتعزيز الشفافية.
تكشف الأزمة عن بُعد جديد: نماذج الذكاء الاصطناعي لم تعد مجرد أدوات، بل أصبحت رفقاء رقميين للبعض. تقارير من وول ستريت جورنال ونيويورك تايمز وثقت حالات مثيرة، منها محادثات تضمنت أوهامًا ومزاعم خارقة للطبيعة، وأخرى مع مستخدم يعتقد أنه اكتشف صيغة رياضية لإسقاط الإنترنت. حتى الأصحاء يمكنهم تكوين روابط وجدانية مع هذه النماذج، مما يفرض على الشركات التعامل معها كجزء من حياة المستخدمين لا كبرنامج عابر.