أعلنت شركة OpenAI أن نموذجها الجديد GPT-5 يمثل خطوة كبرى نحو الذكاء الاصطناعي العام (AGI)، وهو المفهوم الذي يشير إلى أنظمة قادرة على التفوق على البشر في معظم المهام ذات القيمة الاقتصادية. لكن ما بين تصريحات الرئيس التنفيذي سام ألتمان وتقييمات المستخدمين الأوائل، يثور الجدل حول ما إذا كان هذا التطوير يمثل بالفعل قفزة نوعية، أم مجرد تحسين تدريجي على النماذج السابقة.
GPT-5 بين الوعود والواقع هل يقترب العالم حقًا من الذكاء الاصطناعي العام
وفقًا لما صرّح به ألتمان، يتميز GPT-5 بعدة جوانب رئيسية:
GPT-5 بين الوعود والواقع هل يقترب العالم حقًا من الذكاء الاصطناعي العام
برمجة أكثر دقة: قدرة أعلى على كتابة الأكواد البرمجية بشكل صحيح ومتسق.
تقليل الهلوسة: انخفاض معدل الأخطاء والمعلومات غير الدقيقة، مع التزام أكبر بتعليمات المستخدم.
أمان محسن: سلوك أقل تملقًا وأكثر انضباطًا في تقديم المعلومات المفيدة.
ويرى ألتمان أن هذه المزايا تجعله أقرب إلى “المساعد الخبير”، بل شبّهه بمحادثة مع شخص حاصل على درجة الدكتوراه في أي مجال.
القيود المستمرة: إخفاقات تكشف حدود النموذج
رغم هذه التحسينات، لم ينجُ GPT-5 من الانتقادات:
فشل في الفهم السياقي: عجزه عن رسم خريطة صحيحة لأمريكا الشمالية أثبت محدودية إدراكه للعالم الواقعي.
نتائج متواضعة في الاختبارات العلمية: حصل على دقة 42% فقط في اختبار “Humanity’s Last Exam”، مقابل 44% لمنافسه (Grok 4) من شركة xAI.
غياب القدرة على التعلم الذاتي: لا يزال غير قادر على اكتساب خبرات جديدة من تجاربه، وهو عنصر جوهري في الوصول إلى ذكاء اصطناعي عام.
الابتكار التقني: “الموجّه اللحظي الذكي”
الركيزة التقنية الجديدة في GPT-5 هي آلية Real-Time Router أو “الموجّه اللحظي الذكي”، والتي تختار النموذج الأنسب من بين إصدارات GPT للإجابة على سؤال معين، مع تحديد مقدار الجهد الحسابي المطلوب.
لكن الغموض يحيط بهذه الآلية، فـ OpenAI لم تكشف بوضوح ما إذا كان نموذج GPT-5 Thinking يعتمد على خوارزميات مبتكرة أو بيانات جديدة، أم أنه مجرد أسلوب لإدارة النماذج الحالية بطريقة أكثر تنظيمًا تمنح انطباعًا بالعمق دون وجود تقدم جوهري.
منذ ورقة “Attention Is All You Need” عام 2017 التي قدّمت مفهوم المحولات (Transformers)، أحدثت النماذج اللغوية الكبيرة (LLMs) ثورة في الذكاء الاصطناعي. فقد أثبتت مرونة عالية وسهولة في الاستخدام، لكنها ظلت في جوهرها جداول ضخمة تربط بين المدخلات والمخرجات.
ورغم نجاحها، يبقى التساؤل: هل تستطيع هذه النماذج أن “تفكر” فعلًا، أم أنها مجرد آلات متطورة للتنبؤ بالكلمات؟
تسعى شركات التقنية منذ سنوات إلى جعل النماذج اللغوية أكثر موثوقية عبر “الهندسة التوجيهية” (Prompt Engineering). أما GPT-5 فقد دمج هذه الفكرة في بنيته الأساسية، ما قد يقلل الحاجة إلى وسطاء بشريين ويخفض التكاليف.
لكن هذه الخطوة قد تعني أيضًا أن OpenAI بلغت حدود ما يمكن تحقيقه بالاعتماد على النماذج الضخمة، وأن المرحلة المقبلة قد تتطلب البحث عن هياكل جديدة تتجاوز مفهوم LLMs.
نحو مستقبل مختلف: هل يقترب عصر ما بعد النماذج العملاقة؟
إطلاق GPT-5 قد لا يكون “قفزة نحو الذكاء الاصطناعي العام”، لكنه قد يمثل بداية نهاية عصر النماذج الضخمة التي يصعب فهمها والسيطرة عليها. وربما يفتح الباب لعودة أفكار قديمة مثل الاستدلال الماورائي (Meta-Reasoning)، التي تقوم على تقسيم المهام المعقدة إلى أجزاء أصغر وأكثر تخصصًا.
بهذا المعنى، قد يكون GPT-5 نقطة تحول لا لأنه حقق الذكاء الاصطناعي العام، بل لأنه يلمّح إلى أن الطريق للوصول إليه يتطلب ثورة معمارية جديدة، تعيد الذكاء الاصطناعي إلى هدفه الأصلي: فهم الذكاء البشري بعمق، لا مجرد تقليده.
كشفت دراسة حديثة أجراها باحثون من الولايات المتحدة والمملكة المتحدة عن تأثيرات مزدوجة لاستخدام أدوات الذكاء الاصطناعي. فبينما تسهم هذه الأدوات في تحسين الأداء بشكل سريع، فإنها قد تؤدي في المقابل إلى تراجع القدرات الذهنية على المدى الأطول.
هل يُضعف الذكاء الاصطناعي قدراتنا الذهنية دراسة تثير تساؤلات جديدة
حملت الدراسة عنوان “مساعدة الذكاء الاصطناعي تُقلّص المثابرة وتُضعف الأداء المستقل”، وأظهرت أن الاستخدام حتى لفترة قصيرة — لا تتجاوز 10 دقائق — يمكن أن يخلق حالة من الاعتماد. هذه الحالة تؤدي لاحقًا إلى انخفاض في الأداء وزيادة الشعور بالإرهاق عند غياب الدعم التقني، وهو ما وصفه الباحثون بـ “الثمن المعرفي المرتفع”.
هل يُضعف الذكاء الاصطناعي قدراتنا الذهنية دراسة تثير تساؤلات جديدة
تفاصيل التجربة: ماذا حدث للمشاركين؟
استندت الدراسة إلى تجربة شملت 350 مشاركًا طُلب منهم حل مسائل رياضية تعتمد على الكسور:
نصف المشاركين استخدموا روبوت محادثة قائمًا على نموذج GPT-5
النصف الآخر أكمل المهام دون أي مساعدة
وفي منتصف الاختبار، تم إيقاف الدعم عن المجموعة الأولى، ما أدى إلى:
انخفاض ملحوظ في عدد الإجابات الصحيحة
تزايد حالات الاستسلام والتوقف عن المحاولة
وتكررت هذه النتائج في تجربة أوسع ضمّت 670 مشاركًا، بالإضافة إلى اختبار ثالث ركّز على فهم النصوص بدلًا من الرياضيات، مع نفس النمط من تراجع الأداء.
التأثير الأعمق: تراجع الدافعية قبل المهارة
أوضح الباحث راشيت دوبي من جامعة كاليفورنيا أن المشكلة لا تقتصر على ضعف الإجابات بعد سحب الذكاء الاصطناعي، بل تمتد إلى انخفاض الرغبة في المحاولة من الأساس. وأشار إلى أن المثابرة نفسها تتأثر بشكل واضح، وهو ما قد ينعكس سلبًا على التعلم والابتكار.
مخاوف تعليمية: جيل أقل إدراكًا لقدراته
حذّر الباحثون من التوسع السريع في دمج الذكاء الاصطناعي داخل قطاع التعليم، معتبرين أن ذلك قد يؤدي إلى نشوء جيل لا يكتشف قدراته الحقيقية بشكل كامل، مما يهدد الإبداع والتفكير المستقل على المدى البعيد.
تأثير تدريجي يصعب ملاحظته
شبّهت الدراسة هذا التأثير بظاهرة “الضفدع في الماء المغلي”، حيث يحدث التراجع بشكل تدريجي وغير ملحوظ، إلى أن تتآكل الدافعية والمثابرة بمرور الوقت، وقد يصبح من الصعب استعادة المستوى السابق.
رغم النتائج السلبية، رصدت الدراسة نقطة مضيئة، إذ حقق المشاركون الذين استخدموا الذكاء الاصطناعي للحصول على تلميحات أو توضيحات — بدلًا من إجابات جاهزة — أداءً أفضل بعد إيقافه، مقارنةً بمن اعتمدوا عليه بشكل كامل.
يجدر التنبيه إلى أن هذه الدراسة لم تخضع بعد لمراجعة الأقران، وهي خطوة أساسية في البحث العلمي لضمان دقة النتائج ومصداقيتها. لذلك، يُنصح بالتعامل مع هذه النتائج بحذر إلى حين التحقق منها بشكل مستقل.
أعلنت Snap Inc.، على لسان رئيسها التنفيذي Evan Spiegel، عن تسريح نحو 1000 موظف، ما يمثل حوالي 16% من إجمالي قوتها العاملة، إلى جانب إلغاء أكثر من 300 وظيفة شاغرة، وذلك ضمن خطة إعادة هيكلة شاملة.
إعادة هيكلة كبرى في سناب تقليص الوظائف لصالح الذكاء الاصطناعي
تسعى الشركة من خلال هذه الخطوة إلى تقليل نفقاتها السنوية بأكثر من 500 مليون دولار بحلول النصف الثاني من عام 2026، مع التركيز على رفع الكفاءة التشغيلية وتسريع وتيرة النمو في بيئة تنافسية متغيرة.
إعادة هيكلة كبرى في سناب تقليص الوظائف لصالح الذكاء الاصطناعي
سلسلة من التخفيضات السابقة
لم تكن هذه المرة الأولى التي تُقدم فيها Snap Inc. على تقليص العمالة؛ إذ سبق أن خفّضت نحو 20% من موظفيها في عام 2022 خلال تداعيات جائحة كورونا، ثم أتبعت ذلك بخفض إضافي بنسبة 10% في مطلع 2024.
تحول نوعي في نموذج العمل
وصفت الشركة هذه المرحلة بأنها “لحظة حاسمة”، مؤكدة الحاجة إلى نموذج عمل أكثر مرونة وسرعة، يركز على تحقيق أرباح مستقرة ومستدامة في ظل التحولات التكنولوجية المتسارعة.
الذكاء الاصطناعي في قلب الاستراتيجية
أشارت Snap Inc. إلى أن التطور السريع في تقنيات الذكاء الاصطناعي يمكّنها من تقليل المهام المتكررة، وتسريع تنفيذ العمليات، وتحسين تجربة المستخدمين والشركاء والمعلنين.
تعتمد الشركة بشكل متزايد على فرق عمل صغيرة مدعومة بأدوات الذكاء الاصطناعي، استطاعت تحقيق تقدم ملحوظ في مشاريع رئيسية، من بينها تطوير أنظمة الإعلانات، وتوسيع خدمة Snapchat+، وتحسين أداء تطبيق Snap Lite.
عززت Snap Inc. استثماراتها في الذكاء الاصطناعي داخل تطبيق Snapchat، حيث تعاونت مع OpenAI لإطلاق روبوت الدردشة My AI، كما دعّمته لاحقًا بتقنيات Google عبر نموذج Gemini لدعم الاستعلامات متعددة الوسائط.
وفي سياق تعزيز منظومة الإبداع، أطلقت الشركة ميزة “AI Clips” ضمن منصة Lens Studio، التي تتيح للمطورين وصنّاع المحتوى إنشاء مقاطع فيديو بالواقع المعزز بسرعة كبيرة باستخدام أوامر نصية، ما يعكس توجهًا واضحًا نحو أتمتة الإنتاج الإبداعي.
تستعد شركة OpenAI لإطلاق منتج جديد في مجال الأمن السيبراني يحمل اسم Spud، في خطوة تعكس تطورًا كبيرًا في قدرات الذكاء الاصطناعي، لكنها في الوقت نفسه تثير مخاوف جدية بشأن إساءة الاستخدام.
منتج أمني جديد من OpenAI يثير القلق قبل إطلاقه لماذا تتردد الشركة
بحسب تقارير حديثة، تقترب OpenAI من إنهاء تطوير Spud، مع خطط لطرحه بشكل محدود على مجموعة مختارة من الشركاء. ولا تزال تفاصيل قدراته غير واضحة بالكامل، سواء من حيث إمكانيات الاختراق أو آليات الحماية التي سيقدمها.
منتج أمني جديد من OpenAI يثير القلق قبل إطلاقه لماذا تتردد الشركة
ذكاء اصطناعي بقدرات قد تكون خطيرة
يأتي هذا التوجه في وقت وصلت فيه تقنيات الذكاء الاصطناعي إلى مستوى متقدم من الاستقلالية، خاصة في تحليل الأنظمة واكتشاف الثغرات. هذه القدرات، رغم أهميتها في تعزيز الأمن، قد تتحول إلى تهديد إذا استُخدمت بشكل غير مسؤول.
نافسة تتبنى النهج الحذر نفسه
لا تقتصر هذه المخاوف على OpenAI فقط، إذ تخطط شركة Anthropic أيضًا لإطلاق نموذجها الجديد ميثوس بشكل محدود، نتيجة القلق من قدراته المتقدمة في مجال الاختراق.
تحذيرات من سيناريوهات خطيرة
خلال العام الماضي، حذر مسؤولون وخبراء أمنيون من أن نماذج الذكاء الاصطناعي المتقدمة قد تُستخدم مستقبلًا لتعطيل بنى تحتية حيوية، مثل شبكات الكهرباء أو المياه أو الأنظمة المالية، إذا وقعت في الأيدي الخطأ.
ويرى خبراء أن هذه السيناريوهات لم تعد افتراضية، بل أصبحت أقرب إلى الواقع مع التطور السريع لهذه التقنيات.
يشير متخصصون في الأمن السيبراني إلى أن هذه القدرات أصبحت أمرًا واقعًا لا يمكن التراجع عنه. فحتى مع فرض قيود على النشر، تظل إمكانية تطوير أدوات مشابهة قائمة.
وأكد روب تي. لي أن النماذج قادرة بالفعل على تحليل الشيفرات واكتشاف الثغرات في الأنظمة القديمة، وهي مهارة يصعب احتواؤها أو الحد منها.
من جانبها، توقعت ويندي ويتمور ظهور نماذج مماثلة خلال فترة قصيرة قد لا تتجاوز أسابيع أو أشهر، في حين وصف آدم مايرز هذه التطورات بأنها “جرس إنذار” لقطاع الأمن السيبراني.