تستعد شركة ديب سيك الصينية للكشف عن نموذجها الجديد DeepSeek-R2 في الفترة بين 15 و30 أغسطس 2025، ليأتي الإطلاق بعد أيام من طرح ChatGPT-5، في خطوة تؤكد تسارع المنافسة العالمية في مجال الذكاء الاصطناعي.
ديب سيك تستعد لإطلاق نموذج اللغة الكبير DeepSeek-R2 نهاية أغسطس
النموذج يعتمد على هيكلية مزيج الخبراء (MoE) المطوّرة، مع شبكة بوابات ذكية قادرة على التعامل بكفاءة أكبر مع أعباء العمل الكثيفة.
ديب سيك تستعد لإطلاق نموذج اللغة الكبير DeepSeek-R2 نهاية أغسطس
عدد المُعاملات: 1.2 تريليون (ضعف الجيل السابق DeepSeek-R1 تقريبًا).
ما يزال أقل من GPT-4 وGPT-5 التي تضم أكثر من 1.8 تريليون مُعامل.
الاعتماد على شرائح “هواوي” بدلًا من التقنية الأميركية
تم تدريب DeepSeek-R2 بالكامل على شرائح Ascend 910B من شركة هواوي، التي توفر:
قدرة حوسبة تصل إلى 512 بيتافلوبس FP16.
كفاءة استخدام 82%، تعادل نحو 91% من أداء وحدات NVIDIA A100. هذا التوجه خفّض تكلفة التدريب بنسبة 97% مقارنة بتدريب GPT-4، بفضل استخدام الأجهزة المحلية وتقنيات تحسين متقدمة.
تشير التوقعات إلى أن “ديب سيك” ستطرح واجهات برمجة التطبيقات (API) بأسعار أقل من المنافسين الأميركيين، مما قد يغير قواعد التسعير الحالية في سوق الذكاء الاصطناعي.
بالتزامن مع هذا الإطلاق، كشفت “هواوي” عن إطار عمل جديد باسم مدير ذاكرة التخزين المؤقت الموحد (UCM)، والمصمم لتسريع عمليات استنتاج النماذج عبر تحسين إدارة بيانات ذاكرة التخزين المؤقت في مستويات الذاكرة المختلفة.
نتائج الاختبارات: انخفاض زمن الوصول بنسبة 90% وزيادة الإنتاجية بمقدار 22 ضعفًا.
الإطلاق الرسمي لإطار العمل كمشروع مفتوح المصدر سيكون في سبتمبر المقبل.
دلالة استراتيجية على استقلالية الصين في الذكاء الاصطناعي
يمثل إطلاق DeepSeek-R2 إلى جانب ابتكارات “هواوي” خطوة كبيرة نحو بناء وتشغيل أنظمة ذكاء اصطناعي متقدمة دون الاعتماد على رقاقات أو برمجيات غربية، مما قد يعيد تشكيل موازين القوى في قطاع التقنية عالميًا خلال السنوات القادمة.