في خطوة قد تعيد تشكيل البنية التقنية لأنظمة الذكاء الاصطناعي الحديثة، كشفت شركة ديب سيك (DeepSeek) بالتعاون مع جامعة بكين عن تقنية تدريب مبتكرة تحمل اسم Engram، تستهدف معالجة واحدة من أعقد المشكلات التي تواجه القطاع اليوم، وهي أزمة الذاكرة في الذكاء الاصطناعي، الناتجة عن الاعتماد المفرط على ذاكرة النطاق العريض عالية السرعة (HBM), وتأتي هذه التقنية في وقت تشهد فيه سوق شرائح الذاكرة اضطرابات حادة، مع ارتفاع أسعار DRAM بنحو خمسة أضعاف خلال أسابيع قليلة، مدفوعة بالطلب المتزايد على العتاد الداعم للنماذج اللغوية الضخمة.
تقنية Engram من ديب سيك قد تنهي أزمة الذاكرة في الذكاء الاصطناعي وتقلل الاعتماد على HBM المكلفة
تقنية Engram من ديب سيك قد تنهي أزمة الذاكرة في الذكاء الاصطناعي وتقلل الاعتماد على HBM المكلفة
تعتمد النماذج اللغوية الكبيرة التقليدية على ذاكرة HBM ليس فقط لتنفيذ العمليات الحسابية المعقدة، بل أيضًا لتخزين واسترجاع المعرفة الأساسية، ما يؤدي إلى اختناق مزدوج في الأداء والتكلفة.
ومع تسارع سباق الذكاء الاصطناعي عالميًا، بات هذا الاختناق أحد أبرز العوائق أمام توسيع النماذج وتحسين كفاءتها، وفقًا لتقارير تقنية متخصصة، من بينها تقرير نشره موقع TechRadar.
Engram فصل المعرفة عن الحوسبة
تقدم تقنية Engram مقاربة مختلفة جذريًا، تقوم على فصل تخزين المعرفة عن عمليات الحوسبة، بما يسمح للنموذج بالوصول إلى المعلومات الأساسية دون استنزاف ذاكرة GPU عالية السرعة.
ويرى الباحثون أن هذا الفصل يحرر قدرًا كبيرًا من الموارد، ويحد من الاعتماد على HBM، التي تُعد من أكثر مكونات البنية التحتية تكلفة في أنظمة الذكاء الاصطناعي الحديثة.
كيف تعمل تقنية Engram
تعتمد Engram على آلية مبتكرة لاسترجاع المعرفة باستخدام N-grams مُشفرة (Hashed N-grams)، تتيح وصولًا ثابتًا وسريعًا للمعلومات بغض النظر عن السياق الحالي للنموذج.
ويتم لاحقًا تمرير هذه البيانات عبر بوابة ذكية حساسة للسياق، تقوم بضبط المعلومات المسترجعة بما يتوافق مع الحالة الداخلية للنموذج، ما يعزز قدرته على التعامل مع السياقات الطويلة، ويدعم تقنيات الجلب المسبق (Prefetching) دون تحميل النظام عبئًا حسابيًا إضافيًا يُذكر.
نتائج اختبارية تعزز جدوى التقنية
أظهرت الاختبارات الأولية نتائج واعدة، حيث جرى تطبيق Engram على نموذج ضخم يضم 27 مليار مُعامل، وحقق تحسنًا ملحوظًا في عدد من المؤشرات القياسية المعتمدة في الصناعة، دون زيادة في:
عدد العمليات الحسابية (FLOPs)
حجم النموذج الكلي
كما بينت النتائج أن إعادة تخصيص 20–25% من ميزانية المعاملات لصالح وحدة Engram يوفر أداءً يفوق نماذج Mixture-of-Experts (MoE) التقليدية، مع الحفاظ على استقرار الأداء عبر مختلف أحجام النماذج.
تقليل الاعتماد على HBM وخفض التكاليف
تكمن الميزة الاستراتيجية الأهم في Engram في تقليل الحاجة إلى الذاكرة فائقة السرعة، عبر استخدام آليات بحث ثابتة للمعلومات غير المتغيرة، ما يحسن كفاءة استهلاك الذاكرة بشكل عام.
وتتكامل هذه المقاربة مع حلول منخفضة التكلفة، مثل:
مسرعات الاستدلال المعتمدة على SSD
تقنيات توسيع الذاكرة من شركات مثل Phison
كما تتوافق Engram مع معايير CXL (Compute Express Link) الناشئة، المصممة أساسًا لتجاوز اختناقات ذاكرة GPU في أحمال العمل واسعة النطاق.
قد يكون لهذا الابتكار أثر خاص في السوق الصينية، حيث لا يزال الوصول إلى تقنيات HBM المتقدمة محدودًا مقارنة بشركات رائدة مثل Samsung وSK Hynix وMicron.
ويمثل تقليل الاعتماد على هذا النوع من الذاكرة فرصة استراتيجية لشركات الذكاء الاصطناعي الصينية لتعزيز قدرتها التنافسية عالميًا، دون الارتهان الكامل لسلاسل توريد حساسة جيوسياسيًا.
تشير النتائج الأولية إلى أن Engram قد تفتح الباب أمام:
توسيع قدرات النماذج اللغوية
زيادة عمق التفكير والاستدلال
خفض متطلبات الذاكرة بشكل ملحوظ
وهو ما قد يسهم مستقبلًا في تهدئة تقلبات أسعار DRAM وDDR5، والتخفيف من الضغوط على سلاسل التوريد العالمية.
ورغم أن التقنية لا تزال في مراحلها المبكرة، إلا أنها تمثل خطوة محورية نحو كسر الحلقة المفرغة بين تطور الذكاء الاصطناعي وارتفاع تكلفة العتاد، وربما تشكل بداية نهاية ما يُعرف اليوم بـ أزمة الذاكرة في الذكاء الاصطناعي.
كشفت دراسة حديثة أجراها باحثون من الولايات المتحدة والمملكة المتحدة عن تأثيرات مزدوجة لاستخدام أدوات الذكاء الاصطناعي. فبينما تسهم هذه الأدوات في تحسين الأداء بشكل سريع، فإنها قد تؤدي في المقابل إلى تراجع القدرات الذهنية على المدى الأطول.
هل يُضعف الذكاء الاصطناعي قدراتنا الذهنية دراسة تثير تساؤلات جديدة
حملت الدراسة عنوان “مساعدة الذكاء الاصطناعي تُقلّص المثابرة وتُضعف الأداء المستقل”، وأظهرت أن الاستخدام حتى لفترة قصيرة — لا تتجاوز 10 دقائق — يمكن أن يخلق حالة من الاعتماد. هذه الحالة تؤدي لاحقًا إلى انخفاض في الأداء وزيادة الشعور بالإرهاق عند غياب الدعم التقني، وهو ما وصفه الباحثون بـ “الثمن المعرفي المرتفع”.
هل يُضعف الذكاء الاصطناعي قدراتنا الذهنية دراسة تثير تساؤلات جديدة
تفاصيل التجربة: ماذا حدث للمشاركين؟
استندت الدراسة إلى تجربة شملت 350 مشاركًا طُلب منهم حل مسائل رياضية تعتمد على الكسور:
نصف المشاركين استخدموا روبوت محادثة قائمًا على نموذج GPT-5
النصف الآخر أكمل المهام دون أي مساعدة
وفي منتصف الاختبار، تم إيقاف الدعم عن المجموعة الأولى، ما أدى إلى:
انخفاض ملحوظ في عدد الإجابات الصحيحة
تزايد حالات الاستسلام والتوقف عن المحاولة
وتكررت هذه النتائج في تجربة أوسع ضمّت 670 مشاركًا، بالإضافة إلى اختبار ثالث ركّز على فهم النصوص بدلًا من الرياضيات، مع نفس النمط من تراجع الأداء.
التأثير الأعمق: تراجع الدافعية قبل المهارة
أوضح الباحث راشيت دوبي من جامعة كاليفورنيا أن المشكلة لا تقتصر على ضعف الإجابات بعد سحب الذكاء الاصطناعي، بل تمتد إلى انخفاض الرغبة في المحاولة من الأساس. وأشار إلى أن المثابرة نفسها تتأثر بشكل واضح، وهو ما قد ينعكس سلبًا على التعلم والابتكار.
مخاوف تعليمية: جيل أقل إدراكًا لقدراته
حذّر الباحثون من التوسع السريع في دمج الذكاء الاصطناعي داخل قطاع التعليم، معتبرين أن ذلك قد يؤدي إلى نشوء جيل لا يكتشف قدراته الحقيقية بشكل كامل، مما يهدد الإبداع والتفكير المستقل على المدى البعيد.
تأثير تدريجي يصعب ملاحظته
شبّهت الدراسة هذا التأثير بظاهرة “الضفدع في الماء المغلي”، حيث يحدث التراجع بشكل تدريجي وغير ملحوظ، إلى أن تتآكل الدافعية والمثابرة بمرور الوقت، وقد يصبح من الصعب استعادة المستوى السابق.
رغم النتائج السلبية، رصدت الدراسة نقطة مضيئة، إذ حقق المشاركون الذين استخدموا الذكاء الاصطناعي للحصول على تلميحات أو توضيحات — بدلًا من إجابات جاهزة — أداءً أفضل بعد إيقافه، مقارنةً بمن اعتمدوا عليه بشكل كامل.
يجدر التنبيه إلى أن هذه الدراسة لم تخضع بعد لمراجعة الأقران، وهي خطوة أساسية في البحث العلمي لضمان دقة النتائج ومصداقيتها. لذلك، يُنصح بالتعامل مع هذه النتائج بحذر إلى حين التحقق منها بشكل مستقل.
أعلنت Snap Inc.، على لسان رئيسها التنفيذي Evan Spiegel، عن تسريح نحو 1000 موظف، ما يمثل حوالي 16% من إجمالي قوتها العاملة، إلى جانب إلغاء أكثر من 300 وظيفة شاغرة، وذلك ضمن خطة إعادة هيكلة شاملة.
إعادة هيكلة كبرى في سناب تقليص الوظائف لصالح الذكاء الاصطناعي
تسعى الشركة من خلال هذه الخطوة إلى تقليل نفقاتها السنوية بأكثر من 500 مليون دولار بحلول النصف الثاني من عام 2026، مع التركيز على رفع الكفاءة التشغيلية وتسريع وتيرة النمو في بيئة تنافسية متغيرة.
إعادة هيكلة كبرى في سناب تقليص الوظائف لصالح الذكاء الاصطناعي
سلسلة من التخفيضات السابقة
لم تكن هذه المرة الأولى التي تُقدم فيها Snap Inc. على تقليص العمالة؛ إذ سبق أن خفّضت نحو 20% من موظفيها في عام 2022 خلال تداعيات جائحة كورونا، ثم أتبعت ذلك بخفض إضافي بنسبة 10% في مطلع 2024.
تحول نوعي في نموذج العمل
وصفت الشركة هذه المرحلة بأنها “لحظة حاسمة”، مؤكدة الحاجة إلى نموذج عمل أكثر مرونة وسرعة، يركز على تحقيق أرباح مستقرة ومستدامة في ظل التحولات التكنولوجية المتسارعة.
الذكاء الاصطناعي في قلب الاستراتيجية
أشارت Snap Inc. إلى أن التطور السريع في تقنيات الذكاء الاصطناعي يمكّنها من تقليل المهام المتكررة، وتسريع تنفيذ العمليات، وتحسين تجربة المستخدمين والشركاء والمعلنين.
تعتمد الشركة بشكل متزايد على فرق عمل صغيرة مدعومة بأدوات الذكاء الاصطناعي، استطاعت تحقيق تقدم ملحوظ في مشاريع رئيسية، من بينها تطوير أنظمة الإعلانات، وتوسيع خدمة Snapchat+، وتحسين أداء تطبيق Snap Lite.
عززت Snap Inc. استثماراتها في الذكاء الاصطناعي داخل تطبيق Snapchat، حيث تعاونت مع OpenAI لإطلاق روبوت الدردشة My AI، كما دعّمته لاحقًا بتقنيات Google عبر نموذج Gemini لدعم الاستعلامات متعددة الوسائط.
وفي سياق تعزيز منظومة الإبداع، أطلقت الشركة ميزة “AI Clips” ضمن منصة Lens Studio، التي تتيح للمطورين وصنّاع المحتوى إنشاء مقاطع فيديو بالواقع المعزز بسرعة كبيرة باستخدام أوامر نصية، ما يعكس توجهًا واضحًا نحو أتمتة الإنتاج الإبداعي.
تستعد شركة OpenAI لإطلاق منتج جديد في مجال الأمن السيبراني يحمل اسم Spud، في خطوة تعكس تطورًا كبيرًا في قدرات الذكاء الاصطناعي، لكنها في الوقت نفسه تثير مخاوف جدية بشأن إساءة الاستخدام.
منتج أمني جديد من OpenAI يثير القلق قبل إطلاقه لماذا تتردد الشركة
بحسب تقارير حديثة، تقترب OpenAI من إنهاء تطوير Spud، مع خطط لطرحه بشكل محدود على مجموعة مختارة من الشركاء. ولا تزال تفاصيل قدراته غير واضحة بالكامل، سواء من حيث إمكانيات الاختراق أو آليات الحماية التي سيقدمها.
منتج أمني جديد من OpenAI يثير القلق قبل إطلاقه لماذا تتردد الشركة
ذكاء اصطناعي بقدرات قد تكون خطيرة
يأتي هذا التوجه في وقت وصلت فيه تقنيات الذكاء الاصطناعي إلى مستوى متقدم من الاستقلالية، خاصة في تحليل الأنظمة واكتشاف الثغرات. هذه القدرات، رغم أهميتها في تعزيز الأمن، قد تتحول إلى تهديد إذا استُخدمت بشكل غير مسؤول.
نافسة تتبنى النهج الحذر نفسه
لا تقتصر هذه المخاوف على OpenAI فقط، إذ تخطط شركة Anthropic أيضًا لإطلاق نموذجها الجديد ميثوس بشكل محدود، نتيجة القلق من قدراته المتقدمة في مجال الاختراق.
تحذيرات من سيناريوهات خطيرة
خلال العام الماضي، حذر مسؤولون وخبراء أمنيون من أن نماذج الذكاء الاصطناعي المتقدمة قد تُستخدم مستقبلًا لتعطيل بنى تحتية حيوية، مثل شبكات الكهرباء أو المياه أو الأنظمة المالية، إذا وقعت في الأيدي الخطأ.
ويرى خبراء أن هذه السيناريوهات لم تعد افتراضية، بل أصبحت أقرب إلى الواقع مع التطور السريع لهذه التقنيات.
يشير متخصصون في الأمن السيبراني إلى أن هذه القدرات أصبحت أمرًا واقعًا لا يمكن التراجع عنه. فحتى مع فرض قيود على النشر، تظل إمكانية تطوير أدوات مشابهة قائمة.
وأكد روب تي. لي أن النماذج قادرة بالفعل على تحليل الشيفرات واكتشاف الثغرات في الأنظمة القديمة، وهي مهارة يصعب احتواؤها أو الحد منها.
من جانبها، توقعت ويندي ويتمور ظهور نماذج مماثلة خلال فترة قصيرة قد لا تتجاوز أسابيع أو أشهر، في حين وصف آدم مايرز هذه التطورات بأنها “جرس إنذار” لقطاع الأمن السيبراني.