Connect with us

الذكاء الاصطناعي

تقنية Engram من ديب سيك قد تنهي أزمة الذاكرة في الذكاء الاصطناعي وتقلل الاعتماد على HBM المكلفة

Avatar of هدير ابراهيم

Published

on

unnamed file 8

في خطوة قد تعيد تشكيل البنية التقنية لأنظمة الذكاء الاصطناعي الحديثة، كشفت شركة ديب سيك (DeepSeek) بالتعاون مع جامعة بكين عن تقنية تدريب مبتكرة تحمل اسم Engram، تستهدف معالجة واحدة من أعقد المشكلات التي تواجه القطاع اليوم، وهي أزمة الذاكرة في الذكاء الاصطناعي، الناتجة عن الاعتماد المفرط على ذاكرة النطاق العريض عالية السرعة (HBM), وتأتي هذه التقنية في وقت تشهد فيه سوق شرائح الذاكرة اضطرابات حادة، مع ارتفاع أسعار DRAM بنحو خمسة أضعاف خلال أسابيع قليلة، مدفوعة بالطلب المتزايد على العتاد الداعم للنماذج اللغوية الضخمة.

تقنية Engram من ديب سيك قد تنهي أزمة الذاكرة في الذكاء الاصطناعي وتقلل الاعتماد على HBM المكلفة

تقنية Engram من ديب سيك قد تنهي أزمة الذاكرة في الذكاء الاصطناعي وتقلل الاعتماد على HBM المكلفة

تقنية Engram من ديب سيك قد تنهي أزمة الذاكرة في الذكاء الاصطناعي وتقلل الاعتماد على HBM المكلفة

تعتمد النماذج اللغوية الكبيرة التقليدية على ذاكرة HBM ليس فقط لتنفيذ العمليات الحسابية المعقدة، بل أيضًا لتخزين واسترجاع المعرفة الأساسية، ما يؤدي إلى اختناق مزدوج في الأداء والتكلفة.

ومع تسارع سباق الذكاء الاصطناعي عالميًا، بات هذا الاختناق أحد أبرز العوائق أمام توسيع النماذج وتحسين كفاءتها، وفقًا لتقارير تقنية متخصصة، من بينها تقرير نشره موقع TechRadar.

Engram فصل المعرفة عن الحوسبة

تقدم تقنية Engram مقاربة مختلفة جذريًا، تقوم على فصل تخزين المعرفة عن عمليات الحوسبة، بما يسمح للنموذج بالوصول إلى المعلومات الأساسية دون استنزاف ذاكرة GPU عالية السرعة.

ويرى الباحثون أن هذا الفصل يحرر قدرًا كبيرًا من الموارد، ويحد من الاعتماد على HBM، التي تُعد من أكثر مكونات البنية التحتية تكلفة في أنظمة الذكاء الاصطناعي الحديثة.

كيف تعمل تقنية Engram

تعتمد Engram على آلية مبتكرة لاسترجاع المعرفة باستخدام N-grams مُشفرة (Hashed N-grams)، تتيح وصولًا ثابتًا وسريعًا للمعلومات بغض النظر عن السياق الحالي للنموذج.

ويتم لاحقًا تمرير هذه البيانات عبر بوابة ذكية حساسة للسياق، تقوم بضبط المعلومات المسترجعة بما يتوافق مع الحالة الداخلية للنموذج، ما يعزز قدرته على التعامل مع السياقات الطويلة، ويدعم تقنيات الجلب المسبق (Prefetching) دون تحميل النظام عبئًا حسابيًا إضافيًا يُذكر.

نتائج اختبارية تعزز جدوى التقنية

أظهرت الاختبارات الأولية نتائج واعدة، حيث جرى تطبيق Engram على نموذج ضخم يضم 27 مليار مُعامل، وحقق تحسنًا ملحوظًا في عدد من المؤشرات القياسية المعتمدة في الصناعة، دون زيادة في:

  • عدد العمليات الحسابية (FLOPs)
  • حجم النموذج الكلي

كما بينت النتائج أن إعادة تخصيص 20–25% من ميزانية المعاملات لصالح وحدة Engram يوفر أداءً يفوق نماذج Mixture-of-Experts (MoE) التقليدية، مع الحفاظ على استقرار الأداء عبر مختلف أحجام النماذج.

تقليل الاعتماد على HBM وخفض التكاليف

تكمن الميزة الاستراتيجية الأهم في Engram في تقليل الحاجة إلى الذاكرة فائقة السرعة، عبر استخدام آليات بحث ثابتة للمعلومات غير المتغيرة، ما يحسن كفاءة استهلاك الذاكرة بشكل عام.

وتتكامل هذه المقاربة مع حلول منخفضة التكلفة، مثل:

  • مسرعات الاستدلال المعتمدة على SSD
  • تقنيات توسيع الذاكرة من شركات مثل Phison

كما تتوافق Engram مع معايير CXL (Compute Express Link) الناشئة، المصممة أساسًا لتجاوز اختناقات ذاكرة GPU في أحمال العمل واسعة النطاق.

أزمة قانونية غير متوقعة تضرب OnePlus مذكرة توقيف بحق الرئيس التنفيذي في تايوان

أبعاد جيوسياسية وتأثير تنافسي

قد يكون لهذا الابتكار أثر خاص في السوق الصينية، حيث لا يزال الوصول إلى تقنيات HBM المتقدمة محدودًا مقارنة بشركات رائدة مثل Samsung وSK Hynix وMicron.

ويمثل تقليل الاعتماد على هذا النوع من الذاكرة فرصة استراتيجية لشركات الذكاء الاصطناعي الصينية لتعزيز قدرتها التنافسية عالميًا، دون الارتهان الكامل لسلاسل توريد حساسة جيوسياسيًا.

عودة خدمات جوجل إلى سوريا تدريجيا إتاحة Google Play دون VPN وخطوة نحو الانفتاح الرقمي

هل تقترب نهاية أزمة الذاكرة العالمية

تشير النتائج الأولية إلى أن Engram قد تفتح الباب أمام:

  • توسيع قدرات النماذج اللغوية
  • زيادة عمق التفكير والاستدلال
  • خفض متطلبات الذاكرة بشكل ملحوظ

وهو ما قد يسهم مستقبلًا في تهدئة تقلبات أسعار DRAM وDDR5، والتخفيف من الضغوط على سلاسل التوريد العالمية.

ورغم أن التقنية لا تزال في مراحلها المبكرة، إلا أنها تمثل خطوة محورية نحو كسر الحلقة المفرغة بين تطور الذكاء الاصطناعي وارتفاع تكلفة العتاد، وربما تشكل بداية نهاية ما يُعرف اليوم بـ أزمة الذاكرة في الذكاء الاصطناعي.

استثمار سيكويا في أنثروبيك يقود جولة تمويل تاريخية بقيمة قد تصل إلى 25 مليار دولار

أخبار تقنية

بروتوكول A2A خطوة نحو تواصل مباشر بين أنظمة الذكاء الاصطناعي

Avatar of هدير ابراهيم

Published

on

تحديث iOS 26.2.1 يثير موجة انتقادات بين مستخدمي آيفون 7

تشير تقارير تقنية حديثة إلى ظهور توجه متقدم في مجال الذكاء الاصطناعي يتمثل في بروتوكول جديد يُعرف باسم “A2A”، يهدف إلى تمكين الأنظمة الذكية من التواصل المباشر فيما بينها دون الحاجة إلى تدخل المستخدم في كل خطوة. ويأتي هذا التوجه استجابةً للتحديات العملية التي يواجهها المستخدمون عند التنقل بين خدمات متعددة لإنجاز مهمة واحدة.

بروتوكول A2A خطوة نحو تواصل مباشر بين أنظمة الذكاء الاصطناعي

بروتوكول A2A خطوة نحو تواصل مباشر بين أنظمة الذكاء الاصطناعي

بروتوكول A2A خطوة نحو تواصل مباشر بين أنظمة الذكاء الاصطناعي

يرتكز البروتوكول على فكرة التنسيق التلقائي بين التطبيقات والأنظمة الرقمية المختلفة، بحيث تتمكن خدمات التذكير والمراسلة والحجوزات والخدمات المالية من تبادل الأوامر والمعلومات بشكل فوري. وبدلاً من إدارة المهام يدوياً بين المساعدات الصوتية وتطبيقات المراسلة مثل واتساب، سيصبح بإمكان الذكاء الاصطناعي تنفيذ المهام عبر منظومة مترابطة تعمل بانسجام.

معالجة أحد أبرز قيود المساعدات الرقمية

يرى خبراء التقنية أن أبرز ما يميز هذا التوجه هو قدرته على تقليل الاحتكاك التقني الذي يواجه المستخدمين حالياً. فبدلاً من الانتقال بين تطبيقات متعددة لإرسال رسالة أو إتمام حجز أو تنفيذ معاملة، سيتمكن المستخدم من إصدار أمر واحد فقط، بينما تتولى الأنظمة الذكية تنسيق التنفيذ في الخلفية.

تأثيرات محتملة على مستقبل التطبيقات الذكية

يتوقع مختصون أن يؤدي انتشار بروتوكولات التواصل بين أنظمة الذكاء الاصطناعي إلى تحول جوهري في طبيعة الخدمات الرقمية. إذ ستنتقل التطبيقات من العمل بشكل منفصل إلى بيئة تعاونية تعتمد على تبادل البيانات والأوامر لتحقيق نتائج أكثر دقة وكفاءة.

تجربة رقمية أكثر بساطة وكفاءة

تكمن القيمة الأساسية لبروتوكول A2A في تقليل التعقيد التقني وتوفير الوقت، ما يمنح المستخدم تجربة استخدام أكثر سلاسة في إدارة المهام اليومية والخدمات الرقمية، ويمهّد لمرحلة تصبح فيها الأنظمة الذكية شركاء فعليين في إنجاز الأعمال بدلاً من مجرد أدوات منفصلة.

Continue Reading

الذكاء الاصطناعي

سامسونغ تتوقع طفرة غير مسبوقة في سوق شرائح الذاكرة بدعم توسّع الذكاء الاصطناعي

Avatar of هدير ابراهيم

Published

on

يوتيوب يهبط رسميًا على نظارة الواقع المختلط من آبل 14

أعلنت سامسونغ توقعاتها باستمرار النمو القوي في الطلب على شرائح الذاكرة خلال عامي 2026 و2027، مدفوعة بتوسع البنية التحتية للحوسبة السحابية لدى الشركات العالمية العاملة في مجال الذكاء الاصطناعي.

سامسونغ تتوقع طفرة غير مسبوقة في سوق شرائح الذاكرة بدعم توسّع الذكاء الاصطناعي

سامسونغ تتوقع طفرة غير مسبوقة في سوق شرائح الذاكرة بدعم توسّع الذكاء الاصطناعي

سامسونغ تتوقع طفرة غير مسبوقة في سوق شرائح الذاكرة بدعم توسّع الذكاء الاصطناعي

أكد سونغ جاي-هيوك، المدير التقني لقطاع حلول الأجهزة في سامسونغ، خلال مؤتمر Semicon Korea أن شركات الحوسبة السحابية العملاقة كثّفت طلبها على شرائح الذاكرة عالية الأداء لتلبية احتياجات نماذج الذكاء الاصطناعي واسعة النطاق.
وأدى هذا الطلب المتزايد إلى ارتفاع ملحوظ في أسعار الشرائح نتيجة محدودية المعروض مقارنة بحجم الاستهلاك.

إطلاق HBM4 بعد نجاح الجيل السابق

تعتزم سامسونغ توسيع إنتاج وطرح شرائح HBM4 (High Bandwidth Memory) تجاريًا على نطاق واسع بدءًا من الربع الأول من 2026، بعد الأداء القوي الذي حققته شرائح HBM3E خلال عام 2025.
وأشارت الشركة إلى أن الجهات التي تسلّمت عينات من الجيل الجديد وصفت أداءه بأنه متقدم وملائم لتطبيقات الذكاء الاصطناعي كثيفة البيانات.

ابتكارات تقنية لتعزيز الأداء والكفاءة

تعمل سامسونغ على مجموعة من التقنيات الجديدة التي تستهدف رفع سرعة نقل البيانات وخفض استهلاك الطاقة في مكدسات الذاكرة، أبرزها:

  • Hybrid Bonding: تقنية ربط متقدمة تقلل المقاومة الحرارية في المكدسات متعددة الطبقات بنسبة تقارب 20%، ما يؤدي إلى خفض درجة الحرارة الأساسية بنحو 11%.

  • zHBM: أسلوب تكديس رأسي لرقائق الذاكرة يزيد عرض النطاق الترددي بمقدار أربعة أضعاف، مع تقليل استهلاك الطاقة بنسبة تصل إلى 25%.

  • HBM المتكامل مع PIM: دمج قدرات المعالجة داخل الذاكرة نفسها، ما يرفع الأداء حتى 2.8 مرة مع الحفاظ على كفاءة الطاقة.

  • آبل تؤكد التزامها بطرح الجيل الجديد من Siri خلال 2026 رغم تقارير التأجيل

دور محوري في توسع منظومات الذكاء الاصطناعي

تسعى سامسونغ من خلال هذه التطورات إلى تلبية الطلب المتزايد على حلول الذاكرة فائقة الأداء، التي تُعد عنصرًا أساسيًا في تشغيل مراكز بيانات الذكاء الاصطناعي والبنى التحتية للحوسبة السحابية.
ومن المتوقع أن تسهم هذه التقنيات في تمكين الشركات التقنية من توسيع قدراتها الحسابية مع تحقيق توازن أفضل بين الأداء واستهلاك الطاقة.

Continue Reading

الذكاء الاصطناعي

ميتا تطلق ميزة تحريك صور الملف الشخصي بالذكاء الاصطناعي على فيسبوك

Avatar of هدير ابراهيم

Published

on

فاراداي فيوتشر تدخل سباق الروبوتات المتجسّدة بثلاثة طرازات وتبدأ استقبال الطلبات في NADA 2026 14

أعلنت شركة ميتا إضافة ميزة جديدة إلى منصة فيسبوك تُمكّن المستخدمين من تحريك صور ملفاتهم الشخصية باستخدام تقنيات الذكاء الاصطناعي، في خطوة تهدف إلى تعزيز الطابع التفاعلي وجعل الحسابات أكثر حيوية وتعبيرًا. وأكدت الشركة أن الخاصية متاحة مباشرة داخل التطبيق، وتتيح تحويل الصورة الثابتة إلى مقطع متحرك قصير عبر أدوات «Meta AI».

ميتا تطلق ميزة تحريك صور الملف الشخصي بالذكاء الاصطناعي على فيسبوك

ميتا تطلق ميزة تحريك صور الملف الشخصي بالذكاء الاصطناعي على فيسبوك

ميتا تطلق ميزة تحريك صور الملف الشخصي بالذكاء الاصطناعي على فيسبوك

تسمح الأداة الجديدة برفع صورة الملف الشخصي ثم استخدام «Meta AI» لاقتراح مجموعة من الحركات والمؤثرات، مثل الابتسام الخفيف، أو تحريك الرموش، أو إدارة الرأس بشكل بسيط. وبعد اختيار التأثير المناسب، تُحوَّل الصورة إلى مقطع متحرك قصير يظهر بدل الصورة التقليدية.

وتعتمد الميزة على تقنيات الذكاء الاصطناعي التوليدي التي طورتها ميتا خلال عام 2025، حيث تقوم الخوارزميات بتحليل ملامح الوجه وإضافة الحركات بطريقة سلسة تحاكي التعبير الطبيعي.

ووفق تقارير تقنية، سيظهر خيار “Animate” عند تعديل صورة الملف الشخصي للمستخدمين الذين وصلت إليهم الخاصية، مع إمكانية حفظ النتيجة بصيغة فيديو قصير أو ملف GIF واستخدامه مباشرة على الحساب.

توفر تدريجي ودعم أولي للغة الإنجليزية

أوضحت ميتا في بيان رسمي أن الميزة بدأت بالوصول تدريجيًا إلى مستخدمي فيسبوك في عدد من الدول، وهي متاحة حاليًا باللغة الإنجليزية، على أن يجري توسيع نطاقها ليشمل أسواقًا ولغات إضافية لاحقًا.

وجاء في بيان الشركة:
«نواصل تطوير أدوات الذكاء الاصطناعي لتعزيز تجارب المستخدمين، وميزة تحريك صور الملفات الشخصية جزء من جهودنا لجعل التفاعل على فيسبوك أكثر حيوية وتعبيرًا».

ضمن إستراتيجية أوسع لدمج Meta AI

تأتي هذه الخطوة ضمن توجه أوسع لميتا لدمج تقنيات الذكاء الاصطناعي في مختلف منصاتها، بما يشمل فيسبوك وإنستاجرام وواتساب. وتسعى الشركة إلى تسهيل إنشاء محتوى تفاعلي دون الحاجة إلى تطبيقات خارجية.

وأكدت ميتا أن استخدام الميزة اختياري بالكامل، ويمكن للمستخدمين إيقاف الصورة المتحركة أو حذفها في أي وقت. كما شددت على التزامها بسياسات الخصوصية، موضحة أن معالجة الصور تتم ضمن بيئتها التقنية الرسمية، ولا تُستخدم لأغراض إعلانية.

عودة مطوّرة لفكرة الصور المتحركة

كانت فيسبوك قد أتاحت سابقًا إمكانية استخدام مقاطع فيديو قصيرة كصور شخصية منذ عام 2015، إلا أن التحديثات عليها كانت محدودة في السنوات الأخيرة. ومع تطور تقنيات الذكاء الاصطناعي التوليدي، بات بإمكان المستخدمين إنشاء صور متحركة من لقطات ثابتة بسهولة ودون خبرة تقنية.

Continue Reading

Trending

Copyright © 2025 High Tech. Powered By DMB Agency.