أخبار الشركات

ميتا تعيد رسم خريطة الذكاء الصوتي إطلاق نظام Omnilingual ASR لدعم أكثر من 1600 لغة بشرية

Published

on

أعلنت شركة ميتا عن إطلاق نظامها الجديد Omnilingual ASR، وهو أحد أكثر أنظمة التعرف الآلي على الكلام تقدمًا حتى اليوم، إذ يدعم أكثر من 1600 لغة مع قابلية التوسع لتغطية أكثر من 5400 لغة مستقبلًا، بفضل تقنية “التعلّم داخل السياق دون تدريب مسبق”. ويمتاز هذا النظام بقدرته على إضافة لغات جديدة باستخدام عدد محدود من العينات الصوتية والنصية فقط، دون الحاجة لإعادة تدريب النموذج بالكامل، مما يجعله أكثر أنظمة التعرف الصوتي مرونة وتوسعًا عالميًا.

ميتا تعيد رسم خريطة الذكاء الصوتي إطلاق نظام Omnilingual ASR لدعم أكثر من 1600 لغة بشرية

في خطوة جريئة تعزز مبدأ الانفتاح التقني، أتاحت ميتا Omnilingual ASR كمشروع مفتوح المصدر بالكامل تحت ترخيص Apache 2.0، ما يمنح الباحثين والمطورين حرية استخدامه في الأبحاث والمشروعات التجارية دون قيود.
وتتضمن الحزمة نماذج لغوية متقدمة، ونظامًا للتمثيل الصوتي متعدد اللغات يضم 7 مليارات مَعلمة، إضافةً إلى قاعدة بيانات ضخمة تغطي أكثر من 350 لغة نادرة.

ميتا تعيد رسم خريطة الذكاء الصوتي إطلاق نظام Omnilingual ASR لدعم أكثر من 1600 لغة بشرية

مكونات تقنية متطورة تدعم جميع البيئات

يضم النظام مجموعة من النماذج التي تمثل أحدث ما توصلت إليه تقنيات الذكاء الاصطناعي الصوتي:

  • نماذج wav2vec 2.0 للتعلم الذاتي من الصوتيات (بقدرات بين 300 مليون إلى 7 مليارات مَعلمة).

  • نماذج CTC-ASR لتفريغ الصوت بسرعة عالية.

  • نماذج LLM-ASR التي تدمج بين مشفّر صوتي ومولّد نصي يعمل بتقنية Transformers.

  • نموذج ZeroShot-ASR القادر على فهم لغات جديدة أثناء التشغيل دون أي تدريب إضافي.

ووفق اختبارات الأداء، نجح النظام في تحقيق معدل خطأ في الحروف (CER) أقل من 10% في 78% من اللغات المدعومة، من بينها أكثر من 500 لغة لم تغطها أي أنظمة سابقة.

تحوّل إستراتيجي بعد إخفاق Llama 4

يأتي هذا الإطلاق في إطار تحول إستراتيجي داخل ميتا بعد الأداء الضعيف لنموذج Llama 4، حيث قررت الشركة التركيز على مشاريع عملية ومفتوحة المصدر.
وقد كلّف مارك زوكربيرج الخبير ألكسندر وانغ، مؤسس شركة Scale AI، بقيادة قسم الذكاء الاصطناعي في ميتا، لافتتاح مرحلة جديدة تعيد الشركة إلى مجالها الأقوى تاريخيًا: الذكاء الاصطناعي متعدد اللغات.

ويمثل نظام Omnilingual ASR انعكاسًا لرؤية ميتا نحو دمقرطة الذكاء الاصطناعي وتسهيل الوصول إلى التقنيات الصوتية لجميع المطورين حول العالم، بما يدعم التنوع اللغوي والثقافي عالميًا.

تعاونات عالمية لبناء قاعدة بيانات نادرة

اعتمدت ميتا في تطوير النظام على شراكات واسعة مع مؤسسات بحثية ومبادرات في أفريقيا وآسيا، مثل:

وقد جُمعت البيانات من متحدثين محليين مقابل أجر، مع التركيز على حوارات طبيعية غير مكتوبة لضمان أصالة النطق وتمثيل اللهجات الثقافية بدقة.

أداء قوي وتوافق واسع مع الأجهزة

أظهرت التجارب أن النموذج الأكبر (omniASR_LLM_7B) يحتاج إلى نحو 17 جيجابايت من ذاكرة GPU للتشغيل، في حين يمكن للنماذج الأصغر العمل على أجهزة متوسطة بقدرات شبه فورية.
كما أثبت النظام كفاءة عالية في البيئات الصاخبة ولغات منخفضة الموارد، مما يجعله مثاليًا لتطبيقات مثل:

أدوات مفتوحة وفرص غير محدودة للمطورين

تتيح ميتا تحميل النماذج وقواعد البيانات مباشرة من GitHub وHugging Face، مع توفير واجهات برمجية مرنة لدمج النظام في التطبيقات التجارية بسهولة.
ويفتح هذا الإطلاق الباب أمام الشركات التعليمية، ومقدمي الخدمات الصوتية، وتطبيقات إمكانية الوصول، لبناء حلول متعددة اللغات بكلفة منخفضة ودون قيود ترخيص.

رؤية ميتا لمستقبل الذكاء اللغوي

بإطلاق Omnilingual ASR، لا تكتفي ميتا بتقديم إنجاز تقني غير مسبوق، بل تطرح رؤية جديدة لعصر الذكاء الصوتي العالمي، حيث تتقاطع التكنولوجيا مع التنوع اللغوي والثقافي.

Trending

Exit mobile version