fbpx
Connect with us

الذكاء الاصطناعي

جدل حول ممارسات جوجل في تطوير نموذج Gemini اتهامات باستغلال بيانات المنافسين

Avatar of هدير ابراهيم

Published

on

جدل حول ممارسات جوجل في تطوير نموذج Gemini اتهامات باستغلال بيانات المنافسين

كشف تقرير جديد من موقع تك كرانش عن ممارسات مشكوك فيها تتعلق بتطوير جوجل لنموذج الذكاء الاصطناعي الخاص بها، Gemini. ووفقًا للتقرير، تعتمد جوجل على موظفين مستقلين لتقييم أداء نموذجها مقارنة بنموذج Claude، المملوك لشركة Anthropic، إحدى أبرز المنافسين في مجال الذكاء الاصطناعي.

جدل حول ممارسات جوجل في تطوير نموذج Gemini اتهامات باستغلال بيانات المنافسين

تمنع شروط الخدمة الخاصة بشركة Anthropic استخدام نموذج Claude لتطوير منتجات منافسة. وتشير هذه الشروط بوضوح إلى حظر أي محاولات للوصول إلى خدماتها بهدف بناء منتجات أو تدريب نماذج ذكاء اصطناعي منافسة دون موافقة مسبقة.

جدل حول ممارسات جوجل في تطوير نموذج Gemini اتهامات باستغلال بيانات المنافسين

جدل حول ممارسات جوجل في تطوير نموذج Gemini اتهامات باستغلال بيانات المنافسين

عندما طُلب من جوجل توضيح هذه الممارسات، لم تقدم الشركة إجابة واضحة. واكتفت شيرا مكنمارا، المتحدثة باسم DeepMind، التابعة لجوجل، بالتصريح بأن “هذه الممارسات تتماشى مع الإجراءات المعتادة”، مشيرة إلى أن مقارنة النماذج جزء من عملية التقييم لديهم.

المعايير الأخلاقية والقانونية

رغم أن مقارنة أداء النماذج ليست جديدة في مجال الذكاء الاصطناعي، فإن استخدام استجابات نموذج منافس أو تقليدها دون إذن يثير تساؤلات قانونية وأخلاقية. يُنظر إلى هذه الممارسات كخطوة قد تضع جوجل في دائرة المساءلة بشأن انتهاك حقوق الملكية الفكرية لشركات أخرى.

تطورات في نموذج Claude

في المقابل، تواصل شركة Anthropic تطوير نموذجها Claude بإضافة ميزات جديدة، منها تقديم استجابات بأنماط محادثة متنوعة، وتحليل الأكواد البرمجية وتشغيلها، بالإضافة إلى تنفيذ المهام داخل الحواسيب نيابة عن المستخدم.

ماذا يعني ذلك لمستقبل الذكاء الاصطناعي؟

تسلط هذه القضية الضوء على المنافسة الشرسة في مجال الذكاء الاصطناعي، حيث تسعى الشركات الكبرى لتعزيز نماذجها بأي وسيلة ممكنة. ومع استمرار التطورات، ستزداد أهمية الشفافية والامتثال للقوانين لتجنب النزاعات القانونية والأخلاقية.

Click to comment

Leave a Reply

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

الذكاء الاصطناعي

مايكروسوفت تستعد لتوسيع آفاق 365 Copilot تنويع النماذج لدعم الذكاء الاصطناعي

Avatar of هدير ابراهيم

Published

on

مايكروسوفت تستعد لتوسيع آفاق 365 Copilot تنويع النماذج لدعم الذكاء الاصطناعي

تسعى مايكروسوفت لإحداث نقلة نوعية في تقنيات الذكاء الاصطناعي الخاصة بـ365 Copilot، حيث تعمل على تقليل اعتمادها على نماذج OpenAI GPT واستكشاف نماذج أخرى لتعزيز الكفاءة وخفض التكاليف.

مايكروسوفت تستعد لتوسيع آفاق 365 Copilot تنويع النماذج لدعم الذكاء الاصطناعي

لطالما كانت نماذج GPT من OpenAI عنصراً أساسياً في تشغيل خدمات 365 Copilot. لكن وفقاً لتقرير من رويترز، تسعى مايكروسوفت لتقليل هذا الاعتماد بسبب التحديات المرتبطة بالتكلفة والسرعة، خاصة مع تزايد احتياجات المؤسسات.

مايكروسوفت تستعد لتوسيع آفاق 365 Copilot تنويع النماذج لدعم الذكاء الاصطناعي

مايكروسوفت تستعد لتوسيع آفاق 365 Copilot تنويع النماذج لدعم الذكاء الاصطناعي

  • تعمل الشركة حالياً على تخصيص نماذج مفتوحة المصدر لتحسين الأداء.
  • تستهدف مايكروسوفت تقديم خدمات أكثر كفاءة بتكلفة تشغيلية أقل، مع احتمالية تمرير هذه التوفير للعملاء.

دور 365 Copilot في تعزيز الإنتاجية

يُعد 365 Copilot أحد المساعدين الذكيين الرائدين في مجموعة مايكروسوفت. وقد تم دمجه في تطبيقات شهيرة مثل:

هذا التكامل يساعد المستخدمين على زيادة الإنتاجية من خلال أدوات ذكية تعتمد على الذكاء الاصطناعي.

التعاون بين نماذج متعددة

تُظهر مايكروسوفت انفتاحاً على العمل مع نماذج من شركات أخرى مثل:

صرّح متحدث باسم مايكروسوفت أن الشركة تعتمد على نماذج متنوعة حسب طبيعة المنتج والخدمة، مؤكداً أن OpenAI تظل شريكاً رئيسياً في تطوير النماذج المتقدمة.

تعزيز الابتكار لخدمة المؤسسات والمستهلكين

تهدف هذه الخطوة إلى تمكين مايكروسوفت من تقديم حلول مرنة وكفاءة عالية تتماشى مع تطلعات العملاء. من خلال تنويع النماذج، يمكن لمايكروسوفت أن تضمن مواكبة متطلبات السوق وتحقيق ريادة في مجال تقنيات الذكاء الاصطناعي.

نظرة مستقبلية على Copilot

يبدو أن مايكروسوفت تسير بخطوات واثقة نحو مستقبل تقني متجدد، حيث تضع الابتكار وكفاءة الخدمة في صدارة أولوياتها. هذه الاستراتيجية ستُساهم في تعزيز قدراتها على تقديم أدوات متطورة تلبي احتياجات المستخدمين بكافة شرائحهم.

Continue Reading

الذكاء الاصطناعي

انقطاع جديد لخدمات ChatGPT يثير التساؤلات حول الاستقرار التقن

Avatar of هدير ابراهيم

Published

on

انقطاع جديد لخدمات ChatGPT يثير التساؤلات حول الاستقرار التقن

تعرض روبوت الدردشة الآلي الشهير ChatGPT لانقطاع مفاجئ مساء الخميس، مما أدى إلى تعطل الخدمة على مستوى العالم وإعاقة وصول المستخدمين. واجه العديد من المستخدمين صعوبات في التفاعل مع الروبوت، حيث ظهرت رسالة تشير إلى وجود “خطأ في الخادم الداخلي”.

انقطاع جديد لخدمات ChatGPT يثير التساؤلات حول الاستقرار التقن

بدأت التقارير عن الانقطاع حوالي الساعة العاشرة مساءً بتوقيت مكة المكرمة، وازدادت بسرعة وفقًا لبيانات موقع Down Detector، المتخصص في تتبع أعطال الخدمات الإلكترونية.

انقطاع جديد لخدمات ChatGPT يثير التساؤلات حول الاستقرار التقن

انقطاع جديد لخدمات ChatGPT يثير التساؤلات حول الاستقرار التقن

بحلول الساعة العاشرة والنصف مساءً، نشرت شركة OpenAI تحديثًا على صفحة “حالة الخدمة”، أكدت فيه أن خدمات ChatGPT، واجهة برمجة التطبيقات (API)، ونموذج تحويل النص إلى فيديو Sora يعانون من معدلات خطأ مرتفعة.

سبب الانقطاع واستجابة الشركة

أوضحت OpenAI في تحديث لاحق أن السبب وراء المشكلة يعود إلى “مزود خدمة خارجي” دون تحديد الجهة المسؤولة. أكدت الشركة أنها تعمل على مراقبة الوضع عن كثب لكنها لم تقدم جدولًا زمنيًا محددًا لاستعادة الخدمة.

تكرار الأعطال يثير القلق

يأتي هذا الانقطاع كواحد من سلسلة من الأعطال التي واجهها ChatGPT في الأشهر الأخيرة. على سبيل المثال، بعد إطلاق أداة Sora المخصصة لمشتركي ChatGPT في وقت سابق من هذا الشهر، توقفت كافة خدمات OpenAI لعدة ساعات.

تكرار هذه الأعطال يثير تساؤلات ملحّة حول استقرار ChatGPT وقدرة البنية التحتية لـ OpenAI على تلبية احتياجات مئات الملايين من المستخدمين عالميًا.

تحديات أمام OpenAI

مع كل انقطاع، تتجدد المخاوف بشأن استقرار خدمات ChatGPT، خاصةً مع تنامي قاعدة المستخدمين واعتمادهم الكبير على هذه الأدوات. سيكون على OpenAI مواجهة التحديات التقنية لتعزيز ثقة المستخدمين وتحقيق استقرار أكبر لخدماتها المستقبلية.

Continue Reading

الذكاء الاصطناعي

ChatGPT في البرمجة بين الدعم والتحديات

Avatar of هدير ابراهيم

Published

on

ChatGPT في البرمجة بين الدعم والتحديات

شهد روبوت ChatGPT تطورًا ملحوظًا في مهارات إنتاج الأكواد البرمجية، مما أثار اهتمام الباحثين والمطورين حول العالم. ومع ذلك، لا تزال هناك تساؤلات حول موثوقيته في المهام البرمجية، وقدرته على اكتشاف الأخطاء وتصحيحها. في هذا المقال، نستعرض دراسة حديثة أجرتها جامعة جيجيانغ حول أداء ChatGPT في البرمجة، مع التركيز على التحديات والتحسينات الممكنة.

ChatGPT في البرمجة بين الدعم والتحديات

أظهرت الدراسة التي قادتها الأستاذة المساعدة Xing Hu نتائج متباينة عند اختبار نموذج GPT-3.5 في إنشاء الأكواد البرمجية. وأبرز النتائج:

ChatGPT في البرمجة بين الدعم والتحديات

ChatGPT في البرمجة بين الدعم والتحديات

  • معدل نجاح 57% في إنتاج أكواد صحيحة تؤدي المهام المطلوبة.
  • معدل نجاح 73% في إنشاء أكواد خالية من الثغرات الأمنية.
  • معدل نجاح 70% في إصلاح الأخطاء البرمجية.

على الرغم من هذه النتائج الإيجابية نسبيًا، إلا أن الأداء كان دون المستوى المطلوب في بعض الحالات، مما يشير إلى وجود تحديات تستدعي الحذر.

القدرة على التحقق من دقة الأكواد البرمجية

ركز الباحثون في الدراسة على تقييم قدرة ChatGPT على التحقق من صحة الأكواد البرمجية التي ينتجها باستخدام طريقتين:

المطالبات المباشرة:

    • تضمنت توجيه أسئلة مباشرة للنموذج حول صحة الكود.
    • معدل الخطأ في تقييم الأكواد الصحيحة بلغ 39%.
    • أخطاء التقييم المتعلقة بالأمان وصلت إلى 25%.
    • نسبة الخطأ في تقييم إصلاحات الكود بلغت 28%.

الأسئلة التوجيهية:

    • تضمنت أسئلة موجهة لتسليط الضوء على نقاط محددة في الكود.
    • ساهمت هذه الطريقة في تحسين دقة ChatGPT، حيث:
      • ارتفعت نسبة اكتشاف الأخطاء بمعدل 25%.
      • تحسنت القدرة على اكتشاف الثغرات الأمنية بنسبة 69%.
      • زادت دقة تقييم إصلاح الكود بنسبة 33%.

الهلوسة المتناقضة: تحدٍ جديد

كشفت الدراسة عن ظاهرة أطلق عليها الباحثون اسم “الهلوسة المتناقضة ذاتيًا”، حيث:

مقارنة أداء GPT-4 بـ GPT-3.5

عند اختبار نموذج GPT-4، أظهرت النتائج تحسنًا في إنشاء وإصلاح الأكواد مقارنة بـ GPT-3.5، ولكن المشكلة الأساسية المتعلقة بالتحقق الذاتي ظلت قائمة:

توصيات وتحذيرات

أكدت البروفيسورة Xing Hu أن ChatGPT يجب أن يُستخدم كأداة داعمة للمطورين، وليس كبديل لهم، مع ضرورة تقييم مخرجاته بعناية. يمكن أن يساهم ChatGPT في:

  • تسريع إنشاء النماذج الأولية.
  • اقتراح حلول للمشكلات البرمجية.

ومع ذلك، يبقى القرار النهائي حول جودة الأكواد وسلامتها مسؤولية المطور البشري.

Continue Reading

Trending

Copyright © 2023 High Tech. Powered By DMB Agency.