fbpx
Connect with us

أخبار الانترنت

OpenAI تسعى خلف بيانات تدريب الذكاء الاصطناعي لتحسين أداء النماذج الذكية

Avatar of هند عيد

Published

on

OpenAI ChatGPT Plus

تسعى OpenAI جاهدة للحصول على بيانات تدريب الذكاء الاصطناعي. تعتبر الذكاء الاصطناعي مجالًا حيويًا ينمو بسرعة ويعتبر عملاقًا في صناعة التكنولوجيا. يعتبر الذكاء الاصطناعي القدرة على الحصول على المعرفة والتعلم والتفكير واتخاذ القرارات. في هذا السياق، يلعب بيانات التدريب دورًا حاسمًا في تطوير الذكاء الاصطناعي.

ما هو الذكاء الاصطناعي وأهميته

الذكاء الاصطناعي هو مجال يهدف إلى تطوير الأنظمة الذكية التي يمكنها تحليل البيانات والتعرف على الأنماط واتخاذ القرارات المستنيرة.

يتيح الذكاء الاصطناعي إمكانية حل المشكلات وتحديد الاتجاهات وتوقع المستقبل بناءً على البيانات.

يساعد الذكاء الاصطناعي في تحسين كفاءة العمل واتخاذ قرارات أكثر دقة وتحقيق التفوق في المنافسة.

OpenAI ودورها في تقديم الذكاء الاصطناعي

تعريف OpenAI وما تقدمه

OpenAI هي منظمة بحثية تهدف إلى تقديم تكنولوجيا الذكاء الاصطناعي بطريقة فعالة وآمنة.

تعمل OpenAI على تطوير نماذج ذكاء اصطناعي عالية الأداء قادرة على حل مجموعة واسعة من المشكلات وتوفير خدمات مبتكرة تستفيد من الذكاء الاصطناعي.

أهداف OpenAI في جمع بيانات التدريب

تسعى OpenAI جاهدة لجمع بيانات تدريب الذكاء الاصطناعي لتحسين أداء النماذج الذكية. تدرك OpenAI أن جودة البيانات المستخدمة في تدريب النماذج الذكية تلعب دورًا حاسمًا في كفاءتها وقدرتها على القيام بالمهام المطلوبة بشكل صحيح.

لذلك، فإن OpenAI تسعى للحصول على مصادر تدريب متنوعة وجودة عالية لتحقيق نتائج أفضل في تطوير الذكاء الاصطناعي واستخدامه في التكنولوجيا المستقبلية.

باختصار، تعمل OpenAI على توفير بيانات تدريب عالية الجودة وموثوقة لدعم تطور الذكاء الاصطناعي وتحقيق أهدافها في تقديم تكنولوجيا متقدمة ومفيدة للبشرية.

طرق جمع بيانات التدريب للذكاء الاصطناعي

يسعى OpenAI جاهدًا لجمع بيانات تدريب الذكاء الاصطناعي لتحسين أداء النماذج الذكية.

هناك عدة طرق يمكن استخدامها لجمع هذه البيانات:

البيانات العامة والمفتوحة

تكمن إحدى الطرق الرئيسية في جمع بيانات التدريب في استخدام البيانات العامة والمفتوحة المتوفرة.

يمكن للمنظمات والمؤسسات البحثية الوصول إلى مجموعات ضخمة من البيانات المفتوحة في مجالات مختلفة مثل الصور والنصوص ومقاطع الفيديو.

يتيح استخدام هذه البيانات لتدريب النماذج الذكية فهم أفضل للمشكلات المعقدة وتحسين أدائها.

تعاون المجتمع والمساهمات الجماعية

تعتبر تعاون المجتمع والمساهمات الجماعية أيضًا من الطرق المهمة لجمع بيانات التدريب للذكاء الاصطناعي.

من خلال إشراك المجتمع في عملية جمع البيانات، يمكن الحصول على تنوع أكبر في المصادر وتعددية الآراء والخبرات.

يمكن للمجتمع أن يساهم ببياناته الشخصية أو يقوم بتصحيح أو تحسين البيانات الموجودة بالفعل لزيادة جودتها وتحسين دقة النماذج الذكية.

باختصار، يعمل OpenAI بجد على استخدام مصادر التدريب المتنوعة وتعاون المجتمع لجمع بيانات التدريب عالية الجودة وتحقيق أهدافها في تقديم تكنولوجيا الذكاء الاصطناعي المتقدمة والمفيدة للبشرية.

تسعى OpenAI جاهدًا لجمع بيانات تدريب الذكاء الاصطناعي لتحسين أداء النماذج الذكية. هناك عدة طرق يمكن استخدامها لجمع هذه البيانات:

الخصوصية والأمان في جمع البيانات

في وقتنا الحالي، ثمة قلق متزايد بشأن مسائل الخصوصية والأمان المتعلقة بجمع البيانات.

لضمان حماية خصوصية المستخدمين وتجنب استغلال البيانات الشخصية، يجب إلى OpenAI تطبيق إجراءات أمنية صارمة والالتزام بالقوانين والتنظيمات ذات الصلة.

جودة البيانات والتحكم فيها

ضمان جودة البيانات المجمعة هو مهمة حيوية لضمان أداء النماذج الذكية.

يجب على OpenAI ضبط عمليات جمع البيانات وتحديد معايير الجودة والموثوقية.

هذا يتطلب تحديد المصادر الموثوقة وتطبيق آليات للتحقق والتحكم في البيانات، بما في ذلك التدقيق البشري وتصحيح الأخطاء.

بفضل الجهود المستمرة لجمع بيانات التدريب عالية الجودة والالتزام بالقضايا الأمنية والخصوصية، تعمل OpenAI على تقديم تكنولوجيا الذكاء الاصطناعي المتقدمة والمفيدة للبشرية.

 

أخبار الانترنت

ابتكار وتطوير: دور شركة سلاك في تطوير نماذج الذكاء الاصطناعي

Avatar of هند عيد

Published

on

18520241257800 شرسلا

تقوم سلاك بتدريب نماذج التعلم الآلي باستخدام رسائل المستخدم والملفات والمحتويات الأخرى دون الحصول على إذن واضح.

تستعمل المنصة بياناتك الشخصية تلقائيًا، ولكي تتوقف عن المشاركة يجب عليك أن تطلب من مدير الموارد البشرية أو قسم تكنولوجيا المعلومات في مؤسستك أن يرسل بريدًا إلكترونيًا إلى الشركة لطلب التوقف، ولا يمكنك القيام بذلك بنفسك.

و  اكتشف  كوري كوين  أحد المسؤولين التنفيذيين في مجموعة DuckBill تناول هذه السياسة في مبادئ خصوصية Slack وكتب عنها على منصة X.

وتنص السياسة على ما يلي: “بهدف تطوير نماذج الذكاء الاصطناعي وتعلم الآلة، تقوم أنظمتنا بتحليل بيانات العميل، مثل الرسائل والمحتوى والملفات المقدمة إلى سلاك، بالإضافة إلى معلومات أخرى تتضمن معلومات الاستخدام، كما هو محدد في سياسة الخصوصية وفي اتفاقية العميل.”

ووفقًا لسياسة الخصوصية، لإلغاء الاشتراك يجب أن تطلب من مالكي مؤسستك أو مساحة العمل أو المالك الأساسي التواصل مع فريق خدمة عملاء سلاك باستخدام عنوان مساحة العمل أو المؤسسة. سنقوم بمعالجة طلبك والرد عليك فور اكتمال عملية إلغاء الاشتراك.

ردت الشركة على تغريدة كوين قائلة: “تملك سلاك نماذج تعلم آلي على مستوى المنصة مخصصة لأشياء مثل اقتراحات القنوات والرموز التعبيرية ونتائج البحث. يمكن للعملاء استثناء بياناتهم من استخدامها لتدريب نماذج تعلم الآلة”.

من غير الواضح منذ متى قامت الشركة التابعة لشركة Salesforce بتعديل سياسة الخصوصية.

تساهم التناقضات في سياسات خصوصية “سلاك” في زيادة الحيرة؛ حيث يشير أحد الأقسام إلى أن “سلاك” لا تستطيع الوصول إلى المحتوى الأساسي عند تطوير نماذج التعلم الآلي أو عند تحليل بيانات العملاء بأساليب أخرى، وذلك لأنها تتبع إجراءات تقنية متعددة تحول دون حدوث ذلك.

يبدو أن نهج تدريب نماذج التعلم الآلي يتناقض مع هذا القسم، مما يخلق مساحة كبيرة للارتباك.

وتأخذ صفحة تسويق أدوات الذكاء الاصطناعي التوليدي على عاتقها التأكيد: “إننا لا نستخدم بياناتك لتدريب نماذج الذكاء الاصطناعي. كل العمليات تجري ضمن البنية التحتية الآمنة للمنصة وتلتزم بنفس معايير الامتثال التي تعتمدها سلاك”.

في هذا السياق، تشير الشركة إلى أدوات الذكاء الاصطناعي التوليدي المميزة التي تختلف عن نماذج التعلم الآلي التي تُدرب على البيانات دون الحصول على إذن صريح.

ويمكن اعتبار الادعاء بأن جميع بياناتك محمية من تدريب الذكاء الاصطناعي خادعاً، إذ تقوم الشركة باختيار نماذج الذكاء الاصطناعي التي يشملها هذا البيان.

 

Continue Reading

أخبار الانترنت

مايكروسوفت في خطر: هل ستدفع مليارات الدولارات؟

Avatar of هند عيد

Published

on

Untitled design 2024 05 18T184031.190 780x470 1

أصدر مسؤولو الاتحاد الأوروبي طلبًا قانونيًا إلزاميًا لشركة مايكروسوفت للحصول على معلومات حول ميزات الذكاء الاصطناعي التوليدي في محرك البحث Bing.

و  أعلنت  المفوضية الأوروبية، التي تعد السلطة التنفيذية للاتحاد الأوروبي، اتخذت هذه الخطوة. ويتعين على شركة البرمجيات العملاقة تقديم المعلومات المطلوبة بحلول 27 مايو.

قد ينتج عن عدم القيام بذلك تكبد غرامات مالية ضخمة.

يُعتبر هذا الطلب جزءًا من مساعي المفوضية الأوروبية لضمان امتثال الشركات التكنولوجية العملاقة لقانون الخدمات الرقمية.

يتطلب القانون من مشغلي المنصات الكبيرة على الإنترنت مراقبة مجموعة متنوعة من المخاطر في خدماتهم واتخاذ تدابير لتخفيفها. يتضمن ذلك المخاطر المتعلقة بميزات الذكاء الاصطناعي التوليدي.

وفي مارس، طلب الاتحاد الأوروبي من شركات مايكروسوفت وجوجل وميتا والعديد من شركات التكنولوجيا الأخرى تقديم معلومات حول قدرات الذكاء الاصطناعي التوليدي.

وكان الهدف من هذه الطلبات هو مساعدة المسؤولين في التأكد من امتثال الشركات لأحكام قانون الخدمات الرقمية المتعلقة بتقليل المخاطر التي يواجهها المستخدمون.

وأُرسل الطلب الثاني للمعلومات من قبل الاتحاد الأوروبي إلى مايكروسوفت الآن، لأن شركة التكنولوجيا العملاقة لم تتمكن من تقديم بعض الوثائق والبيانات الداخلية في استجابتها الأولى.

يمكن للاتحاد الأوروبي أن يفرض غرامات تصل إلى نسبة 1% من الإيرادات السنوية للشركات على مستوى العالم إذا قدمت سجلات غير صحيحة أو غير كاملة أو مضللة استجابة لطلب معلومات.

في حال لم تفصح مايكروسوفت عن المعلومات التي طلبها المسؤولون بحلول المهلة المحددة في 27 مارس، فمن المتوقع أن تواجه عقوبات إضافية.

قد يؤدي عدم تقديم المعلومات المطلوبة إلى فرض غرامات تصل إلى 1 في المئة من الإيرادات السنوية العالمية للشركة، بالإضافة إلى غرامات دورية.

يركز هذا الطلب الجديد للحصول على المعلومات على ميزتين تقدمهما مايكروسوفت كجزء من خدمة Bing.

الميزة الأولى مرتبطة بروبوت الدردشة المعتمد على الذكاء الاصطناعي Copilot والذي يعمل باستخدام نموذج اللغة الكبير GPT-4، بينما الميزة الثانية مرتبطة بنموذج إنشاء الصور Image Creator by Designer.

يعتقد الاتحاد الأوروبي أن الوظيفتين قد تكونان قد خرقتا قانون الخدمات الرقمية بما يتعلق بالمخاطر المعينة الناتجة عن ميزات الذكاء الاصطناعي التوليدية لمحرك البحث Bing.

تشمل المخاطر التي أشار إليها المسؤولون إمكانية استخدام تقنيات الذكاء الاصطناعي لإنشاء تزييف عميق والتلاعب بالخدمات بطرق قد تؤدي إلى تضليل الناخبين.

يشعر الاتحاد الأوروبي أيضًا بالقلق بشأن الهلوسة واستجابات الذكاء الاصطناعي التي تتضمن معلومات زائفة أو مضللة.

قالت مايكروسوفت: “نتعاون بشكل كامل مع المفوضية الأوروبية بشأن الطلب الطوعي للحصول على المعلومات، ونحن ملتزمون بالإجابة على استفساراتها وتقديم معلومات إضافية حول منهجنا في التعامل مع السلامة الرقمية”.

 

Continue Reading

أخبار الانترنت

كيف يمكن للقوانين الكندية التصدي لتهديد تيك توك لأمن البيانات؟

Avatar of هند عيد

Published

on

images 1 1

تحاول وكالة الأمن الكندية منع الكنديين من استخدام تطبيق تيك توك عن طريق إبلاغ المستخدمين بأن معلوماتهم متاحة للحكومة الصينية.

حذّر رئيس جهاز الاستخبارات الأمنية الكندي المواطنين الكنديين من استخدام تطبيق الفيديو، مؤكدًا أن البيانات التي تجمعها المنصة من مستخدميها متاحة للحكومة الصينية.

وفي  مقابلة  في مقابلة مع شبكة CBC News، صرّح ديفيد فيجنولت، مدير جهاز المخابرات الأمنية الكندي، بوجود إستراتيجية واضحة جدًا من قبل الحكومة الصينية تهدف إلى الحصول على معلومات شخصية من أي فرد في جميع أنحاء العالم.

وأضاف فيجنولت: “تستخدم الحكومة الصينية تحليل البيانات الضخمة، ولديها مزارع ضخمة من الحواسيب التي تقوم بمعالجة هذه البيانات، كما تعمل على تطوير الذكاء الاصطناعي بناءً على استخدام تلك البيانات”.

في شهر سبتمبر، أصدرت كندا أمرًا بمراجعة الأمن القومي لاقتراح تيك توك لتوسيع أعمالها في البلاد. وأكد فيجنولت أنه يعتزم نشر نتائج تلك المراجعة وتقديم النصائح.

تعتبر قدرة الحكومة الصينية على الوصول إلى بيانات المستخدم محور الجهود الأمريكية لتنظيم تيك توك وربما حتى حظره.

وأصدر الكونجرس في شهر أبريل قانوناً يمنع تطبيق تيك توك ما لم تقم شركته الأم بايت دانس ببيعه.

رفعت تيك توك هذا الشهر دعوى قضائية أمام محكمة اتحادية أمريكية ضد الحكومة الأمريكية بهدف منع تنفيذ قانون وقعه الرئيس جو بايدن، يقضي بإجبار شركة بايت دانس على بيع منصة تيك توك التي يستخدمها 170 مليون أمريكي أو حظرها. ويدعي التطبيق أن الحظر المتوقع غير دستوري.

قال البيت الأبيض إنه يسعى لإنهاء ملكية الصين لمنصة تيك توك لأسباب تتعلق بالأمن القومي، رغم أنه لا يهدف إلى فرض حظر على التطبيق.

زعمت تيك توك سابقًا أن الموظفين في الصين ليس لديهم القدرة على الوصول إلى بيانات المستخدمين الأمريكيين والأوروبيين.

قمّت الشركة بمجهودين كبيرين لإعادة هيكلة الشركة بهدف عزل بيانات المستخدمين عن الصين، وهما مشروع تكساس Project Texas ومشروع كلوفر Project Clover.

يتم استضافة بيانات المستخدمين الأمريكيين في البنية التحتية السحابية لشركة أوراكل، ولا يُفترض أن يكون لأي شخص خارج الولايات المتحدة القدرة على الوصول إليها، ومع ذلك. تقريرًا  صدر سابقًا عن مجلة فورتشن يشير إلى أن الجهود المبذولة لحماية بيانات المستخدم الأمريكي كانت سطحية إلى حد كبير.

صرحت دانييل مورغان، المتحدثة باسم تيك توك: “هذه المزاعم لا تستند إلى حقائق، والحقيقة هي أن المنصة لم تشارك أبداً بيانات المستخدمين الكنديين مع الحكومة الصينية، ولن نفعل ذلك حتى لو طُلب منا ذلك”.

وأضافت: “نستمر في التعاون مع المسؤولين الكنديين، ونتطلع إلى فرصة الاجتماع مع جهاز المخابرات الأمنية الكندي للتباحث حول كيفية حماية خصوصية وأمن المواطنين الكنديين.”

 

Continue Reading

Trending