fbpx
Connect with us

أخبار الانترنت

حقيقة مثيرة للجدل: ميتا ترفض دفع رسوم الإشراف في أوروبا، كيف ستؤثر على المحتوى؟

Avatar of هند عيد

Published

on

Untitled design 7 780x470 1

تعتبر رفض شركة ميتا (المعروفة سابقاً بفيسبوك) دفع رسوم الإشراف في أوروبا قضية مثيرة للجدل. يترتب على هذا القرار تأثيرات على المحتوى الذي يتم نشره على المنصة، مما يثير قلقًا حول مستقبل الرقابة وحماية المستخدمين.

تحليل تأثير رفض ميتا لدفع رسوم الإشراف على المحتوى

باعتبار رفض ميتا لدفع رسوم الإشراف في أوروبا، يتوقع أن يؤثر ذلك سلبًا على جودة المحتوى وسلامة المستخدمين، حيث قد يزيد من انتشار المحتوى غير الملائم والكاذب ويقلل من الرقابة على المنصة.

المحتوى الرقابي في أوروبا

يعتبر المحتوى الرقابي في أوروبا أمرًا مهمًا جدًا، حيث توجد سياسات صارمة للرقابة على المحتوى لحماية المستخدمين ومكافحة الإشاعات والمحتوى الضار.

سياسة الرقابة في أوروبا

تعتبر سياسة الرقابة في أوروبا صارمة وتهدف إلى حماية المستخدمين ومكافحة الإشاعات والمحتوى الضار.

تشمل الرقابة على المحتوى إجراءات صارمة لمكافحة الكراهية والعنف والإشهار الكاذب.

كيف يتم تنفيذ رسوم الإشراف في المحتوى

تتم تنفيذ رسوم الإشراف في المحتوى من خلال عدة طرق، بما في ذلك ضمان أن مقدمي الخدمات الرقابية يلتزمون بالمعايير والقوانين المحددة، وفحص المحتوى بواسطة خوارزميات وأدوات التحليل، وتطوير آليات التبليغ والاستجابة السريعة للمشتبه بها.

تهدف هذه الإجراءات إلى ضمان عدم وجود محتوى ضار أو غير قانوني يتم تداوله في المنصات الرقمية.

المنصات الأخرى ودفع رسوم الإشراف

تختلف سياسات المنصات الأخرى في دفع رسوم الإشراف. فمنها من تلتزم بدفع الرسوم ومنها من يرفض ذلك.

قد يؤثر رفض ميتا على المنصات الأخرى ويشجعها على اعتماد سياسات مماثلة في دفع رسوم الإشراف.

مواقع التواصل الاجتماعي الأخرى وسياساتها في دفع رسوم الإشراف

تختلف سياسات المنصات الأخرى في دفع رسوم الإشراف. فمنها من تلتزم بدفع الرسوم ومنها من يرفض ذلك.

قد يؤثر رفض ميتا على المنصات الأخرى ويشجعها على اعتماد سياسات مماثلة في دفع رسوم الإشراف.

التأثير المحتمل على المحتوى بسبب قرار ميتا

قد يكون لقرار ميتا بعدم دفع رسوم الإشراف تأثير كبير على المحتوى، حيث قد يؤدي ذلك إلى ضعف الرقابة وزيادة انتشار المحتوى الضار وغير اللائق على المنصة.

حماية المستخدم وسلامته

توفر قرارات الرقابة الداخلية وقوانين الخصوصية حماية المستخدم وسلامته على المنصة.

قد تشمل الإجراءات الإضافية للحماية تحسين آليات الإبلاغ عن المحتوى المخالف وتعزيز الفحص الأمني للحسابات والتفاعلات بين المستخدمين.

ما هي الخطوات المتاحة للمستخدمين للحماية والسلامة المستقبلية؟

يجب على المستخدمين أخذ بعض الخطوات للحفاظ على حمايتهم وسلامتهم في المستقبل، ومن بين هذه الخطوات:

  1. تعزيز كلمات المرور الخاصة بهم واستخدام كلمات مرور قوية وفريدة لكل منصة.
  2. تحديث الإعدادات الخاصة بالخصوصية والأمان في حساباتهم للتحكم في الظهور العام للمعلومات الشخصية.
  3. القيام بفحص دوري للتطبيقات والملحقات المثبتة على أجهزتهم وإزالة أي تطبيق يشكل خطرًا على الأمان.
  4. الابتعاد عن فتح روابط مشبوهة أو تحميل الملفات من مصادر غير موثوقة.
  5. الابتعاد عن تقديم المعلومات الشخصية الحساسة عبر الانترنت والحفاظ على خصوصيتها.
  6. الإبلاغ عن أي تعدي على الأمان أو تهديد عبر المنصة إلى فريق الدعم الفني.

من خلال اتخاذ هذه الخطوات، يمكن للمستخدمين تعزيز سلامتهم وحمايتهم الشخصية أثناء استخدامهم للمنصة في المستقبل.

هل ستظل هناك ضمانات للحماية والسلامة في ظل قرار ميتا؟

بالنظر إلى رفض ميتا دفع رسوم الإشراف في أوروبا، قد يؤثر ذلك على ضمانات الحماية والسلامة للمستخدمين.

ولكن مع استمرار التطورات والمناقشات حول هذه القضية، من الممكن أن تنشأ ضمانات جديدة تحمي المستخدمين وتكفل سلامتهم في المستقبل.

تطور المشهد الرقابي في المستقبل

بالنظر إلى التطورات السريعة في عالم المحتوى الرقابي، من المتوقع أن يشهد المشهد الرقابي في المستقبل تطوراً كبيراً.

قد تشهد سياسات الرقابة تغييرات جديدة وتطبيقات تكنولوجية متقدمة للحفاظ على سلامة المستخدمين ومكافحة انتشار المحتوى غير الملائم.

يجب أن تكون الحماية والسلامة للمستخدمين هما الأولوية القصوى في المشهد الرقابي المستقبلي.

توجهات محتملة في رسوم الإشراف في المستقبل

يمكن أن تشهد رسوم الإشراف في المستقبل توجهات جديدة، مثل زيادة المبالغ المطلوبة أو تعديل سياسات الرقابة لتحقيق فائدة أكبر.

قد تتم مراجعة النماذج الحالية لدفع رسوم الإشراف لضمان فعالية أكبر وتحديد الأنشطة غير الملائمة بشكل أفضل.

تأثير ذلك على المحتوى والمستخدمين

قرار ميتا برفض دفع رسوم الإشراف في أوروبا قد يؤثر سلبًا على المحتوى والمستخدمين، فقد يزداد انتشار المحتوى غير الملائم وتقلص فرص الرقابة وحماية المستخدمين.

أخبار الانترنت

ابتكار وتطوير: دور شركة سلاك في تطوير نماذج الذكاء الاصطناعي

Avatar of هند عيد

Published

on

18520241257800 شرسلا

تقوم سلاك بتدريب نماذج التعلم الآلي باستخدام رسائل المستخدم والملفات والمحتويات الأخرى دون الحصول على إذن واضح.

تستعمل المنصة بياناتك الشخصية تلقائيًا، ولكي تتوقف عن المشاركة يجب عليك أن تطلب من مدير الموارد البشرية أو قسم تكنولوجيا المعلومات في مؤسستك أن يرسل بريدًا إلكترونيًا إلى الشركة لطلب التوقف، ولا يمكنك القيام بذلك بنفسك.

و  اكتشف  كوري كوين  أحد المسؤولين التنفيذيين في مجموعة DuckBill تناول هذه السياسة في مبادئ خصوصية Slack وكتب عنها على منصة X.

وتنص السياسة على ما يلي: “بهدف تطوير نماذج الذكاء الاصطناعي وتعلم الآلة، تقوم أنظمتنا بتحليل بيانات العميل، مثل الرسائل والمحتوى والملفات المقدمة إلى سلاك، بالإضافة إلى معلومات أخرى تتضمن معلومات الاستخدام، كما هو محدد في سياسة الخصوصية وفي اتفاقية العميل.”

ووفقًا لسياسة الخصوصية، لإلغاء الاشتراك يجب أن تطلب من مالكي مؤسستك أو مساحة العمل أو المالك الأساسي التواصل مع فريق خدمة عملاء سلاك باستخدام عنوان مساحة العمل أو المؤسسة. سنقوم بمعالجة طلبك والرد عليك فور اكتمال عملية إلغاء الاشتراك.

ردت الشركة على تغريدة كوين قائلة: “تملك سلاك نماذج تعلم آلي على مستوى المنصة مخصصة لأشياء مثل اقتراحات القنوات والرموز التعبيرية ونتائج البحث. يمكن للعملاء استثناء بياناتهم من استخدامها لتدريب نماذج تعلم الآلة”.

من غير الواضح منذ متى قامت الشركة التابعة لشركة Salesforce بتعديل سياسة الخصوصية.

تساهم التناقضات في سياسات خصوصية “سلاك” في زيادة الحيرة؛ حيث يشير أحد الأقسام إلى أن “سلاك” لا تستطيع الوصول إلى المحتوى الأساسي عند تطوير نماذج التعلم الآلي أو عند تحليل بيانات العملاء بأساليب أخرى، وذلك لأنها تتبع إجراءات تقنية متعددة تحول دون حدوث ذلك.

يبدو أن نهج تدريب نماذج التعلم الآلي يتناقض مع هذا القسم، مما يخلق مساحة كبيرة للارتباك.

وتأخذ صفحة تسويق أدوات الذكاء الاصطناعي التوليدي على عاتقها التأكيد: “إننا لا نستخدم بياناتك لتدريب نماذج الذكاء الاصطناعي. كل العمليات تجري ضمن البنية التحتية الآمنة للمنصة وتلتزم بنفس معايير الامتثال التي تعتمدها سلاك”.

في هذا السياق، تشير الشركة إلى أدوات الذكاء الاصطناعي التوليدي المميزة التي تختلف عن نماذج التعلم الآلي التي تُدرب على البيانات دون الحصول على إذن صريح.

ويمكن اعتبار الادعاء بأن جميع بياناتك محمية من تدريب الذكاء الاصطناعي خادعاً، إذ تقوم الشركة باختيار نماذج الذكاء الاصطناعي التي يشملها هذا البيان.

 

Continue Reading

أخبار الانترنت

مايكروسوفت في خطر: هل ستدفع مليارات الدولارات؟

Avatar of هند عيد

Published

on

Untitled design 2024 05 18T184031.190 780x470 1

أصدر مسؤولو الاتحاد الأوروبي طلبًا قانونيًا إلزاميًا لشركة مايكروسوفت للحصول على معلومات حول ميزات الذكاء الاصطناعي التوليدي في محرك البحث Bing.

و  أعلنت  المفوضية الأوروبية، التي تعد السلطة التنفيذية للاتحاد الأوروبي، اتخذت هذه الخطوة. ويتعين على شركة البرمجيات العملاقة تقديم المعلومات المطلوبة بحلول 27 مايو.

قد ينتج عن عدم القيام بذلك تكبد غرامات مالية ضخمة.

يُعتبر هذا الطلب جزءًا من مساعي المفوضية الأوروبية لضمان امتثال الشركات التكنولوجية العملاقة لقانون الخدمات الرقمية.

يتطلب القانون من مشغلي المنصات الكبيرة على الإنترنت مراقبة مجموعة متنوعة من المخاطر في خدماتهم واتخاذ تدابير لتخفيفها. يتضمن ذلك المخاطر المتعلقة بميزات الذكاء الاصطناعي التوليدي.

وفي مارس، طلب الاتحاد الأوروبي من شركات مايكروسوفت وجوجل وميتا والعديد من شركات التكنولوجيا الأخرى تقديم معلومات حول قدرات الذكاء الاصطناعي التوليدي.

وكان الهدف من هذه الطلبات هو مساعدة المسؤولين في التأكد من امتثال الشركات لأحكام قانون الخدمات الرقمية المتعلقة بتقليل المخاطر التي يواجهها المستخدمون.

وأُرسل الطلب الثاني للمعلومات من قبل الاتحاد الأوروبي إلى مايكروسوفت الآن، لأن شركة التكنولوجيا العملاقة لم تتمكن من تقديم بعض الوثائق والبيانات الداخلية في استجابتها الأولى.

يمكن للاتحاد الأوروبي أن يفرض غرامات تصل إلى نسبة 1% من الإيرادات السنوية للشركات على مستوى العالم إذا قدمت سجلات غير صحيحة أو غير كاملة أو مضللة استجابة لطلب معلومات.

في حال لم تفصح مايكروسوفت عن المعلومات التي طلبها المسؤولون بحلول المهلة المحددة في 27 مارس، فمن المتوقع أن تواجه عقوبات إضافية.

قد يؤدي عدم تقديم المعلومات المطلوبة إلى فرض غرامات تصل إلى 1 في المئة من الإيرادات السنوية العالمية للشركة، بالإضافة إلى غرامات دورية.

يركز هذا الطلب الجديد للحصول على المعلومات على ميزتين تقدمهما مايكروسوفت كجزء من خدمة Bing.

الميزة الأولى مرتبطة بروبوت الدردشة المعتمد على الذكاء الاصطناعي Copilot والذي يعمل باستخدام نموذج اللغة الكبير GPT-4، بينما الميزة الثانية مرتبطة بنموذج إنشاء الصور Image Creator by Designer.

يعتقد الاتحاد الأوروبي أن الوظيفتين قد تكونان قد خرقتا قانون الخدمات الرقمية بما يتعلق بالمخاطر المعينة الناتجة عن ميزات الذكاء الاصطناعي التوليدية لمحرك البحث Bing.

تشمل المخاطر التي أشار إليها المسؤولون إمكانية استخدام تقنيات الذكاء الاصطناعي لإنشاء تزييف عميق والتلاعب بالخدمات بطرق قد تؤدي إلى تضليل الناخبين.

يشعر الاتحاد الأوروبي أيضًا بالقلق بشأن الهلوسة واستجابات الذكاء الاصطناعي التي تتضمن معلومات زائفة أو مضللة.

قالت مايكروسوفت: “نتعاون بشكل كامل مع المفوضية الأوروبية بشأن الطلب الطوعي للحصول على المعلومات، ونحن ملتزمون بالإجابة على استفساراتها وتقديم معلومات إضافية حول منهجنا في التعامل مع السلامة الرقمية”.

 

Continue Reading

أخبار الانترنت

كيف يمكن للقوانين الكندية التصدي لتهديد تيك توك لأمن البيانات؟

Avatar of هند عيد

Published

on

images 1 1

تحاول وكالة الأمن الكندية منع الكنديين من استخدام تطبيق تيك توك عن طريق إبلاغ المستخدمين بأن معلوماتهم متاحة للحكومة الصينية.

حذّر رئيس جهاز الاستخبارات الأمنية الكندي المواطنين الكنديين من استخدام تطبيق الفيديو، مؤكدًا أن البيانات التي تجمعها المنصة من مستخدميها متاحة للحكومة الصينية.

وفي  مقابلة  في مقابلة مع شبكة CBC News، صرّح ديفيد فيجنولت، مدير جهاز المخابرات الأمنية الكندي، بوجود إستراتيجية واضحة جدًا من قبل الحكومة الصينية تهدف إلى الحصول على معلومات شخصية من أي فرد في جميع أنحاء العالم.

وأضاف فيجنولت: “تستخدم الحكومة الصينية تحليل البيانات الضخمة، ولديها مزارع ضخمة من الحواسيب التي تقوم بمعالجة هذه البيانات، كما تعمل على تطوير الذكاء الاصطناعي بناءً على استخدام تلك البيانات”.

في شهر سبتمبر، أصدرت كندا أمرًا بمراجعة الأمن القومي لاقتراح تيك توك لتوسيع أعمالها في البلاد. وأكد فيجنولت أنه يعتزم نشر نتائج تلك المراجعة وتقديم النصائح.

تعتبر قدرة الحكومة الصينية على الوصول إلى بيانات المستخدم محور الجهود الأمريكية لتنظيم تيك توك وربما حتى حظره.

وأصدر الكونجرس في شهر أبريل قانوناً يمنع تطبيق تيك توك ما لم تقم شركته الأم بايت دانس ببيعه.

رفعت تيك توك هذا الشهر دعوى قضائية أمام محكمة اتحادية أمريكية ضد الحكومة الأمريكية بهدف منع تنفيذ قانون وقعه الرئيس جو بايدن، يقضي بإجبار شركة بايت دانس على بيع منصة تيك توك التي يستخدمها 170 مليون أمريكي أو حظرها. ويدعي التطبيق أن الحظر المتوقع غير دستوري.

قال البيت الأبيض إنه يسعى لإنهاء ملكية الصين لمنصة تيك توك لأسباب تتعلق بالأمن القومي، رغم أنه لا يهدف إلى فرض حظر على التطبيق.

زعمت تيك توك سابقًا أن الموظفين في الصين ليس لديهم القدرة على الوصول إلى بيانات المستخدمين الأمريكيين والأوروبيين.

قمّت الشركة بمجهودين كبيرين لإعادة هيكلة الشركة بهدف عزل بيانات المستخدمين عن الصين، وهما مشروع تكساس Project Texas ومشروع كلوفر Project Clover.

يتم استضافة بيانات المستخدمين الأمريكيين في البنية التحتية السحابية لشركة أوراكل، ولا يُفترض أن يكون لأي شخص خارج الولايات المتحدة القدرة على الوصول إليها، ومع ذلك. تقريرًا  صدر سابقًا عن مجلة فورتشن يشير إلى أن الجهود المبذولة لحماية بيانات المستخدم الأمريكي كانت سطحية إلى حد كبير.

صرحت دانييل مورغان، المتحدثة باسم تيك توك: “هذه المزاعم لا تستند إلى حقائق، والحقيقة هي أن المنصة لم تشارك أبداً بيانات المستخدمين الكنديين مع الحكومة الصينية، ولن نفعل ذلك حتى لو طُلب منا ذلك”.

وأضافت: “نستمر في التعاون مع المسؤولين الكنديين، ونتطلع إلى فرصة الاجتماع مع جهاز المخابرات الأمنية الكندي للتباحث حول كيفية حماية خصوصية وأمن المواطنين الكنديين.”

 

Continue Reading

Trending