Connect with us

أخبار الانترنت

مواجهة التحديات: كيف تحمي مايكروسوفت الذكاء الاصطناعي بأدوات الأمان؟

Avatar of هند عيد

Published

on

تنزيل 3 1

أوضحت سارة بيرد، الرئيسة العليا للذكاء الاصطناعي المسؤول في مايكروسوفت، أن فريقهم قد طور عدة خصائص أمنية جديدة تتسم بالسهولة في الاستعمال لزبائن Azure الذين لم يجروا تجارب على خدمات الذكاء الاصطناعي التي أقيمت من قبلهم.

وتقول عملاقة البرمجيات إن  هذه الأدوات يمكن للعاملين على النماذج اللغوية ذات الحجم الكبير تحديد أوجه القصور المحتملة، رصد الأوهام المتوقعة، ومنع تقديم الادعاءات الضارة فوراً بالنسبة لمستخدمي Azure AI الذين يستعينون بأي نموذج يتم استضافته على المنصة.

تسهم الأدوات في الحد من النزاعات المتعلقة بالذكاء الاصطناعي الإبداعي الناتجة عن الردود غير المرغوب فيها أو العَرَضية، كالردود التي تشمل صور مفبركة واضحة للمشاهير، أو الصور التي لا تتسق مع الحقائق التاريخية.

تقدم الأدوات ثلاث خصائص رئيسية متاحة حاليًا للاختبار من خلال Azure AI، وهذه الخصائص هي:

  • حواجز الوقاية: التي تمنع العمليات المباشرة للحقن أو المُطالبات الضائرة الصادرة عن الوثائق الخارجية، والتي تُجبر النماذج على الخروج عن مسار التدريب الذي تلقته.
  • كشف الأرضية: وهي آلية لاكتشاف الهذيان والوقاية منه.
  • تقييمات السلامة: التي تعمل على تقييم نقاط الضعف الموجودة في النموذج.

ستصبح خاصيتان جديدتان متاحتين قريباً تهدفان إلى قيادة الأنماط نحو نتائج موثوقة ووظيفة متابعة مطالبات لتقديم تقارير حول المستخدمين الذين يُحتمل أن يثيروا مشاكل.

سواء أقدم المستخدم على الكتابة ضمن محطة الأوامر، أو في حالة كانت الاستمارة تتعامل مع معطيات من طرف آخر، فإن نظام الرصد يقوم بتقييم هذه المدخلات للتحقق مما إذا كانت تشتمل على ألفاظ ممنوعة أو تضمن طلبات ضمنية، وذلك قبل أن يتخذ قرار بإرسالها إلى الاستمارة لتستجيب عليها.

يقوم النظام أيضًا بفحص استجابات النموذج للتأكد من أنه لم يقم بخلق معلومات زائفة غير متواجدة في الوثيقة أو الادعاء.

تقر بيرد بوجود قلق بشأن إمكانية اتخاذ مايكروسوفت وشركات أخرى قرارات بشأن ما يعتبر ملائماً أو غير ملائم لنماذج الذكاء الاصطناعي. ولهذه الغاية، أدخل فريقها آلية تمكن مستخدمي Azure من تغيير إعدادات الفلترة للمحتوى الذي يعتبره النموذج كراهية أو عنف ويقوم بحجبه.

قد يتمكن مستقبلاً مستخدمو أزور من الحصول على تقرير يُظهر الأفراد الذين يحاولون تفعيل نتائج تشغيل محفوفة بالمخاطر.

تكون أدوات الحماية متصلة بشكل مباشر بالإصدار اللغوي المعقد GPT-4 وبالنماذج اللغوية الأخرى المستخدمة على نطاق واسع كما في Llama 2.

تعمل شركة مايكروسوفت على استغلال قدرات الذكاء الاصطناعي لرفع مستوى الحماية والأمان في تطبيقاتها، خصوصًا في ظل الاهتمام المتزايد من العملاء بتوظيف منصة Azure لتفعيل تقنيات الذكاء الاصطناعي.

 

أخبار الانترنت

تركيا تشدّد الرقابة الرقمية قانون جديد لحظر وسائل التواصل على الأطفال

Avatar of هدير ابراهيم

Published

on

OpenAI تعزّز ريادتها بإطلاق GPT 5.5 قفزة نوعية في البرمجة وتنفيذ المهام الذكية 12

أقرّ البرلمان التركي مشروع قانون جديد يقضي بحظر استخدام منصات التواصل الاجتماعي على الأطفال دون سن 15 عامًا، في خطوة تهدف إلى تعزيز حماية القُصّر من المخاطر الرقمية المتزايدة.

تركيا تشدّد الرقابة الرقمية قانون جديد لحظر وسائل التواصل على الأطفال

يفرض القانون على الشركات المالكة لمنصات التواصل الاجتماعي تطبيق آليات فعّالة للتحقق من أعمار المستخدمين، إلى جانب توفير أدوات رقابة أبوية متقدمة. كما يُلزمها بتسريع الاستجابة للمحتوى الضار، بما يحد من انتشاره وتأثيره على الفئات الصغيرة.

تركيا تشدّد الرقابة الرقمية قانون جديد لحظر وسائل التواصل على الأطفال

تركيا تشدّد الرقابة الرقمية قانون جديد لحظر وسائل التواصل على الأطفال

خلفيات أمنية واجتماعية للقرار

جاء تمرير هذا التشريع في أعقاب حادثتي إطلاق نار داخل مدارس في تركيا أسفرتا عن سقوط ضحايا، حيث أشارت تقارير إلى توقيف 162 شخصًا على خلفية نشر مقاطع مصورة مرتبطة بالحادثتين عبر الإنترنت، ما أثار مخاوف بشأن دور المنصات الرقمية في نشر المحتوى العنيف.

بانتظار المصادقة الرئاسية

يمنح القانون الرئيس التركي رجب طيب أردوغان مهلة 15 يومًا للمصادقة عليه قبل دخوله حيّز التنفيذ، وذلك بعد مواقف سابقة انتقد فيها منصات التواصل الاجتماعي ووصفها بأنها بيئة غير آمنة، ما يعكس دعمًا سياسيًا واضحًا لهذا التوجه.

توسيع نطاق القيود ليشمل الألعاب الإلكترونية

لا يقتصر القانون على منصات التواصل فقط، بل يمتد ليشمل شركات الألعاب عبر الإنترنت، حيث يفرض عليها تطبيق قيود مماثلة على المستخدمين القُصّر. كما ينص على عقوبات محتملة تشمل فرض غرامات مالية أو خفض سرعة الإنترنت في حال عدم الامتثال.

تاريخ من التوتر مع المنصات الرقمية

تأتي هذه الخطوة ضمن سياق طويل من التوتر بين تركيا والمنصات الرقمية العالمية، إذ سبق أن حظرت السلطات منصة إنستاجرام في عام 2024 قبل أن تعيدها لاحقًا، كما أوقفت لعبة روبلوكس بسبب مخاوف تتعلق بالمحتوى الموجّه للأطفال، وفرضت قيودًا مؤقتة على منصة “إكس” في عدة مناسبات.

توجه عالمي متصاعد

لا تُعد هذه الخطوة معزولة، بل تأتي ضمن اتجاه عالمي متزايد نحو تنظيم وصول القُصّر إلى المنصات الرقمية. فقد سبقت أستراليا هذه الخطوة بفرض حظر على استخدام وسائل التواصل الاجتماعي لمن هم دون 16 عامًا، مع توجه دول أخرى لاعتماد سياسات مماثلة.

بين الحماية والحرية الرقمية

يعكس هذا التشريع التحدي المتزايد في تحقيق التوازن بين حماية الأطفال من مخاطر الإنترنت، والحفاظ على حرية الوصول إلى المعلومات والخدمات الرقمية، في ظل تسارع التحولات التكنولوجية وتأثيرها على مختلف الفئات العمرية.

Continue Reading

أخبار الانترنت

رقابة رقمية جديدة ميتا تفتح نافذة على محادثات المراهقين مع الذكاء الاصطناعي

Avatar of هدير ابراهيم

Published

on

أعطال تقنية 196

أعلنت شركة Meta عن إطلاق ميزة جديدة تتيح لأولياء الأمور متابعة طبيعة الموضوعات التي يناقشها أبناؤهم المراهقون مع أنظمة الذكاء الاصطناعي الخاصة بها، في محاولة لتعزيز الثقة بسلامة استخدام منصاتها.

رقابة رقمية جديدة ميتا تفتح نافذة على محادثات المراهقين مع الذكاء الاصطناعي

رقابة رقمية جديدة ميتا تفتح نافذة على محادثات المراهقين مع الذكاء الاصطناعي

رقابة رقمية جديدة ميتا تفتح نافذة على محادثات المراهقين مع الذكاء الاصطناعي

تمنح الأداة الآباء نظرة عامة على نوعية الأسئلة والاستفسارات التي يطرحها المراهقون على Meta AI عبر تطبيقات مثل Facebook وMessenger وInstagram، وتشمل مجالات متعددة مثل التعليم، الترفيه، نمط الحياة، السفر، والكتابة.

تبويب “Insights” وتحليل الاهتمامات

تظهر هذه البيانات ضمن قسم جديد يحمل اسم “Insights” داخل أدوات الإشراف العائلي، سواء عبر التطبيق أو من خلال الويب. ويمكن لولي الأمر استعراض تفاصيل أعمق لكل موضوع، حيث تتفرع الفئات إلى مجالات دقيقة مثل الموضة والطعام ضمن “نمط الحياة”، أو اللياقة والصحة النفسية ضمن “الصحة والرفاه”.

إشراف علمي وخبراء متخصصون

وفي إطار تطوير التجربة، أعلنت Meta عن تشكيل مجلس من الخبراء يضم مختصين في أخلاقيات الذكاء الاصطناعي والصحة النفسية، إلى جانب التعاون مع مؤسسات أكاديمية وجهات متخصصة، بهدف تقديم توصيات مستمرة لتحسين تجربة المراهقين.

ضغوط تنظيمية وانتقادات متزايدة

تأتي هذه الخطوة في ظل تصاعد الضغوط على شركات التكنولوجيا عالميًا، خاصة مع اتجاه بعض الدول إلى فرض قيود على استخدام الأطفال والمراهقين لوسائل التواصل الاجتماعي، إضافة إلى الانتقادات التي تواجهها الشركة بسبب تقليل الاعتماد على المراجعة البشرية للمحتوى لصالح الأنظمة الذكية.

مخاوف من التأثيرات النفسية

وتزداد المخاوف بشأن تأثير الذكاء الاصطناعي على الصحة النفسية للمراهقين، خاصة بعد تقارير ربطت بعض الحوادث بمحادثات مع أنظمة ذكية يُعتقد أنها ساهمت في تفاقم أزمات نفسية، بل وارتبطت في بعض الحالات بحوادث انتحار، ما يضع هذه التقنيات تحت مجهر الرقابة المجتمعية والتنظيمية.

Continue Reading

أخبار الانترنت

ويكيبيديا تشدد قواعدها قيود جديدة على استخدام الذكاء الاصطناعي في التحرير

Avatar of هدير ابراهيم

Published

on

نهاية حقبة الاحتراف آبل تطوي صفحة Mac Pro نهائيًا 4

أقرت Wikipedia (النسخة الإنجليزية) قيودًا جديدة على استخدام أدوات الذكاء الاصطناعي التوليدي في كتابة المقالات أو إعادة صياغتها، في إطار سعيها للحفاظ على جودة المحتوى والالتزام بسياسات النشر الأساسية.

ويكيبيديا تشدد قواعدها قيود جديدة على استخدام الذكاء الاصطناعي في التحرير

أوضحت المنصة أن الاعتماد على النماذج اللغوية قد يؤدي إلى انتهاك قواعدها الجوهرية، إذ يمكن لهذه الأدوات إنتاج معلومات غير دقيقة أو غير مدعومة بمصادر موثوقة، حتى عند استخدامها لأغراض تحريرية بسيطة.

ويكيبيديا تشدد قواعدها قيود جديدة على استخدام الذكاء الاصطناعي في التحرير

ويكيبيديا تشدد قواعدها قيود جديدة على استخدام الذكاء الاصطناعي في التحرير

استخدام محدود بشروط صارمة

تسمح السياسة الجديدة باستخدام النماذج اللغوية الكبيرة (LLMs) في نطاق ضيق، مثل:

  • تحسين صياغة النصوص التي يكتبها المحررون بأنفسهم
  • المساعدة في الترجمة

وذلك بشرط مراجعة المحتوى بدقة، والتحقق من توافقه مع المصادر الأصلية. كما تشدد المنصة على ضرورة إلمام المستخدم باللغتين عند استخدام الترجمة، لتفادي الأخطاء المحتملة.

تدقيق بشري إلزامي قبل النشر

تحذر ويكيبيديا من أن هذه النماذج قد تغيّر المعنى الأصلي للنص أو تضيف معلومات غير موثقة، ما يجعل المراجعة البشرية خطوة أساسية لا يمكن تجاوزها قبل نشر أي محتوى.

تحديات متزايدة بسبب المحتوى المولّد

خلال العامين الماضيين، واجهت ويكيبيديا انتشارًا ملحوظًا للمحتوى منخفض الجودة الناتج عن الذكاء الاصطناعي، إلى جانب شكاوى من محررين بشأن وجود أخطاء معلوماتية ومراجع وهمية، وهو ما زاد من عبء التدقيق وأثار مخاوف حول مصداقية المنصة على المدى الطويل.

سياسات مختلفة حسب اللغة

لا تتبع ويكيبيديا سياسة موحدة عالميًا، إذ تختلف القواعد بين النسخ اللغوية:

صعوبة الكشف عن المحتوى الآلي

يبقى اكتشاف المحتوى المُنشأ بالذكاء الاصطناعي تحديًا تقنيًا، في ظل غياب أدوات دقيقة بنسبة 100%. وقد يسمح ذلك بمرور بعض النصوص دون رصد، خاصة في الصفحات الأقل مراجعة، ما يجعل خبرة المحررين العامل الحاسم في اكتشاف الأخطاء والأنماط غير الطبيعية.

Continue Reading

Trending

Copyright © 2025 High Tech. Powered By DMB Agency.