أكدت شركة آبل أنها تخطط لنشر تقنية جديدة داخل iOS و macOS و watchOS و iMessage التي تكتشف صور إساءة معاملة الأطفال المحتملة، وأوضحت تفاصيل مهمة عن المشروع الجاري.
وبالنسبة للأجهزة في الولايات المتحدة، فإن الإصدارات الجديدة من iOS و iPadOS التي يتم طرحها هذا الخريف تتضمن تطبيقات جديدة للتشفير للمساعدة في الحد من انتشار مواد الاعتداء الجنسي على الأطفال عبر الإنترنت.
وتم تفصيل المشروع في صفحة “سلامة الأطفال” الجديدة عبر موقع الشركة. والتطبيق الأكثر إثارة للجدل هو النظام الذي يجري مسحًا على الجهاز قبل نسخ الصورة احتياطيًا في آيكلاود.
بررت الشركة تحركاتها لمسح الصور من خلال وصف العديد من القيود التي تم تضمينها لحماية الخصوصية:
لا تعلم آبل أي شيء عن الصور التي لا تتطابق مع قاعدة بيانات CSAM المعروفة.
لا تستطيع الشركة الوصول إلى البيانات الوصفية أو المشتقات المرئية لصور CSAM المتطابقة حتى يتم تجاوز حد التطابقات لحساب صور آيكلاود.
مخاطر قيام النظام بالإبلاغ عن الحساب بشكل غير صحيح منخفضة للغاية. بالإضافة إلى ذلك، تراجع الشركة يدويًا جميع التقارير المقدمة إلى NCMEC لضمان دقة التقارير.
لا يمكن للمستخدمين الوصول إلى قاعدة بيانات صور CSAM المعروفة أو عرضها.
لا يمكن للمستخدمين تحديد الصور التي تم وضع علامة CSAM عليها من قبل النظام.