مع الانتشار الواسع لأدوات الذكاء الاصطناعي واستخدامها في كتابة النصوص وإنشاء الصور والمقاطع المختلفة، أصبح التمييز بين ما يصنعه الإنسان وما تنتجه الآلات تحدّيًا متزايد الأهمية. فالأخطاء الناتجة عن الاعتماد المفرط على الذكاء الاصطناعي تسببت في مشاكل حقيقية لعدد من الشركات والمؤسسات، بدءًا من التقارير الرسمية وصولًا إلى المجال القانوني والتعليم العالي.
هل يمكن الوثوق بأدوات كشف المحتوى بالذكاء الاصطناعي فهم آلية العمل وحدود الدقة
هل يمكن الوثوق بأدوات كشف المحتوى بالذكاء الاصطناعي فهم آلية العمل وحدود الدقة
1) كشف النصوص
تركز أدوات كشف النصوص على تحليل أنماط لغوية قد تُشير إلى أن النص تمت كتابته باستخدام الذكاء الاصطناعي. ومن أبرز هذه الأنماط:
تكرار الجمل أو الأفكار
الأسلوب الموحد في كامل النص
اختيار مفردات شائعة الاستخدام لدى النماذج اللغوية
الاتساق العالي في البنية اللغوية بشكل يصعب حدوثه طبيعيًا
ورغم ذلك، أصبحت نماذج الذكاء الاصطناعي المتقدمة قادرة على إنتاج نصوص ذات طابع بشري أقرب من أي وقت مضى، ما يجعل مهمة الكشف أصعب وتتراجع دقتها مع الوقت.
2) كشف الصور المولّدة بالذكاء الاصطناعي
تعتمد الأدوات المتخصصة في تحليل الصور على طرق مختلفة، منها:
تحليل البيانات الوصفية (Metadata): والتي تُضاف تلقائيًا للصور المولّدة عبر بعض النماذج.
المقارنة مع قواعد بيانات لصور مُزيفة: تتيح معرفة ما إذا كانت الصورة مطابقة أو قريبة من صور تم توليدها سابقًا.
لكن بمجرد تعديل الصورة، أو إعادة حفظها، أو إزالة الميتاداتا، تصبح عملية الكشف أصعب بكثير.
3) العلامات المائية الخفية (Invisible Watermarks)
بدأت بعض الشركات، مثل جوجل، بإضافة علامات رقمية خفية لمحتوى الذكاء الاصطناعي. أداة SynthID مثلًا تستطيع كشف الصور المنتَجة عبر نموذج Imagen، حتى بعد تعديلها.
لكن:
هذه الأدوات ليست متاحة عمومًا.
تعمل فقط مع منتجات الشركة نفسها.
لا يمكنها كشف محتوى صادر من نماذج منافسة مثل ChatGPT أو غيره.