أخبار الانترنت

ويكيبيديا تشدد قواعدها قيود جديدة على استخدام الذكاء الاصطناعي في التحرير

Published

on

أقرت Wikipedia (النسخة الإنجليزية) قيودًا جديدة على استخدام أدوات الذكاء الاصطناعي التوليدي في كتابة المقالات أو إعادة صياغتها، في إطار سعيها للحفاظ على جودة المحتوى والالتزام بسياسات النشر الأساسية.

ويكيبيديا تشدد قواعدها قيود جديدة على استخدام الذكاء الاصطناعي في التحرير

أوضحت المنصة أن الاعتماد على النماذج اللغوية قد يؤدي إلى انتهاك قواعدها الجوهرية، إذ يمكن لهذه الأدوات إنتاج معلومات غير دقيقة أو غير مدعومة بمصادر موثوقة، حتى عند استخدامها لأغراض تحريرية بسيطة.

ويكيبيديا تشدد قواعدها قيود جديدة على استخدام الذكاء الاصطناعي في التحرير

استخدام محدود بشروط صارمة

تسمح السياسة الجديدة باستخدام النماذج اللغوية الكبيرة (LLMs) في نطاق ضيق، مثل:

  • تحسين صياغة النصوص التي يكتبها المحررون بأنفسهم
  • المساعدة في الترجمة

وذلك بشرط مراجعة المحتوى بدقة، والتحقق من توافقه مع المصادر الأصلية. كما تشدد المنصة على ضرورة إلمام المستخدم باللغتين عند استخدام الترجمة، لتفادي الأخطاء المحتملة.

تدقيق بشري إلزامي قبل النشر

تحذر ويكيبيديا من أن هذه النماذج قد تغيّر المعنى الأصلي للنص أو تضيف معلومات غير موثقة، ما يجعل المراجعة البشرية خطوة أساسية لا يمكن تجاوزها قبل نشر أي محتوى.

تحديات متزايدة بسبب المحتوى المولّد

خلال العامين الماضيين، واجهت ويكيبيديا انتشارًا ملحوظًا للمحتوى منخفض الجودة الناتج عن الذكاء الاصطناعي، إلى جانب شكاوى من محررين بشأن وجود أخطاء معلوماتية ومراجع وهمية، وهو ما زاد من عبء التدقيق وأثار مخاوف حول مصداقية المنصة على المدى الطويل.

سياسات مختلفة حسب اللغة

لا تتبع ويكيبيديا سياسة موحدة عالميًا، إذ تختلف القواعد بين النسخ اللغوية:

صعوبة الكشف عن المحتوى الآلي

يبقى اكتشاف المحتوى المُنشأ بالذكاء الاصطناعي تحديًا تقنيًا، في ظل غياب أدوات دقيقة بنسبة 100%. وقد يسمح ذلك بمرور بعض النصوص دون رصد، خاصة في الصفحات الأقل مراجعة، ما يجعل خبرة المحررين العامل الحاسم في اكتشاف الأخطاء والأنماط غير الطبيعية.

Trending

Exit mobile version