أخبار تقنية

جوجل تُعدل سياساتها وتفتح الباب لاستخدام الذكاء الاصطناعي في التطبيقات العسكرية

Published

on

في أكبر تعديل على مبادئها الخاصة بالذكاء الاصطناعي منذ عام 2018، قامت جوجل بإزالة تعهداتها السابقة بعدم استخدام الذكاء الاصطناعي في تطوير الأسلحة أو أنظمة المراقبة التي تنتهك المعايير الدولية، مما يمهّد الطريق أمام تطبيقات عسكرية وأمنية أوسع.

جوجل تُعدل سياساتها وتفتح الباب لاستخدام الذكاء الاصطناعي في التطبيقات العسكرية

جوجل تُعدل سياساتها وتفتح الباب لاستخدام الذكاء الاصطناعي في التطبيقات العسكرية

بحسب تقرير نشرته واشنطن بوست، لم تعد المبادئ الجديدة تتضمن قسم “التطبيقات التي لن نسعى إليها”، والذي كان ينص بوضوح على رفض تطوير تقنيات الذكاء الاصطناعي للأسلحة أو أنظمة المراقبة غير الأخلاقية.

إدخال مبدأ “التطوير والتوظيف المسؤول”

بدلًا من الالتزام بالقيود السابقة، قدمت جوجل إطارًا جديدًا تحت عنوان “التطوير والتوظيف المسؤول”، الذي يشدد على ضرورة الإشراف البشري، وتقييم المخاطر، وآليات المراجعة لضمان توافق التكنولوجيا مع المبادئ العالمية. ومع ذلك، لم تقدم الشركة تعريفات واضحة أو معايير محددة لهذه المبادئ، مما أثار انتقادات واسعة.

تغيير جذري في موقف جوجل من العقود العسكرية

حتى وقت قريب، أكدت سياسة جوجل أنها لن تطوّر الذكاء الاصطناعي لأغراض عسكرية أو لمراقبة الأفراد، ولكن مع التحديث الجديد، اختفى هذا الالتزام تمامًا. ويأتي هذا التحول بعد سنوات من الجدل الداخلي حول علاقة الشركة بالمؤسسات العسكرية، حيث شهدت جوجل احتجاجات موظفيها في 2018 عندما رفضوا تجديد عقد مشروع Maven مع وزارة الدفاع الأمريكية، الذي كان يهدف إلى استخدام الذكاء الاصطناعي في تحليل صور الطائرات دون طيار.

لكن بحلول 2021، تغيّر موقف جوجل وبدأت السعي مجددًا للحصول على عقود عسكرية، بما في ذلك عروض جديدة لوزارة الدفاع الأمريكية. وفي بداية 2024، كشفت واشنطن بوست أن موظفي جوجل عملوا بشكل متكرر مع وزارة الدفاع الإسرائيلية لتوسيع استخدام تقنيات الذكاء الاصطناعي الخاصة بالشركة خلال الحرب الأخيرة على غزة، مما زاد من الجدل حول توجهاتها الجديدة.

ردود فعل متباينة حول التعديلات الجديدة

عند الاستفسار عن هذه التغييرات، أشارت جوجل إلى منشور رسمي شارك في كتابته كل من ديميس هاسابيس، الرئيس التنفيذي لشركة ديب مايند، وجيمس مانيكا، نائب الرئيس الأول للأبحاث والتكنولوجيا والمجتمع في جوجل.

وأكد المنشور أن التغيرات في التكنولوجيا والواقع الجيوسياسي تتطلب نهجًا جديدًا، مشددين على أن الحكومات والشركات التي تشترك في قيم الحرية والمساواة واحترام حقوق الإنسان يجب أن تتعاون لتطوير ذكاء اصطناعي يدعم الأمن القومي ويسهم في النمو العالمي. لكن المنتقدين يعتبرون هذه المبررات غامضة وغير قابلة للقياس، مما يثير مخاوف بشأن أخلاقيات الذكاء الاصطناعي وتأثيره على الحريات والخصوصية.

هل تتحول جوجل إلى شريك رئيسي في التطبيقات العسكرية؟

مع هذه التعديلات، يبدو أن جوجل تتجه نحو دور أكثر نشاطًا في تطوير تقنيات الذكاء الاصطناعي للأغراض العسكرية والأمنية، مما يفتح الباب أمام تساؤلات مهمة حول مستقبل استخدام الذكاء الاصطناعي في الحروب والمراقبة، وما إذا كان ذلك يتعارض مع المبادئ الأخلاقية التي دافعت عنها الشركة في السابق.

Trending

Exit mobile version