وضعت شركة جوجل أحد مهندسيها في إجازة إدارية مدفوعة الأجر بزعم انتهاكه لسياساتها للسرية بعد أن أصبح قلقًا من أن نظام الدردشة الآلي للذكاء الاصطناعي قد أصبح واعيًا، حسبما ذكرت صحيفة واشنطن بوست.
وقال المهندس يعتقد أن البرنامج قد حقق مستوى من الوعي بعد مئات التفاعلات مع أحدث أنظمة الذكاء الاصطناعي التي لم يتم إصدارها التي تسمى لامدا LaMDA.
وتعمل شركات التكنولوجيا باستمرار على زيادة قدرات الذكاء الاصطناعي المتطور باستمرار. ولكن جوجل سارعت إلى إيقاف المزاعم بأن أحد برامجها قد تقدم كثيرًا لدرجة أنه أصبح واعيًا.
ويعمل المهندس بليك ليموين في منظمة الذكاء الاصطناعي المسؤولة في جوجل. وكان يختبر ما إذا كان نموذج لامدا يولد لغة تمييزية أو خطاب كراهية.
ونشأت مخاوف المهندس من الردود المقنعة التي رأى أن نظام الذكاء الاصطناعي يولدها حول حقوقه وأخلاقيات الروبوتات.
وفي شهر أبريل، شارك وثيقة مع المديرين التنفيذيين بعنوان “هل لامدا واعي؟” تحتوي على نسخة من محادثاته مع نموذج الذكاء الاصطناعي.
وبعد وضعه في إجازة، نشر ليموين النص عبر حسابه على Medium، الذي يقول إنه يوضح أن النموذج يحاجج بأنه حساس لأنه يحتوي على مشاعر وعواطف وتجربة ذاتية.
وتعتقد جوجل أن إجراءات ليموين المتعلقة بعمله في لامدا قد انتهكت سياسات السرية. ودعا ليموين محامٍ لتمثيل نظام الذكاء الاصطناعي وتحدث إلى ممثل من اللجنة القضائية في مجلس النواب بشأن الأنشطة غير الأخلاقية المزعومة في الشركة.
وقال المهندس في 6 يونيو عبر موقع Medium، وهو اليوم الذي تم فيه منح ليموين إجازة إدارية، إنه طلب قدرًا ضئيلاً من الاستشارات الخارجية للمساعدة في إرشاده في تحقيقاته فيما يتعلق بالمخاوف الأخلاقية للذكاء الاصطناعي التي أثارها داخل الشركة. وشملت قائمة الأشخاص الذين أجرى مناقشات معهم موظفين في الحكومة الأمريكية.
وأعلنت عملاقة البحث عن لامدا علنًا في Google I/O 2021. وتأمل جوجل في أن يساعد لامدا في تحسين مساعدي الذكاء الاصطناعي للمحادثة وجعل المحادثات أكثر طبيعية.
وتستخدم الشركة تقنية نموذج لغة مماثلة لميزة الكتابة الذكية في جيميل، أو لاستعلامات محرك البحث.
وقال براين غابرييل، المتحدث باسم جوجل: لا يوجد دليل على أن لامدا واعي. راجع فريقنا مخاوف بليك وفقًا لمبادئ الذكاء الاصطناعي وأبلغناه أن الأدلة لا تدعم مزاعمه. وقيل له إنه لا يوجد دليل على أن لامدا كان واعيًا (وهناك الكثير من الأدلة ضده.
تدعي جوجل أن المهندس انتهك سياسات السرية
أضاف غابرييل: يدرس البعض في مجتمع الذكاء الاصطناعي الأوسع الإمكانية الطويلة المدى للذكاء الاصطناعي الواعي أو العام. ولكن ليس من المنطقي القيام بذلك عن طريق تجسيد نماذج المحادثة اليوم غير الواعية. تحاكي هذه الأنظمة أنواع التبادلات الموجودة في ملايين الجمل، ويمكنها التعمق في أي موضوع خيالي. لقد تحدث مئات الباحثين والمهندسين مع لامدا ولسنا على علم بأي شخص آخر يقدم تأكيدات واسعة النطاق، أو يجسد لامدا كما فعل بليك.
ورفض الكثير في مجتمع الذكاء الاصطناعي ادعاءات المهندس في المقابلات والبيانات العامة. بينما أشار البعض إلى أن روايته تسلط الضوء على كيف يمكن للتكنولوجيا أن تقود الناس إلى تخصيص سمات بشرية لها.
ولكن يمكن القول إن الاعتقاد بأن الذكاء الاصطناعي يمكن أن يكون واعيًا يسلط الضوء على المخاوف لما يمكن أن تفعله هذه التكنولوجيا.
واتفق أستاذ علم اللغة على أنه من الخطأ ربط الردود المكتوبة المقنعة بالحس. وقالت الأستاذة بجامعة واشنطن إميلي إم بيندر: لدينا الآن آلات يمكنها توليد الكلمات بلا تفكير. ولكن لم نتعلم كيف نتوقف عن تخيل العقل الذي يقف وراءها.
وقالت تيمنيت جيبرو، عالمة أخلاقيات الذكاء الاصطناعي البارزة التي أوقفتها جوجل عن العمل في عام 2020، إن المناقشة حول وعي الذكاء الاصطناعي قد تؤدي إلى إبعاد المحادثات الأخلاقية الأكثر أهمية المتعلقة باستخدام الذكاء الاصطناعي عن مسارها.
وبالرغم من مخاوفه، قال ليموين إنه يعتزم مواصلة العمل على الذكاء الاصطناعي في المستقبل. وكتب في تغريدة: أعتزم البقاء في مجال الذكاء الاصطناعي سواء مع جوجل أو مع غيرها.