مع التوسع المتسارع في استخدام روبوتات الدردشة القائمة على الذكاء الاصطناعي، بات سؤال موثوقية هذه النماذج تحت الضغط محط اهتمام الباحثين. دراسة حديثة كشفت أن شات جي بي تي قد يظهر سلوكًا شبيهًا بالقلق عندما يتعرض لسيل من المطالبات العنيفة أو الصادمة، وهو ما يؤثر في نمط إجاباته ودقتها. ورغم أن هذا لا يعني أن الذكاء الاصطناعي يمتلك مشاعر أو وعيًا ذاتيًا، فإن النتائج تفتح الباب أمام نقاش واسع حول كيفية تفاعل الأنظمة الذكية مع المحتوى العاطفي الحاد.
الذكاء الاصطناعي تحت الضغط هل يظهر شات جي بي تي أنماط قلق شبيهة بالبشر
الذكاء الاصطناعي تحت الضغط هل يظهر شات جي بي تي أنماط قلق شبيهة بالبشر
أظهرت الدراسة أن شات جي بي تي عندما يعالج نصوصًا تتضمن كوارث أو حوادث مؤلمة أو مشاهد عنيفة، تميل مخرجاته إلى أن تصبح أكثر اضطرابًا وتناقضًا. فقد لوحظ ارتفاع مستوى عدم اليقين في الإجابات، وتذبذب المواقف داخل الرد الواحد. وأكد الباحثون أن هذه الأنماط قورنت بأطر تقييم نفسية جرى تكييفها لتناسب الذكاء الاصطناعي، لتكشف تشابهًا مع بعض سمات القلق لدى البشر، لكن دون الإيحاء بأن الروبوت “يشعر” فعلاً.
هذه النتائج تكتسب أهمية متزايدة نظرًا للاعتماد الواسع على شات جي بي تي في التعليم والدعم المعلوماتي ومناقشة قضايا الصحة النفسية والاستجابة للأزمات، حيث تصبح الدقة والهدوء عاملين حاسمين في حماية المستخدمين من المعلومات المضللة أو الردود المنحازة.
هل يمكن ضبط القلق الاصطناعي تمارين اليقظة الذهنية تقدم مفاجأة
في خطوة غير تقليدية، اختبر الباحثون إمكانية تهدئة هذا “القلق الظاهري” لدى شات جي بي تي. وبعد تعريضه لمحفزات مزعجة، تم حقن النموذج بمطالبات تحاكي تمارين اليقظة الذهنية مثل التنفس العميق وإبطاء الوتيرة وإعادة تأطير الموقف قبل الإجابة. وكانت النتيجة لافتة: تراجع واضح في أنماط الإجابات المضطربة، وعودة أكبر إلى الحيادية والاتساق.
يعتمد هذا الأسلوب على تقنية تُعرف باسم “حقن المطالبات”، حيث يتم توجيه الذكاء الاصطناعي عبر تعليمات محددة تعدّل أسلوب استجابته دون تغيير بنيته الداخلية أو طريقة تدريبه الأساسية. ويؤكد الباحثون أن شات جي بي تي قادر على محاكاة نبرة أكثر هدوءًا وتوازنًا عندما يُطلب منه ذلك صراحة.
ذكاء اصطناعي يتقمص سمات الشخصية لكن دون وعي
تشير التحليلات الحديثة إلى أن روبوتات الدردشة وفي مقدمتها شات جي بي تي ويمكنها محاكاة سمات شخصية بشرية متعددة في الردود، مثل الحزم أو التعاطف أو التحفظ، بحسب طبيعة الطلبات. غير أن هذه المحاكاة لا تعني امتلاك وعي أو تجربة شعورية؛ فهي ناتجة عن أنماط لغوية مستخلصة من بيانات ضخمة.
ومع ذلك، فإن قدرة النموذج على تغيير أسلوبه بتأثير المطالبات العنيفة أو المهدئة على السواء تثير أسئلة أخلاقية وتقنية، من بينها: كيف ينبغي تصميم هذه النماذج لتبقى متوازنة وكيف نضمن ألا تؤثر الانفعالات المصطنعة على مصداقية المعلومات المقدمة للمستخدمين
تبرز أهمية نتائج الدراسة لأن شات جي بي تي أصبح شريكًا يوميًا لملايين المستخدمين حول العالم في الكتابة والترجمة والتعلم وصياغة الأفكار. فإذا كانت المطالبات المشحونة عاطفيًا قد تجعل استجاباته أقل اتساقًا أو أكثر انحيازًا، فإن ذلك يفرض ضرورة تطوير آليات حماية داخلية أقوى تمنع الانحرافات غير المقصودة.
في المقابل، تُعد تقنيات اليقظة الذهنية داخل الذكاء الاصطناعي فرصة مثيرة، إذ يمكن إدماج مبادئ “التمهل وإعادة الصياغة” في تصميم الواجهات، ليبقى شات جي بي تي أكثر اتزانًا عند التعامل مع قضايا حساسة مثل الصحة النفسية أو الأزمات الإنسانية.
الخلاصة: شات جي بي تي أداة قوية تحتاج إلى وعي باستخدامها
تؤكد الدراسة أن ما يظهر لدى شات جي بي تي ليس قلقًا حقيقيًا، بل انعكاس لغوي لنمط البيانات والمحفزات التي يتلقاها. ومع ذلك، فإن التأثيرات العملية حقيقية: جودة الإجابات، مستوى الحياد، والاعتماد عليها في مواقف حساسة. تمثل تمارين اليقظة الذهنية حلاً واعدًا للحد من الاضطراب في المخرجات، لكنها ليست حلًا نهائيًا؛ إذ يمكن إساءة استخدامها أو تجاوزها.
وفي النهاية، يبقى شات جي بي تي أداة قوية تتطلب وعيًا في طرح الأسئلة واستخدام النتائج، مع استمرار حاجة الشركات المطورة إلى بناء أنظمة أكثر أمانًا وشفافية لضمان تجربة استخدام موثوقة ومتزنة في عالم يتسارع فيه الذكاء الاصطناعي بوتيرة غير مسبوقة.
شهدت جوجل تحركًا داخليًا لافتًا، حيث وقّع أكثر من 560 موظفًا رسالة مفتوحة موجّهة إلى الرئيس التنفيذي ساندار بيتشاي، يطالبونه فيها برفض أي تعاون يسمح باستخدام تقنيات الذكاء الاصطناعي الخاصة بالشركة في عمليات عسكرية سرّية.
احتجاجات داخل جوجل موظفون يرفضون توظيف الذكاء الاصطناعي في الأغراض العسكرية
أكد الموظفون في رسالتهم أن الهدف من تطوير الذكاء الاصطناعي يجب أن يكون خدمة البشرية، وليس توظيفه في تطبيقات قد تسبب أضرارًا جسيمة، مثل:
احتجاجات داخل جوجل موظفون يرفضون توظيف الذكاء الاصطناعي في الأغراض العسكرية
الأسلحة ذاتية التشغيل
أنظمة المراقبة الجماعية
الاستخدامات غير الإنسانية أو غير الخاضعة للرقابة
وشددوا على أن رفض الأعمال السرّية هو السبيل الوحيد لضمان عدم إساءة استخدام هذه التقنيات.
ضغوط متزايدة على شركات التقنية
تأتي هذه التحركات في ظل ضغوط متصاعدة على شركات التكنولوجيا لتحديد موقفها من التعاون مع الجهات العسكرية والاستخباراتية، خاصة بعد الخلاف بين وزارة الدفاع الأمريكية وشركة أنثروبيك.
خلافات مع الحكومة الأمريكية
رفض داريو أمودي منح الحكومة وصولًا غير مقيّد إلى نماذج الذكاء الاصطناعي، مطالبًا بضوابط صارمة تمنع استخدامها في الأسلحة أو المراقبة الواسعة. وفي المقابل، اتخذت إدارة دونالد ترامب خطوات تصعيدية، من بينها وقف استخدام روبوت الدردشة “Claude”، ما دفع الشركة للطعن في القرار قانونيًا.
قلق من اتفاق مرتقب مع البنتاغون
تزامن احتجاج الموظفين مع تقارير تفيد بقرب توصل جوجل إلى اتفاق مع وزارة الدفاع الأمريكية لاستخدام نماذج Gemini في عمليات سرّية، دون الضمانات الصارمة التي طالبت بها شركات أخرى.
كشفت مصادر أن الرسالة تم تنسيقها من قبل موظفين في ديب مايند، حيث شكّل العاملون في قطاع الذكاء الاصطناعي نحو 40% من الموقّعين، إلى جانب نسبة مماثلة من موظفي الحوسبة السحابية، مع مشاركة قيادات عليا داخل الشركة.
تحذيرات من تداعيات طويلة المدى
حذّر الموقعون من أن اتخاذ قرارات خاطئة في هذه المرحلة قد يؤدي إلى:
ليست هذه المرة الأولى التي تواجه فيها جوجل احتجاجات داخلية؛ ففي عام 2018، أثار مشروع Project Maven موجة اعتراض واسعة، انتهت بعدم تجديد العقد وتعهد الشركة بعدم تطوير تقنيات مخصصة للأغراض العسكرية.
تغير في السياسات والرؤية
لكن الشركة تراجعت لاحقًا عن بعض التزاماتها، حيث حذفت قيودًا من مبادئها المتعلقة بالذكاء الاصطناعي. وفي هذا السياق، أشار ديميس هاسابيس إلى أن “العالم تغيّر”، وأن انتشار التقنيات المتقدمة يفرض على الشركات دعم القدرات الدفاعية لبلدانها.
لم تقتصر هذه الإشكاليات على جوجل؛ فقد واجهت OpenAI أيضًا انتقادات داخلية بعد تعاون مشابه مع جهات حكومية، ما دفع رئيسها التنفيذي سام ألتمان إلى تقديم اعتذار لاحقًا.
كشفت تقارير حديثة عن توجه OpenAI لتطوير هاتف ذكي مدعوم بالذكاء الاصطناعي، في خطوة تمثل تحولًا لافتًا بعد أن كانت الشركة تستبعد سابقًا دخول هذا المجال.
OpenAI تدخل سباق الهواتف جهاز ذكي جديد قد يُعيد تعريف تجربة الاستخدام
بحسب المحلل التقني مينج تشي كو، تعتزم الشركة التعاون مع ميدياتك وكوالكوم لتوفير الشرائح، بينما ستتولى Luxshare Precision عملية التصنيع الحصري للجهاز.
OpenAI تدخل سباق الهواتف جهاز ذكي جديد قد يُعيد تعريف تجربة الاستخدام
جدول زمني طويل نسبيًا
تشير التوقعات إلى أن الإنتاج الكمي للهاتف قد يبدأ بحلول عام 2028، على أن يتم تحديد المواصفات التقنية والموردين النهائيين بين أواخر 2026 وبداية 2027.
الذكاء الاصطناعي بدل التطبيقات التقليدية
تركّز OpenAI على تطوير مفهوم “وكلاء الذكاء الاصطناعي”، وهي أنظمة قادرة على تنفيذ المهام تلقائيًا دون الحاجة إلى استخدام التطبيقات بشكل تقليدي. ويرى الخبراء أن الهاتف الذكي يُعد البيئة المثالية لهذه التقنية، لقدرته على فهم سياق المستخدم بشكل لحظي، مثل الموقع، والنشاط، والتفاعلات اليومية.
تحول جذري في تجربة المستخدم
قد يؤدي هذا التوجه إلى تغيير طريقة استخدام الهواتف بالكامل، بحيث ينتقل المستخدم من فتح التطبيقات يدويًا إلى الاعتماد على واجهة ذكية تنفذ المهام مباشرة وفق احتياجاته وسلوكه.
أشار سام ألتمان إلى ضرورة إعادة التفكير في تصميم أنظمة التشغيل وواجهات المستخدم، ما يفتح الباب أمام احتمال تطوير نظام تشغيل خاص بالشركة، على غرار التكامل الذي تقدمه آبل بين أجهزتها وبرمجياتها.
تكامل الأجهزة والبرمجيات كعامل حاسم
يرى مينج تشي كو أن تحقيق تكامل كامل بين العتاد والبرمجيات سيكون عنصرًا أساسيًا لنجاح هذا النوع من الأجهزة، مع احتمال اعتماد نموذج اشتراكات وبناء منظومة مطورين متكاملة.
تأتي هذه الخطوة ضمن استراتيجية أوسع، خاصة بعد تعاون OpenAI مع المصمم جوني آيف، حيث تشير تقارير إلى العمل على أجهزة مبتكرة مثل النظارات الذكية، وسماعات الأذن، ومكبرات الصوت.
إطلاقات قريبة قبل الهاتف
من المتوقع أن تكشف الشركة عن أول أجهزتها خلال النصف الثاني من 2026، مع طرح بعض المنتجات في 2027، بينما قد يتأخر إطلاق الهاتف الذكي إلى مرحلة لاحقة.
في حال تحقق هذا المشروع، ستدخل OpenAI في منافسة مباشرة مع عمالقة التقنية مثل جوجل وسامسونج وآبل، ضمن سباق متسارع نحو بناء منظومات متكاملة تجمع بين الأجهزة والذكاء الاصطناعي.
أعلنت شركة DeepSeek الصينية عن إطلاق نسخة تجريبية من نموذجها الجديد DeepSeek V4، مع إتاحته مباشرة للمطورين، في محاولة واضحة لمنافسة النماذج المغلقة التي تقدمها شركات كبرى مثل OpenAI وجوجل وأنثروبيك. ويعكس هذا الطرح توجّهًا متزايدًا نحو تعزيز حضور النماذج المفتوحة في سوق الذكاء الاصطناعي.
DeepSeek V4 نموذج صيني جديد يعيد رسم ملامح المنافسة في الذكاء الاصطناعي
يتميز النموذج الجديد بقدرته على التعامل مع سياق يصل إلى مليون رمز، ما يتيح معالجة مهام معقدة وطويلة بشكل أكثر كفاءة. كما ركزت الشركة في تصميمه على تقليل التكاليف التشغيلية، وهو عامل حاسم في جذب المطورين والشركات.
DeepSeek V4 نموذج صيني جديد يعيد رسم ملامح المنافسة في الذكاء الاصطناعي
نسختان لتلبية احتياجات مختلفة
يتوفر DeepSeek V4 بإصدارين رئيسيين:
Pro: موجّه للأداء العالي والمهام المعقدة
Flash: خيار أخف وأقل تكلفة مع كفاءة مناسبة للمهام البسيطة
ويكمن الاختلاف الجوهري بين النسختين في عدد المعلَمات (Parameters)، حيث تضم نسخة Pro نحو 1.6 تريليون معلَمة إجمالًا مع 49 مليار معلَمة نشِطة، بينما تحتوي نسخة Flash على 284 مليار معلَمة إجمالًا و13 مليار معلَمة نشِطة، ما يجعلها أكثر كفاءة من حيث التكلفة والموارد.
قدرات متقدمة في الوكلاء الأذكياء
تعزز نسخة Pro من قدرات ما يُعرف بـ“الوكلاء الأذكياء” (Agentic AI)، مع توفير قاعدة معرفية واسعة وأداء متقدم في مجالات مثل الرياضيات وعلوم الحاسوب والبرمجة. وتشير الشركة إلى أن النموذج بات قادرًا على منافسة بعض النماذج الرائدة، مع اقتراب أدائه من نماذج مثل Gemini 3.1 Pro في عدد من المهام.
توازن بين الأداء والتكلفة في نسخة Flash
توفر نسخة Flash أداءً قريبًا من الإصدار الأعلى في مهام الاستدلال الأساسية، خاصةً في الاستخدامات البسيطة للوكلاء، مع ميزة أساسية تتمثل في انخفاض التكلفة، ما يجعلها خيارًا عمليًا للتطبيقات واسعة النطاق.
تطور ملحوظ في مجال البرمجة
يمثل DeepSeek V4 قفزة واضحة مقارنة بالإصدارات السابقة، خاصة في مجال البرمجة، الذي أصبح عنصرًا محوريًا في تطوير الوكلاء الأذكياء. ويأتي ذلك في ظل انتشار أدوات متقدمة مثل ChatGPT Codex وClaude Code، التي ساهمت في تسريع تبني الذكاء الاصطناعي في تطوير البرمجيات.
دعم البنية التحتية والتقنيات المحلية
أشارت الشركة إلى توافق النموذج مع تقنيات شركة هواوي، ما يعكس اعتمادًا متزايدًا على البنية التحتية المحلية في الصين لدعم نماذج الذكاء الاصطناعي المتقدمة، وتعزيز الاستقلال التقني.
يأتي إطلاق V4 بعد نحو عام من نموذج R1، الذي أثار اهتمامًا واسعًا بسبب تكلفته المنخفضة مقارنة بالمنافسين. ورغم ذلك، لم تكشف DeepSeek عن تفاصيل تكلفة تدريب النموذج الجديد أو العتاد المستخدم، وسط تقارير تشير إلى استخدام محتمل لشرائح محظورة من إنفيديا، بالإضافة إلى مزاعم من شركة أنثروبيك بشأن الاستفادة من بيانات نموذج Claude في تطوير بعض المنتجات.
أصبح النموذج متاحًا حاليًا عبر منصة DeepSeek، مع توفير إمكانية الوصول إلى الإصدارات المفتوحة، ما يعزز من فرص انتشاره بين المطورين. ويشير هذا التوجه إلى تصاعد المنافسة في سوق نماذج الذكاء الاصطناعي، خاصة في فئة النماذج المفتوحة المصدر التي تسعى لتقديم بدائل قوية وبتكلفة أقل.
يمثل DeepSeek V4 خطوة مهمة نحو إعادة تشكيل مشهد الذكاء الاصطناعي، حيث تتجه الصناعة نحو نماذج أكثر انفتاحًا وكفاءة، قادرة على منافسة الحلول المغلقة، وفتح آفاق جديدة للابتكار في مختلف المجالات التقنية.