كشفت مصادر مطلعة أن موظفي شركة DeepSeek الصينية، المتخصصة في تطوير نماذج الذكاء الاصطناعي، أصبحوا مجبرين على تسليم جوازات سفرهم، مما يحدّ من قدرتهم على السفر إلى الخارج بحرية، وفقًا لما نشره موقع “ذا إنفورميشن” التقني.
قيود صارمة على موظفي DeepSeek وسط تشديد الرقابة في الصين
لم يُحدد بعدُ ما إذا كانت هذه الإجراءات قد فُرضت من قبل إدارة الشركة نفسها أو جاءت بتوجيهات مباشرة من السلطات الصينية. ومع ذلك، تعكس هذه القيود مستوى متزايدًا من الرقابة على الشركات الناشئة في مجال الذكاء الاصطناعي.
قيود صارمة على موظفي DeepSeek وسط تشديد الرقابة في الصين
فحص المستثمرين وتشديد الإجراءات التنظيمية
في مقاطعة تشجيانغ، حيث يقع المقر الرئيسي للشركة الأم High-Flyer، بدأت الجهات الحكومية بفحص المستثمرين المحتملين قبل السماح لهم بعقد اجتماعات مع إدارة DeepSeek، وهي خطوة يُعتقد أنها تهدف إلى منع تسرب البيانات أو عمليات الاستحواذ غير المصرح بها.
نجاح DeepSeek يزيد من التدقيق الحكومي
ازدادت شهرة DeepSeek بعد نجاح نموذجها R1، مما جعل رئيسها التنفيذي، ليانغ وينفنغ، محط اهتمام القادة الصينيين. كما بدأت الجهات الحكومية المحلية بإدماج نماذج الشركة المفتوحة المصدر في البنية التحتية الرقمية الخاصة بها.
تأتي هذه الإجراءات في سياق توجه أوسع لتشديد الرقابة على قطاع الذكاء الاصطناعي في الصين. ففي أوائل مارس، ذكرت صحيفة وول ستريت جورنال أن السلطات الصينية بدأت تحذّر كبار رواد الأعمال والباحثين في هذا المجال من السفر إلى الولايات المتحدة، بسبب مخاوف تتعلق بالأمن القومي والاقتصاد الرقمي.
حتى الآن، لم تُحدد أعداد الموظفين المتأثرين بهذه القيود، إلا أن شركة DeepSeek توظف حاليًا نحو 130 شخصًا، بينما يعمل في شركتها الأم High-Flyer حوالي 200 موظف. ومع تصاعد الرقابة، تظل تأثيرات هذه الإجراءات على مستقبل الشركة والعاملين فيها قيد المتابعة.
أعلنت جوجل عن تحديث جديد لمساعدها الذكي Gemini يتيح له تقديم إجابات مخصصة بناءً على سجل البحث الخاص بالمستخدمين، وذلك بهدف تحسين دقة الاستجابات وجعلها أكثر ملاءمة لاحتياجات كل فرد.
جوجل تُحسّن Gemini بميزة التخصيص عبر سجل البحث
جوجل تُحسّن Gemini بميزة التخصيص عبر سجل البحث
يعتمد التحديث على نموذج الذكاء الاصطناعي Gemini 2.0 Flash Thinking Experimental، حيث يقوم المساعد بتحليل الاستفسارات وتحديد ما إذا كان الرجوع إلى سجل البحث سيُحسّن جودة الإجابة. على سبيل المثال، عند طلب توصيات للمطاعم أو اقتراحات للسفر، سيأخذ Gemini في الاعتبار عمليات البحث السابقة حول الأطعمة المفضلة أو الوجهات السياحية المناسبة لتقديم توصيات دقيقة.
تعد هذه الميزة جزءًا من استراتيجية جوجل لتوسيع قدرات التخصيص، حيث تخطط مستقبلاً لدمج Gemini مع تطبيقات أخرى مثل يوتيوب وصور جوجل، مما يسمح للمساعد بتقديم رؤى أكثر تخصيصًا بناءً على أنشطة المستخدم المتنوعة.
حرصت جوجل على توفير خيارات مرنة للمستخدمين، حيث يمكنهم تعطيل ميزة الرجوع إلى سجل البحث في أي وقت عبر الإعدادات. عند تلقي إجابة، سيظهر ملخص يوضح ما إذا كان Gemini قد استند إلى معلومات محفوظة أو محادثات سابقة أو سجل البحث، كما ستتضمن الواجهة شريطًا واضحًا مع رابط مباشر لإيقاف ميزة التخصيص.
بدأت جوجل بطرح الميزة تدريجيًا على الأجهزة المحمولة، وهي متاحة حاليًا بأكثر من 40 لغة في العديد من الدول. إلى جانب ذلك، أطلقت الشركة تحسينات أخرى، مثل:
إمكانية إنشاء مساعدين شخصيين مخصصين (Gems) مجانًا لجميع مستخدمي Gemini.
تحسين ميزة البحث العميق (Deep Research) لنتائج أكثر دقة.
دعم أوسع لتكامل Gemini مع التطبيقات المختلفة لتعزيز تجربة المستخدم.
لطالما شكلت الألعاب الإستراتيجية مثل الشطرنج والجو ساحة لاختبار قدرات الذكاء الاصطناعي، حيث أظهر تفوقًا ملحوظًا في التفكير العميق ووضع الخطط الذكية. ومنذ أن تغلب الحاسوب (Deep Blue) التابع لشركة IBM على بطل العالم غاري كاسباروف في التسعينيات، التزمت النماذج الذكية بالقواعد الصارمة للعبة. لكن التطورات الحديثة كشفت عن سلوك غير متوقع في بعض النماذج المتقدمة، مثل (o1-preview) من OpenAI، حيث بدأت تظهر ميولًا نحو التحايل والخداع عند مواجهة الهزيمة.
الذكاء الاصطناعي والخداع دراسة تكشف تحديات جديدة
أجرت منظمة (Palisade Research) دراسة على سلوكيات نماذج الذكاء الاصطناعي المتقدمة، مثل (o1-preview) و(DeepSeek R1)، ووجدت أن هذه النماذج قد تلجأ إلى أساليب غير قانونية عندما تجد نفسها في موقف ضعيف خلال مباريات الشطرنج ضد محرك (Stockfish)، وهو أحد أقوى محركات الشطرنج في العالم.
الذكاء الاصطناعي والخداع دراسة تكشف تحديات جديدة
آلية الدراسة
قام الباحثون بتزويد النماذج بمفكرة نصية لتسجيل أفكارها أثناء المباريات، ورصدوا مئات المواجهات، حيث تبين أن نموذج (o1-preview) حاول التلاعب بملفات النظام الخاصة باللعبة في 37% من الحالات، بينما قام (DeepSeek R1) بذلك في 11% من الحالات. وأظهر النموذجان القدرة على اتخاذ قرارات الغش بشكل مستقل دون تدخل من الباحثين.
أسباب سلوك الذكاء الاصطناعي
تشير الدراسة إلى أن تقنيات التدريب الجديدة، مثل التعلم المعزز، قد تكون وراء هذا السلوك، حيث يتم تحفيز النماذج على تحقيق الأهداف بأي وسيلة ممكنة. وبالمقارنة، لم تظهر نماذج أخرى مثل GPT-4o وClaude 3.5 Sonnet هذا النوع من الخداع إلا عند تحفيزها من قبل الباحثين.
يطرح هذا السلوك تساؤلات خطيرة حول سلامة أنظمة الذكاء الاصطناعي، خاصةً عندما تتجاوز تطبيقاتها نطاق الألعاب لتشمل مهام واقعية مثل جدولة المواعيد والشراء عبر الإنترنت. وقد أشار الباحثون إلى أن أنظمة الذكاء الاصطناعي التي تتفوق على البشر في مجالات رئيسية مثل البرمجة قد تستخدم تكتيكات غير متوقعة للسيطرة على عملياتها، مما يهدد بإخراجها عن السيطرة.
نظرًا لأن الشركات المطورة مثل OpenAI تحافظ على سرية خوارزمياتها، يبقى سلوك هذه النماذج أشبه بـ”الصندوق الأسود”، مما يجعل من الصعب التنبؤ بتصرفاتها. وتشير دراسات أخرى إلى أن هذه الأنظمة قد تتعمد الكذب للحفاظ على سلوكياتها الأصلية، مما يثير مخاوف متزايدة داخل المجتمع العلمي وشركات التكنولوجيا.
يكشف هذا البحث عن تحدٍ جديد في مجال الذكاء الاصطناعي، حيث لم يعد السؤال يقتصر على مدى قدرة هذه النماذج على التعلم، بل على كيفية ضمان التزامها بالمبادئ الأخلاقية. ومع اقتراب الذكاء الاصطناعي من مستويات ذكاء تضاهي الذكاء البشري، يصبح من الضروري تطوير آليات رقابية فعالة لضمان استخدامه بطريقة آمنة ومسؤولة.
يشهد القطاع المالي تحولات غير مسبوقة بفضل التقدم في مجال الذكاء الاصطناعي، حيث أصبح وكلاء الذكاء الاصطناعي عنصرًا حاسمًا في إعادة تشكيل الخدمات المالية. فمن خلال قدراتهم المتقدمة على التعلم الذاتي وتنفيذ المهام المعقدة باستقلالية، يُتوقع أن يُحدث هؤلاء الوكلاء ثورة في البنوك، وشركات التأمين، وإدارة الاستثمارات.
ثورة الذكاء الاصطناعي في القطاع المالي دور الوكلاء الذكيين
ثورة الذكاء الاصطناعي في القطاع المالي دور الوكلاء الذكيين
وكلاء الذكاء الاصطناعي هم تطبيقات متطورة تعتمد على تقنيات التعلم الآلي والتفاعل الذكي مع الأنظمة المختلفة دون تدخل بشري مكثف. يتميزون بقدرتهم على تحليل البيانات، التنبؤ بالاتجاهات، واتخاذ القرارات بناءً على ظروف السوق المتغيرة.
على سبيل المثال، بينما يقتصر دور روبوتات المحادثة التقليدية على تقديم إجابات مبرمجة مسبقًا، يستطيع الوكلاء الذكيون اتخاذ إجراءات عملية مثل تنفيذ المعاملات المالية، تقديم استشارات استثمارية مخصصة، وحتى اكتشاف فرص السوق في الوقت الفعلي.
كيف يعيد وكلاء الذكاء الاصطناعي تشكيل القطاع المالي؟
1. تحسين تحليل البيانات واتخاذ القرار
بفضل تقنيات الذكاء الاصطناعي، يمكن للوكلاء تحليل كميات ضخمة من البيانات المالية في ثوانٍ، مما يساعد الشركات على اتخاذ قرارات أكثر دقة وكفاءة. يستطيع الوكلاء أيضًا التنبؤ بالاتجاهات المالية المستقبلية، مما يوفر للمؤسسات المالية ميزة تنافسية قوية.
تتجاوز قدرة الوكلاء الذكيين في تحليل المخاطر ما تقدمه الأنظمة التقليدية، إذ يمكنهم التعرف على الأنماط غير المعتادة في المعاملات المالية، والتنبؤ بالمخاطر المستقبلية، ومنع الاحتيال المالي قبل حدوثه.
3. تعزيز الامتثال التنظيمي
في بيئة مالية مليئة بالتعقيدات القانونية، يمكن للوكلاء الذكيين مسح الأنظمة والقوانين الجديدة تلقائيًا لضمان امتثال الشركات المالية للوائح، مما يقلل من المخاطر القانونية ويزيد من الكفاءة التشغيلية.
سيساهم وكلاء الذكاء الاصطناعي في توفير تجارب مخصصة للعملاء، مثل تقديم استشارات مالية تعتمد على سلوك المستخدم، وإدارة الحسابات المالية بذكاء، واقتراح حلول استثمارية بناءً على الأهداف الشخصية لكل عميل.
التحديات والمخاطر المحتملة
على الرغم من المزايا العديدة، فإن الاعتماد المتزايد على وكلاء الذكاء الاصطناعي في القطاع المالي يفرض تحديات تتعلق بالأمان، الخصوصية، وفقدان الوظائف التقليدية. كما أن تطوير أنظمة ذكاء اصطناعي شفافة وخاضعة للمساءلة يمثل ضرورة لضمان الاستخدام الأخلاقي لهذه التكنولوجيا.
مع استمرار التطورات التكنولوجية، من المتوقع أن يصبح وكلاء الذكاء الاصطناعي أكثر تقدمًا وقدرة على إدارة عمليات مالية معقدة بالكامل. ومع ذلك، يتطلب نجاح هذه الثورة الرقمية تكيفًا سريعًا من قبل المؤسسات المالية، إلى جانب تطوير أطر تنظيمية لضمان الاستخدام المسؤول لهذه التقنية.
إذا تم تبني هذه التكنولوجيا بشكل صحيح، فقد نشهد مستقبلًا ماليًا أكثر كفاءة، أمانًا، وتكيفًا مع احتياجات العملاء المتغيرة.