تخيل أن تبدأ يومك دون الحاجة إلى تصفح الأخبار، أو البحث عن أفضل عروض السفر، أو حتى التحقق من بريدك الإلكتروني. بدلاً من ذلك، يتولى الوكلاء الأذكياء هذه المهام نيابةً عنك، فينظم يومك، ويحجز رحلتك، ويختار لك أفضل العروض قبل حتى أن تحتسي قهوتك الصباحية.
الوكلاء الأذكياء ثورة رقمية تهدد هيمنة الإنترنت التقليدي
في مذكرة حديثة للمستثمرين، طرح محللا الإنترنت مارك شموليك ونيخيل ديفناني من شركة بيرنشتاين (Bernstein) تصورًا ثوريًا بأن وكلاء الذكاء الاصطناعي قد يُحدثون تحولًا جذريًا في طريقة استخدامنا للإنترنت. فبدلاً من تصفح المواقع والتطبيقات بأنفسنا، سنعتمد على وكلاء رقميين للقيام بهذه المهام نيابةً عنا.
الوكلاء الأذكياء ثورة رقمية تهدد هيمنة الإنترنت التقليدي
يشبه المحللون هؤلاء الوكلاء بالوسطاء الشاملين، حيث يقومون بجمع وتنظيم وتقديم المعلومات للمستخدم وفقًا لتفضيلاته الشخصية. وهذا لا يعني أن المواقع الإلكترونية والتطبيقات ستختفي، لكنها ستفقد دورها التقليدي لصالح أنظمة أكثر ذكاءً وكفاءةً.
لكن هذا التحول قد يؤدي إلى تغيير جذري في بنية الإنترنت، حيث من المتوقع أن تتأثر المنصات الكبرى التي تعتمد على تجميع المحتوى، مما قد يتسبب في انخفاض قيمتها السوقية بشكل كبير.
ثورة في تجربة السفر والتنقل
لنفترض أنك تسافر إلى دبي وتحتاج إلى وسيلة نقل للوصول إلى مكتبك في مركز دبي التجاري العالمي. في الوضع الحالي، ستفتح تطبيقًا مثل أوبر أو كريم، وتقارن الأسعار، وتختار وسيلة النقل الأنسب لك. لكن في المستقبل، سيقوم وكيل الذكاء الاصطناعي بكل ذلك نيابةً عنك، فيختار أسرع وأرخص وسيلة نقل دون أن تضطر حتى لفتح التطبيق.
هذا السيناريو يُبرز كيف أن وكلاء الذكاء الاصطناعي قد يجعلون خدمات النقل أكثر كفاءة، حيث سيتم توحيد الطلب بدلاً من التحكم في العرض كما تفعل الشركات الكبرى مثل أوبر. وهذا قد يعني أننا لن نحتاج حتى إلى فتح تطبيقات النقل بعد الآن، حيث سيتولى الوكلاء الذكاء الاصطناعي الاختيار بناءً على احتياجاتنا.
يرى المحللان شموليك وديفناني أن وكلاء الذكاء الاصطناعي قد يمثلون قمة التطور في العلاقة بين المستخدمين وشركات التكنولوجيا. فبدلاً من أن يتفاعل المستخدم مع المواقع والتطبيقات مباشرة، سيعتمد كليًا على وكيله الرقمي، مما يمنح الشركات المطورة لهذه التقنية نفوذًا كبيرًا على السوق.
وقد بدأت المنافسة بالفعل، حيث أطلقت OpenAI وكيلًا ذكيًا يسمى Operator، قادرًا على تصفح الويب وتنفيذ المهام نيابةً عن المستخدمين، مثل حجز الرحلات وشراء المنتجات. وبالمثل، كشفت جوجل عن مشروع مارينر (Project Mariner)، الذي يعتمد على نماذج Gemini لتنفيذ المهام تلقائيًا عبر متصفح كروم.
وفي خطوة مشابهة، أطلقت أنثروبيك (Anthropic) أداة Computer Use، التي تمكّن نموذجها Claude 3.5 Sonnet من التفاعل مع الكمبيوتر بطريقة تحاكي البشر، حيث يستطيع تصفح المواقع وإتمام عمليات الشراء بشكل مستقل.
أما الشركات الأخرى مثل Perplexity، فهي تعمل على تطوير أدوات منافسة تهدف إلى تعزيز دور وكلاء الذكاء الاصطناعي كحلقة وصل أساسية بين المستخدمين والإنترنت.
ما بعد وكلاء الذكاء الاصطناعي.. هل نحن أمام ثورة عصبية؟
في حين أن وكلاء الذكاء الاصطناعي يغيرون طريقة تفاعلنا مع الإنترنت، هناك تطورات أكثر طموحًا تلوح في الأفق. فمن بين هذه التطورات، مشروع نيورالينك (Neuralink) التابع لإيلون ماسك، الذي يهدف إلى تطوير شرائح إلكترونية تُزرع في الدماغ، مما يتيح تواصلًا مباشرًا بين الإنسان والآلة دون الحاجة إلى شاشات أو أجهزة تقليدية.
وقد تحدث مسؤولون في جوجل عن هذا المفهوم منذ سنوات، حيث أشار هال فاريان، كبير الاقتصاديين في الشركة، إلى أن البحث عبر الإنترنت قد ينتقل يومًا ما من الهواتف الذكية إلى شرائح مزروعة في الدماغ.
مع تزايد الاعتماد على وكلاء الذكاء الاصطناعي، فإن الطريقة التي نتفاعل بها مع الإنترنت على وشك أن تتغير جذريًا. هذه التطورات تحمل فرصًا هائلة لكنها في الوقت نفسه تمثل تحديًا كبيرًا لشركات التكنولوجيا التقليدية التي تعتمد على نماذج الأعمال القائمة على البحث والإعلانات.
لكن يبقى السؤال الأكبر: كيف يمكننا ضمان أن هذه التقنية تُستخدم لصالح البشرية، بدلاً من أن تصبح أداةً للسيطرة والاحتكار؟ الإجابة على هذا السؤال ستحدد مستقبل الإنترنت كما نعرفه.
مع التطور السريع لتقنيات الذكاء الاصطناعي، باتت الهجمات السيبرانية أكثر ذكاءً وخداعًا. من أبرز هذه الأساليب الحديثة ما يُعرف بـ “الاحتيال الصوتي المدعوم بالذكاء الاصطناعي”، والذي يُعد أحد أخطر التهديدات الإلكترونية التي يصعب اكتشافها نظرًا لدقته في تقليد الأصوات واستنساخ الشخصيات.
الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع
الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع
الاحتيال الصوتي باستخدام الذكاء الاصطناعي (AI Vishing) هو نسخة متطورة من الاحتيال الهاتفي الكلاسيكي، حيث يستخدم المجرمون تقنيات الذكاء الاصطناعي لتقليد أصوات موثوقة مثل موظفي البنوك أو الأقارب، بهدف خداع الضحايا ودفعهم للإفصاح عن معلومات حساسة أو اتخاذ قرارات مالية خطيرة. وتتيح هذه التقنية إجراء آلاف المكالمات المبرمجة بدقة بأصوات واقعية، ما يجعل التمييز بينها وبين المكالمات الحقيقية أمرًا في غاية الصعوبة.
1. انتحال صوت وزير إيطالي لخداع رجال أعمال في بداية عام 2025، تم استخدام الذكاء الاصطناعي لتقليد صوت وزير الدفاع الإيطالي، وخداع عدد من رجال الأعمال، بينهم مالك نادي إنتر ميلان السابق، ماسيمو موراتي، وتمكنت الشرطة من استرداد الأموال لاحقًا.
2. استهداف قطاع السياحة والفنادق وفقًا لصحيفة وول ستريت جورنال، شهد الربع الأخير من 2024 تزايدًا ملحوظًا في عمليات الاحتيال الصوتي داخل قطاع السياحة، حيث تظاهر المحتالون بأنهم مدراء تنفيذيون أو وكلاء سفر، ما مكنهم من الحصول على بيانات حساسة من موظفي الفنادق.
3. تقليد أصوات أفراد العائلة للاحتيال على كبار السن في عام 2023، استغل المحتالون الذكاء الاصطناعي لتقليد أصوات الأحفاد أو الآباء في مكالمات موجهة لكبار السن، يطلبون فيها تحويل أموال طارئة. وقد تم توثيق خسائر تقارب 200,000 دولار لعائلات مختلفة بسبب هذه الطريقة الخبيثة.
“الاحتيال الصوتي كخدمة”.. تطور مرعب في عالم الجريمة
برز مؤخرًا نموذج جديد يُعرف باسم “Vishing-as-a-Service”، حيث أصبح بالإمكان الاشتراك في خدمات احتيالية مدفوعة تتيح للمجرمين الوصول إلى أدوات متقدمة تتضمن:
أصوات بشرية قابلة للتخصيص بدقة عالية.
سيناريوهات احتيالية مُعدة مسبقًا.
انتحال أرقام حقيقية وإضافة مؤثرات صوتية لمحاكاة البيئة الحقيقية للاتصال.
إحدى أبرز الشركات المعروفة في هذا المجال هي PlugValley، التي توفر روبوتات قادرة على التفاعل اللحظي مع الضحايا، باستخدام أصوات شديدة الواقعية. وتُمكّن هذه الروبوتات المجرمين من سرقة البيانات البنكية وكلمات المرور المؤقتة بسهولة، دون الحاجة لمهارات تقنية متقدمة.
في ظل التطور السريع لتقنيات الذكاء الاصطناعي، أصبح المحتالون قادرين على تنفيذ عمليات احتيال مالية متقنة يصعب اكتشافها. إذ لم يعد الاحتيال محصورًا في رسائل البريد الإلكتروني المشبوهة أو المكالمات الهاتفية المزيفة، بل بات يشمل تقنيات متقدمة مثل التزييف العميق وإنشاء هويات اصطناعية ومواقع وهمية. فكيف يمكن للبنوك مواجهة هذا التهديد المتنامي؟
التزييف الذكي كيف غيّر الذكاء الاصطناعي قواعد الاحتيال المالي
اعتمد المحتالون في السنوات الأخيرة على أدوات الذكاء الاصطناعي لتجاوز آليات الحماية التقليدية وتنفيذ عمليات معقدة يصعب تتبعها، وأبرز هذه الأساليب:
التزييف الذكي كيف غيّر الذكاء الاصطناعي قواعد الاحتيال المالي
1. التزييف العميق وانتحال الشخصيات
في واحدة من أبرز حوادث الاحتيال في عام 2024، خسرت شركة Arup البريطانية 25 مليون دولار بعد أن نجح المحتالون في استخدام فيديو مزيف يحاكي وجوه وأصوات المدراء التنفيذيين لإقناع أحد الموظفين بتحويل الأموال. يعتمد هذا النوع من الاحتيال على خوارزميات التزييف العميق (Deepfake)، التي تستطيع محاكاة ملامح الوجه والصوت بدقة عالية من صورة ودقيقة صوتية واحدة فقط.
يُستخدم الذكاء الاصطناعي لإنشاء مواقع إلكترونية مزيفة تُقلّد بدقة منصات استثمارية أو مصرفية حقيقية. مثال على ذلك، انتحال موقع Exante المالي لإقناع المستخدمين بتحويل أموالهم إلى حسابات يديرها المحتالون. تتفاعل هذه المواقع بشكل واقعي مع الزوار، مما يعزز من مصداقيتها الكاذبة.
3. تجاوز أنظمة التحقق البيومتري
حتى أدوات التحقق المعتمدة على الكاميرات والتعرف البيومتري لم تسلم من ذكاء المحتالين الاصطناعي. يمكن الآن عبر تقنيات التزييف العميق تجاوز هذه الأنظمة بسهولة، بل إن بعض الأدوات التجارية تتيح تنفيذ ذلك مقابل مبالغ مالية زهيدة ومتاحة للجميع.
4. إنشاء هويات مزيفة باستخدام الذكاء الاصطناعي
يساهم الذكاء الاصطناعي في تركيب هويات اصطناعية تجمع بين بيانات واقعية ووهمية تُستخدم لفتح حسابات مصرفية مزيفة. وبحسب تقرير شركة Equifax، فإن ثلث التنبيهات الكاذبة ترتبط بهويات من هذا النوع، التي يصعب على الأنظمة التقليدية اكتشافها.
كيف يمكن للبنوك التصدي لهذا الخطر المتنامي؟
أمام هذا التطور المقلق في أدوات الاحتيال، على البنوك اتخاذ خطوات استباقية لحماية أنظمتها وعملائها:
تُعدّ المصادقة الثنائية والمتعددة من أقوى وسائل الحماية ضد هجمات الذكاء الاصطناعي. ينبغي للبنوك اعتمادها بشكل إلزامي، مع توعية العملاء بعدم مشاركة رموز التحقق مع أي جهة خارجية.
2. تطوير آليات متقدمة للتحقق من الهوية
ينبغي تحسين أنظمة كشف الهويات المزيفة من خلال اختبار النماذج التوليدية واستخدام أدوات قادرة على رصد الأنماط الاحتيالية في البيانات الشخصية.
3. تقييم دقيق عند فتح الحسابات الجديدة
من الضروري إجراء مطابقة شاملة للبيانات (كالاسم، العنوان، الرقم الوطني) مع قواعد البيانات الحكومية ومنصات التواصل الاجتماعي، إلى جانب فرض قيود مؤقتة على الحسابات الجديدة إلى حين التحقق الكامل.
لم تعد أدوات الاحتيال مقصورة على المحترفين، بل أصبحت في متناول أي شخص بفضل تقنيات الذكاء الاصطناعي. لذا فإن مواجهة هذه التهديدات تتطلب من البنوك نهجًا أمنيًا متجددًا ومتقدمًا، يعتمد على الابتكار في الحماية بقدر الابتكار في التهديد.
تواجه شركة إنفيديا، الرائدة عالميًا في صناعة أشباه الموصلات، تحديات تصديرية جديدة بعد أن فرضت الحكومة الأميركية قيودًا غير متوقعة على رقائق H20 المُخصصة للذكاء الاصطناعي.
قيود أميركية جديدة تُربك خطط إنفيديا في السوق الصينية
قيود أميركية جديدة تُربك خطط إنفيديا في السوق الصينية
أعلنت إنفيديا، في ملف رسمي قُدم يوم الثلاثاء، أنها أُبلغت من قبل الحكومة الأميركية بضرورة الحصول على ترخيص خاص لتصدير رقائق H20 إلى الصين، وهو شرط ساري لأجل غير مسمى. وذكرت السلطات الأميركية أن السبب يعود إلى “خطر استخدام الرقاقة في حواسيب فائقة القدرات في الصين”، بحسب ما أورد موقع TechCrunch ونقلته “العربية Business”.
انخفاض في قيمة السهم وتوقعات بخسائر مالية
على إثر الإعلان، انخفض سهم إنفيديا بنحو 6% في جلسات التداول الممتدة. وتتوقع الشركة أن تصل الرسوم المرتبطة بهذه القيود إلى 5.5 مليار دولار في السنة المالية 2026، التي تنتهي في 27 أبريل.
تُعد رقاقة H20 واحدة من أكثر شرائح الذكاء الاصطناعي تطورًا التي يمكن تصديرها إلى الصين ضمن القيود الأميركية القائمة. وقد كشفت وكالة رويترز أن إنفيديا تلقت طلبات شراء بقيمة 18 مليار دولار منذ بداية العام على هذه الشريحة فقط، مما يُبرز أهميتها الاستراتيجية.
ذكرت شبكة NPR أن الرئيس التنفيذي لإنفيديا، جنسن هوانغ، حاول التفاوض لتخفيف القيود على H20 خلال لقاء خاص في منتجع “مار-إيه-لاغو” مع الرئيس السابق دونالد ترامب، مستعرضًا التزام الشركة بالاستثمار داخل أميركا.
وبالتزامن، أعلنت إنفيديا عن خطة لضخ مئات الملايين من الدولارات خلال السنوات الأربع القادمة لتصنيع شرائح AI محليًا، لكن الخبراء أشاروا إلى أن الإعلان جاء غامضًا من حيث التفاصيل التنفيذية.
تأتي هذه الإجراءات في أعقاب تقارير تشير إلى أن رقاقة H20 استُخدمت في تدريب نماذج ذكاء اصطناعي متقدمة لشركات صينية، أبرزها شركة “ديب سيك” (DeepSeek)، التي طوّرت نموذج الاستدلال R1 – النموذج الذي أثار موجة من الجدل في سوق الذكاء الاصطناعي الأميركي في يناير الماضي.