أخبار تقنية

الذكاء الاصطناعي يفتح عصرًا جديدًا من الاحتيال الصوتي مكالمة واحدة تكفي

Published

on

لم يعد إنشاء نظام ذكاء اصطناعي قادر على إجراء محادثة هاتفية طبيعية مهمة مستحيلة كما في السابق. فحتى وقت قريب، كانت هذه العملية تتطلب دمج أدوات متخصصة في التعرّف على الصوت ومعالجة اللغة وتوليد الكلام ضمن بيئة تقنية معقدة. لكن مع ظهور نماذج الذكاء الاصطناعي الصوتية الفورية مثل واجهة RealTime API من شركة OpenAI، تغيّر كل شيء؛ إذ أصبح بناء نظام متكامل للمحادثة الصوتية يتم في دقائق معدودة فقط.

الذكاء الاصطناعي يفتح عصرًا جديدًا من الاحتيال الصوتي مكالمة واحدة تكفي

بفضل الأكواد مفتوحة المصدر، يمكن لأي مطوّر اليوم ربط نموذج ذكاء اصطناعي بخط هاتف مباشر، ليُجري النظام مكالمة حقيقية في الزمن الفعلي، ويُحلّل كلام المتحدث ويُجيب عليه بصوت طبيعي مدهش في طلاقته وعفويته.
هذه القدرات التي كانت تُعد خيالًا علميًا قبل سنوات قليلة، أصبحت الآن واقعًا ملموسًا — ولكنها في المقابل فتحت الباب أمام شكل جديد من الاحتيال الخطير.

الذكاء الاصطناعي يفتح عصرًا جديدًا من الاحتيال الصوتي مكالمة واحدة تكفي

ولادة الاحتيال الصوتي المدعوم بالذكاء الاصطناعي

يطلق على هذا النوع من الجرائم اسم “الاحتيال الصوتي الذكي” أو “AI-enabled voice phishing”، ويُعرف اختصارًا بـ vishing.
ويعتمد هذا الأسلوب على تزييف الأصوات البشرية أو محاكاة مكالمات رسمية لخداع الضحايا وسرقة بياناتهم أو أموالهم.

ففي العام الماضي، تعرّضت شركة التكنولوجيا البريطانية Arup لعملية احتيال كبرى سُرق خلالها 25 مليون دولار باستخدام تقنية التزييف العميق للصوت. كما واجهت شركة Cisco هجومًا مشابهًا استغل النظام الصوتي للوصول إلى بيانات حساسة داخل أنظمتها السحابية.

ذكاء اصطناعي “يتحدث ويفكّر” في الوقت الحقيقي

تُعدّ النماذج الصوتية الحديثة أخطر من أي وسيلة احتيالية سابقة؛ فهي قادرة على التفكير والتكيّف أثناء المحادثة في الزمن الحقيقي، ما يجعلها أكثر إقناعًا من أي روبوت تقليدي.
ويمكن اليوم لأي جهة خبيثة إنشاء “موظف افتراضي” يبدو واقعيًا تمامًا، مثل موظف بنك أو مسؤول موارد بشرية، من خلال بضعة أسطر من الأكواد فقط.

استخدامات مشروعة.. واستغلال مقلق

رغم المخاطر، فإن هذه التقنيات تملك أيضًا تطبيقات مشروعة وواعدة في مجالات مثل الرعاية الصحية، وخدمة العملاء، والتعليم اللغوي، والمساعدة الصوتية.
لكن سهولة الوصول إليها جعلت من السهل تسخيرها في عمليات احتيال جماعية، إذ يمكن نظريًا لنظام واحد تنفيذ مئات الآلاف من المكالمات اليومية، مخصصة لكل ضحية على حدة.

خطر مضاعف مع تقنيات استنساخ الأصوات

تفاقم هذا التهديد مع انتشار أدوات مثل ElevenLabs وCartesia، التي تتيح استنساخ الأصوات بدقة عالية من خلال بضع ثوانٍ من التسجيل فقط.
أما بالنسبة للشخصيات العامة والمشاهير، فإن توفر ساعات من التسجيلات الصوتية على الإنترنت يجعل من السهل جدًا إنشاء نسخة مطابقة لأصواتهم، دون علمهم.
وقد حذّر مكتب التحقيقات الفيدرالي الأمريكي (FBI) مؤخرًا من تزايد استخدام هذه التقنية في عمليات احتيال استخدمت أصوات مسؤولين حكوميين مزيفة لخداع المؤسسات.

أنظمة التحقق الصوتي في خطر

مع هذا التطور، لم تعد بصمات الصوت وسيلة أمان موثوقة كما كانت، إذ يمكن للنماذج المزيفة تجاوزها بسهولة.
ويؤكد الخبراء أن الوقت قد حان لاعتماد أساليب تحقق متعددة العوامل (Multi-Factor Authentication) في جميع العمليات الحساسة والمعاملات المالية الكبرى.

التحقق من الصوت لم يعد كافيًا

الدرس الأهم للمستخدمين هو أن الصوت على الطرف الآخر لم يعد دليلًا على هوية المتحدث. وكما تعلم الناس الحذر من الرسائل الإلكترونية المزيفة، عليهم اليوم أن يشكّوا في الأصوات “المقنعة” التي قد يسمعونها عبر الهاتف.
ويرى الباحثون أن الحل المستقبلي قد يكمن في تطوير “علامات مائية صوتية” أو “توقيعات رقمية” تضمن أصالة التسجيلات وتكشف عمليات التزييف قبل فوات الأوان.

Trending

Exit mobile version