Connect with us

الأمن الالكتروني

ثغرات جديدة: كيف يستخدم المخترقون الأصوات المزيفة وكيف يعمل McAfee على اكتشافها؟

Avatar of هند عيد

Published

on

McAfee Audio Scam Detection

ثغرات جديدة: كيف يستخدم المخترقون الأصوات المزيفة؟

ثغرات جديدة تستخدمها المخترقون لاختراق الأجهزة المحمولة والأجهزة الذكية من خلال استخدام الأصوات المزيفة، وذلك باستخدام تقنيات متقدمة لنسخ وتعديل الأصوات الحقيقية بهدف الوصول إلى معلومات شخصية وسرقة البيانات الحساسة.

مع زيادة استخدام التطبيقات الصوتية وأجهزة الصوت الذكية، أصبح هذا النوع من الهجمات أكثر شيوعاً وقدرة على التسلل عبر بروتوكولات الصوت الرقمي المختلفة.

تشمل طرق استغلال الأصوات المزيفة استخدامها لاستدراج الأشخاص إلى تقديم معلومات سرية أو الحصول على إذن للوصول إلى الأنظمة الحساسة.

لذلك، من الضروري تعزيز الوعي حول هذه الثغرات واتخاذ التدابير اللازمة لحماية بياناتنا الشخصية.

ثغرات الأمان المتعلقة بالأصوات المزيفة

تعود ثغرات الأمان المتعلقة بالأصوات المزيفة إلى قدرة المخترقين على استغلال التقنيات الصوتية المتقدمة للوصول إلى معلومات شخصية وسرقة البيانات الحساسة.

تلك الثغرات تهدد أمن الأفراد وتعزز الحاجة إلى حماية البيانات الشخصية بشكل فعال وتقوية الأنظمة الأمنية.

لذا من المهم اتخاذ تدابير واحتياطات لحماية الهوية والمعلومات الشخصية من خطر الأصوات المزيفة.

تأثير استخدام المخترقين للأصوات المزيفة

يتسبب استخدام المخترقين للأصوات المزيفة في تعريض الأفراد لخطر سرقة البيانات والمعلومات الشخصية، بما في ذلك معلومات المصرفية والهوية، مما يؤدي إلى تهديد أمانهم الشخصي والمالي.

كيف يعمل McAfee على اكتشاف الأصوات المزيفة؟

McAfee يستخدم تقنية فريدة لاكتشاف الأصوات المزيفة، حيث يقارن النماذج الصوتية المثبتة مسبقًا مع الأصوات الواردة للتحقق من هوية المتحدث وتحديد أي صوت مشبوه أو مزيف.

بتقديمه هذه الميزة الثابتة، يحافظ McAfee على حماية المستخدمين من التهديدات المحتملة للأصوات المزيفة.

تقنية اكتشاف الأصوات المزيفة في McAfee

يستخدم برنامج McAfee تقنية فريدة لاكتشاف الأصوات المزيفة، حيث يقوم بمقارنة الأصوات المثبتة مسبقًا مع الأصوات الواردة للتحقق من هوية المتحدث وتحديد أي صوت مشبوه أو مزيف.

تأثير جدار الحماية في اكتشاف الأصوات المزيفة

جدار الحماية في McAfee يلعب دورًا حاسمًا في اكتشاف الأصوات المزيفة من خلال رصد وتحليل حركة البيانات الصوتية وتحديد أي نمط مشبوه أو غير طبيعي يشير إلى وجود أصوات مزيفة.

آلية العمل للأصوات المزيفة

تعتمد آلية العمل للأصوات المزيفة على استخدام التقنيات الصوتية لتوليد أصوات تبدو طبيعية ومشابهة للأصوات الحقيقية، بهدف تضليل الأفراد واختراق أنظمة الأمان.

تقنية صوتية في الأصوات المزيفة

تستخدم تقنية الأصوات المزيفة تقنيات صوتية متقدمة لتكوين الأصوات التي تبدو وكأنها حقيقية.

تتضمن هذه التقنيات استخدام تقنيات مثل التحفيز الرقمي والتحفيز المرتجعي والتركيب الصوتي لتوليد أصوات طبيعية وغير قابلة للكشف.

يتم استخدام هذه التقنيات لتمويه الهوية وخداع الأفراد أو أنظمة الأمان.

طرق استخدام المخترقين للأصوات المزيفة

يستخدم المخترقون طرق مختلفة لاستخدام الأصوات المزيفة في أنشطتهم الضارة، مثل التلاعب بأجهزة الاتصال الصوتي وإجراء مكالمات احتيالية وتنفيذ هجمات انتحال الهوية الصوتية.

يهدفون إلى خداع الضحايا واختراق نظم الأمان بواسطة تلك الأصوات المزيفة.

أهمية اكتشاف الأصوات المزيفة

يكمن أهمية اكتشاف الأصوات المزيفة في حماية الأمان الشخصي والمؤسسات من عمليات الاحتيال الصوتي، حيث يمكن أن تتسبب هذه الأصوات في خسائر مالية وتلحق أضرار جسيمة بالسمعة والثقة.

تأثير الأصوات المزيفة على الأمان الشخصي

تتسبب الأصوات المزيفة في خرق الأمان الشخصي عبر تلاعبها بمعلومات حساسة وانتحال هويات الأشخاص.

قد يؤدي ذلك إلى سرقة الهوية واستخدامها في الاحتيال والتلاعب بالمعاملات المالية والمعلومات الشخصية.

هو دور هام لمكافحة هذه الظاهرة المهددة للأمان الشخصي.

حماية البيانات من الأصوات المزيفة

تلعب حماية البيانات دورًا حاسمًا في الوقاية من الأصوات المزيفة. يتعين على الأفراد استخدام برامج مضادة للاختراق وتحديث البرامج المستخدمة بانتظام لتعزيز الأمان الشخصي وحماية بياناتهم الحساسة.

 

الأمن الالكتروني

ارتفاع مقلق في هجمات الفدية الموجهة تحذيرات كاسبرسكي خلال جيسيك جلوبال 2025

Avatar of هدير ابراهيم

Published

on

ارتفاع مقلق في هجمات الفدية الموجهة تحذيرات كاسبرسكي خلال جيسيك جلوبال 2025

خلال فعاليات معرض ومؤتمر جيسيك جلوبال 2025 في دبي، أطلقت شركة كاسبرسكي تحذيرات بشأن تصاعد هجمات الفدية الموجهة، مشيرة إلى زيادة بنسبة 35% في عدد مجموعات الفدية بين عامي 2023 و2024، ليصل عددها إلى 81 مجموعة نشطة عالميًا.

ارتفاع مقلق في هجمات الفدية الموجهة تحذيرات كاسبرسكي خلال جيسيك جلوبال 2025

ارتفاع مقلق في هجمات الفدية الموجهة تحذيرات كاسبرسكي خلال جيسيك جلوبال 2025

ارتفاع مقلق في هجمات الفدية الموجهة تحذيرات كاسبرسكي خلال جيسيك جلوبال 2025

رغم الزيادة في عدد مجموعات الفدية، انخفض عدد الضحايا بنسبة 8% خلال نفس الفترة، ليستقر عند حوالي 4,300 ضحية عالميًا. وتصدرت الإمارات العربية المتحدة، وجنوب أفريقيا، والمملكة العربية السعودية، وتركيا قائمة الدول الأكثر استهدافًا في منطقة الشرق الأوسط.

تطور الأساليب وتعاون المجموعات الإجرامية

تعتمد مجموعات الفدية الحديثة على تقنيات هجومية متقدمة، تشمل استغلال الخدمات غير المؤمنة، وهجمات الهندسة الاجتماعية، وشراء نقاط الوصول الأولية من الإنترنت المظلم. كما لوحظ زيادة في التعاون بين هذه المجموعات، من خلال تبادل البرمجيات الخبيثة والأدوات المستخدمة في الهجمات.

دعوات لتعزيز الدفاعات السيبرانية

أكد الدكتور محمد الكويتي، رئيس مجلس الأمن السيبراني لحكومة الإمارات، على أهمية تبني سياسات استباقية تعتمد على الذكاء الاصطناعي والتحليلات المتقدمة لرصد التهديدات. وأشار إلى دور “جيسيك جلوبال 2025” في تعزيز التعاون الدولي لمواجهة التهديدات السيبرانية.

توصيات كاسبرسكي للمؤسسات

قدمت كاسبرسكي مجموعة من التوصيات لتعزيز حماية المؤسسات من هجمات الفدية، تشمل:

  • تدريب الموظفين: رفع مستوى الوعي الأمني للموظفين لتقليل الأخطاء البشرية.

  • الاستفادة من معلومات التهديدات: استخدام خدمات مثل Kaspersky Threat Intelligence لفهم التهديدات بشكل أفضل.

  • تحديث الأنظمة والبرمجيات: ضمان تحديث جميع الأجهزة والأنظمة بانتظام.

  • إنشاء نسخ احتياطية آمنة: تخزين النسخ الاحتياطية بنحو منفصل وغير متصل بالشبكة.

  • نشر حلول أمنية متقدمة: استخدام حلول مثل Kaspersky Next التي توفر حماية متعددة الطبقات.

Continue Reading

تطبيقات وبرامج

ميزة جديدة من واتساب تعزز أمان محادثات الذكاء الاصطناعي

Avatar of هدير ابراهيم

Published

on

ميزة جديدة من واتساب تعزز أمان محادثات الذكاء الاصطناعي

أعلنت شركة “ميتا” عن إطلاق ميزة جديدة في تطبيق واتساب تحمل اسم المعالجة الخاصة (Private Processing)، وهي مصممة لتوفير بيئة آمنة وخاصة للتفاعل مع مساعد الذكاء الاصطناعي التابع لها Meta AI. وتهدف هذه الخطوة إلى تعزيز ثقة المستخدمين عبر منحهم أدوات تحكم إضافية في كيفية استخدام بياناتهم.

ميزة جديدة من واتساب تعزز أمان محادثات الذكاء الاصطناعي

أكدت ميتا أن تفعيل الميزة سيكون اختياريًا بالكامل، وستبدأ في الظهور تدريجيًا للمستخدمين خلال الأسابيع المقبلة. وطمأنت الشركة المستخدمين بأن لا أحد — سواء ميتا أو واتساب أو أي طرف ثالث — سيتمكن من رؤية محتوى هذه التفاعلات الخاصة.

ميزة جديدة من واتساب تعزز أمان محادثات الذكاء الاصطناعي

ميزة جديدة من واتساب تعزز أمان محادثات الذكاء الاصطناعي

حماية المحادثات من التهديدات والاختراقات

تعتمد ميزة “المعالجة الخاصة” على حذف محتوى الرسائل فور انتهاء الجلسة، ما يمنع أي جهة من الوصول إلى هذه البيانات حتى في حال تعرض الأنظمة لهجوم إلكتروني. وتهدف هذه الآلية إلى تقليل فرص استهداف المستخدمين دون الحاجة لاختراق البنية التحتية الكاملة.

مراجعة مستقلة وبرنامج مكافآت للثغرات

أوضحت ميتا أنها ستسمح لجهات خارجية مستقلة بمراجعة أداء هذه الميزة، والتحقق من مدى التزامها بمعايير الخصوصية والأمان. كما أدرجت الشركة هذه التقنية ضمن برنامج مكافآت اكتشاف الثغرات، مع تعهدها بنشر ورقة تقنية مفصلة توضح الأسس الهندسية لنظام الحماية المستخدم.

حماية عنوان IP من خلال بروتوكولات متقدمة

من الناحية التقنية، تمرر الطلبات الخاصة عبر مزوّد خارجي باستخدام بروتوكول OHTTP، الذي يُخفي عنوان IP الخاص بالمستخدم. يشبه ذلك ما تفعله آبل في ميزة “الحوسبة السحابية الخاصة”، إلا أن الفرق الجوهري هو أن ميتا تعتمد على معالجة الطلبات في خوادمها، بينما تُفضل آبل المعالجة محليًا على الجهاز.

خطوة نحو تعزيز الثقة في تقنيات الذكاء الاصطناعي

تأتي هذه الميزة في إطار جهود ميتا لتعزيز ثقة المستخدمين في أدوات الذكاء الاصطناعي التي تقدمها، عبر ضمان مستويات أعلى من الخصوصية والشفافية. ويُتوقع أن تساهم “المعالجة الخاصة” في توسيع نطاق استخدام مساعد Meta AI دون المساس بأمان البيانات الشخصية.

Continue Reading

أخبار تقنية

الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع

Avatar of هدير ابراهيم

Published

on

الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع

مع التطور السريع لتقنيات الذكاء الاصطناعي، باتت الهجمات السيبرانية أكثر ذكاءً وخداعًا. من أبرز هذه الأساليب الحديثة ما يُعرف بـ “الاحتيال الصوتي المدعوم بالذكاء الاصطناعي”، والذي يُعد أحد أخطر التهديدات الإلكترونية التي يصعب اكتشافها نظرًا لدقته في تقليد الأصوات واستنساخ الشخصيات.

الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع

الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع

الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع

الاحتيال الصوتي باستخدام الذكاء الاصطناعي (AI Vishing) هو نسخة متطورة من الاحتيال الهاتفي الكلاسيكي، حيث يستخدم المجرمون تقنيات الذكاء الاصطناعي لتقليد أصوات موثوقة مثل موظفي البنوك أو الأقارب، بهدف خداع الضحايا ودفعهم للإفصاح عن معلومات حساسة أو اتخاذ قرارات مالية خطيرة.
وتتيح هذه التقنية إجراء آلاف المكالمات المبرمجة بدقة بأصوات واقعية، ما يجعل التمييز بينها وبين المكالمات الحقيقية أمرًا في غاية الصعوبة.

وقائع حقيقية تكشف مدى خطورة الاحتيال الصوتي

1. انتحال صوت وزير إيطالي لخداع رجال أعمال
في بداية عام 2025، تم استخدام الذكاء الاصطناعي لتقليد صوت وزير الدفاع الإيطالي، وخداع عدد من رجال الأعمال، بينهم مالك نادي إنتر ميلان السابق، ماسيمو موراتي، وتمكنت الشرطة من استرداد الأموال لاحقًا.

2. استهداف قطاع السياحة والفنادق
وفقًا لصحيفة وول ستريت جورنال، شهد الربع الأخير من 2024 تزايدًا ملحوظًا في عمليات الاحتيال الصوتي داخل قطاع السياحة، حيث تظاهر المحتالون بأنهم مدراء تنفيذيون أو وكلاء سفر، ما مكنهم من الحصول على بيانات حساسة من موظفي الفنادق.

3. تقليد أصوات أفراد العائلة للاحتيال على كبار السن
في عام 2023، استغل المحتالون الذكاء الاصطناعي لتقليد أصوات الأحفاد أو الآباء في مكالمات موجهة لكبار السن، يطلبون فيها تحويل أموال طارئة. وقد تم توثيق خسائر تقارب 200,000 دولار لعائلات مختلفة بسبب هذه الطريقة الخبيثة.

“الاحتيال الصوتي كخدمة”.. تطور مرعب في عالم الجريمة

برز مؤخرًا نموذج جديد يُعرف باسم “Vishing-as-a-Service”، حيث أصبح بالإمكان الاشتراك في خدمات احتيالية مدفوعة تتيح للمجرمين الوصول إلى أدوات متقدمة تتضمن:

  • أصوات بشرية قابلة للتخصيص بدقة عالية.

  • سيناريوهات احتيالية مُعدة مسبقًا.

  • انتحال أرقام حقيقية وإضافة مؤثرات صوتية لمحاكاة البيئة الحقيقية للاتصال.

إحدى أبرز الشركات المعروفة في هذا المجال هي PlugValley، التي توفر روبوتات قادرة على التفاعل اللحظي مع الضحايا، باستخدام أصوات شديدة الواقعية. وتُمكّن هذه الروبوتات المجرمين من سرقة البيانات البنكية وكلمات المرور المؤقتة بسهولة، دون الحاجة لمهارات تقنية متقدمة.

إجراءات الحماية: كيف تتجنب الوقوع في الفخ؟

للشركات والمؤسسات:

  • تدريب الموظفين على التحقق من هوية المتصل.

  • عدم مشاركة أي بيانات سرية عبر الهاتف دون تأكيد رسمي.

  • اعتماد حلول ذكاء اصطناعي مضادة لرصد الأنماط الاحتيالية.

للأفراد:

  • عدم الوثوق بأي مكالمة غير متوقعة تطلب معلومات شخصية أو مالية.

  • استخدام “كلمة مرور سرية” للتحقق بين أفراد العائلة.

  • الإبلاغ الفوري عن أي مكالمة مشبوهة أو محاولة احتيال.

Continue Reading

Trending

Copyright © 2023 High Tech. Powered By DMB Agency.