Connect with us

الأمن الالكتروني

Group-IP حصرت برامج ضارة تسرق معلومات أكثر من 100,000 حساب في ChatGPT

Avatar of هند عيد

Published

on

chatgpt 4.png

حقيقةٌ مُرة تتحدث البيانات عنها، فبرامج الضارة تشكّل تهديدًا حقيقيًا لأمان الحسابات على ChatGPT. حصرت شركة أمن المعلومات (Group-IP) ما يزيد عن 100,000 حساب تم اختراقها خلال العام الماضي. تُفادي هذه البرامج تسجيل البيانات الشخصية، لكن الخبر الجيد أن هُناك خُطة لكسب الثقة بالنفس وتعزيزها. هذا المقال سيُعلِّمك كيفية زِيادة الثقة بنفسك باللغة الإنجليزية.

 برامج ضارة في حسابات ChatGPT

بالنظر إلى أهمية برامج الضارة في حسابات ChatGPT، يجب أن ندرك أن هذه البرامج يمكن أن تتسبب في سرقة المعلومات الحساسة وتنتهك خصوصية المستخدمين.

تتمثل أهمية برامج الضارة في ضرورة حماية الحسابات والمحتوى المولد بواسطة ChatGPT من هذه الهجمات الضارة. فإن تعرض الحسابات للاختراق يمكن أن يتسبب في تأثير سلبي على سمعة المنصة وثقة المستخدمين فيها.

لذلك، من الضروري أن يكون لدينا استراتيجيات حماية فعالة لمنع واكتشاف البرامج الضارة وتطوير تقنيات أمان متقدمة لتأمين حساباتنا والحفاظ على خصوصيتنا وسلامتنا على الإنترنت.

تحليل البرامج الضارة في ChatGPT

تفسير كيفية سرقة المعلومات في حسابات ChatGPT

يتم سرقة المعلومات في حسابات ChatGPT عن طريق استغلال ثغرات الأمان في البرامج المستخدمة.

واحدة من الطرق الشائعة لذلك هي من خلال برامج ضارة تسمى بالحصان الطروادة Trojan horses، حيث تتم إدخال البرامج الضارة إلى النظام عن طريق تقنيات التحصين الضئيلة أو عن طريق فتح مرفقات البريد الإلكتروني المشبوهة. يتسلل الحصان الطروادة إلى داخل النظام دون علم المستخدم ويمكنه الوصول إلى حسابات ChatGPT وسرقة المعلومات الحساسة مثل كلمات المرور والمعلومات الشخصية الأخرى.

هناك أيضًا أشكال أخرى من البرمجيات الضارة مثل برامج التجسس والتصيّد الاحتيالي phishing، التي تهدف إلى خداع المستخدمين والحصول على معلوماتهم السرية. عندما يتم الوصول إلى حسابات ChatGPT بواسطة هذه البرامج الضارة، يمكن للمهاجمين القيام بأنشطة غير مصرح بها مثل نشر رسائل مضللة أو سرقة المعلومات الحساسة.

تأثير البرامج الضارة على أكثر من 100,000 حساب في ChatGPT

في هذا القسم من المقال، سنناقش تأثير البرامج الضارة على أكثر من 100,000 حساب في ChatGPT.

من خلال استغلال ثغرات الأمان في نظام ChatGPT، تمكنت برامج الاختراق من سرقة معلومات المستخدمين وتسلل إلى حساباتهم. تأتي البرامج الضارة بأشكال مختلفة مثل البرمجيات الخبيثة وبرامج التجسس وبرامج الاختراق، ولديها القدرة على التسبب في الكثير من الأضرار والاختراقات الأمنية.

كيف تحمي حسابك في ChatGPT

استخدام كلمات مرور قوية ومتنوعة

عندما يتعلق الأمر بحماية حسابات ChatGPT، يعد استخدام كلمات مرور قوية ومتنوعة أمرًا حيويًا. إليك بعض النصائح لإنشاء كلمات مرور قوية:

  1. استخدم مزيجًا من الأحرف الكبيرة والصغيرة والأرقام والرموز الخاصة.
  2. تجنب استخدام كلمات مرور سهلة التخمين مثل “123456” أو “password”.
  3. قم بإنشاء كلمات مرور فريدة لكل حساب تملكه.
  4. تجنب استخدام معلومات شخصية مثل تاريخ الميلاد أو اسم العائلة في كلمة المرور.
  5. قم بتغيير كلمة المرور بشكل منتظم ولا تعتمد على كلمة المرور القديمة لفترة طويلة.

باستخدام كلمات مرور قوية ومتنوعة، يصبح من الصعب على المهاجمين اختراق حسابات ChatGPT الخاصة بك وسرقة المعلومات الحساسة. تذكر دائمًا أن الأمان يبدأ بك وباختيار كلمات مرور قوية.

تفعيل المصادقة الثنائية في حسابك

تعد تفعيل المصادقة الثنائية في حسابك أحد أهم الخطوات التي يمكن اتخاذها لحماية حسابك في ChatGPT من برامج الاختراق والاحتيال.

بفضل المصادقة الثنائية، ستحتاج إلى إدخال رمز تأكيد إضافي بجانب كلمة المرور عند تسجيل الدخول إلى حسابك، وهذا يجعل من الصعب على المتسللين الاستيلاء على حسابك حتى وإن كانوا يعرفون كلمة المرور الخاصة بك. لتفعيل المصادقة الثنائية في حسابك، يمكنك اتباع الخطوات التالية:

  1. قم بتسجيل الدخول إلى حسابك في ChatGPT.
  2. انتقل إلى إعدادات الأمان أو الحساب الخاصة بك.
  3. ابحث عن خيار المصادقة الثنائية أو العاملين على مدار الساعة.
  4. اتبع التعليمات لتفعيل المصادقة الثنائية باستخدام تطبيق المصادقة الذي تفضله. يمكنك استخدام تطبيقات مثل Google Authenticator أو Authy.
  5. احتفظ بالرمز السري الذي سيتم تزويدك به.
  6. من الآن فصاعدًا، ستحتاج إلى إدخال كلمة المرور الخاصة بك بالإضافة إلى الرمز السري الذي يولده التطبيق عند تسجيل الدخول إلى حسابك.

مع تفعيل المصادقة الثنائية، ستتمكن من حماية حسابك في ChatGPT بشكل أكبر وتقليل خطر اختراقه من قبل برامج الاختراق والاحتيال.

تحديث وترقية برمجيات الأمان الخاصة بك

تعد تحديثات وترقيات برمجيات الأمان أحد الخطوات الأساسية للحفاظ على سلامة حسابات ChatGPT ومنع وصول البرامج الضارة إلى المعلومات الحساسة. إليك بعض النصائح لتحسين أمان حسابك:

  1. تحديث البرمجيات بانتظام: تأكد من أنك تقوم بتحديث جميع البرامج والتطبيقات المستخدمة في ChatGPT بانتظام. يتم توفير التحديثات لسد الثغرات الأمنية المعروفة وتعزيز الحماية العامة.
  2. تثبيت برامج مكافحة البرامج الضارة: استخدم برنامج مكافحة البرامج الضارة الموثوق لحماية جهاز الكمبيوتر الخاص بك من الهجمات الضارة واكتشاف البرامج الضارة قبل أن تتسلل إلى نظامك.
  3. استخدام جدران الحماية: اعتمد على جدران الحماية لمراقبة ومنع حركة البيانات غير المصرح بها من وإلى جهازك. يمكن أن تحمي جدران الحماية حسابات ChatGPT من هجمات الاختراق وتقليل الوصول غير المصرح به.
  4. استخدام كلمات مرور قوية: استخدم كلمات مرور معقدة وفريدة لحسابك وتغييرها بانتظام، بالإضافة إلى تجنب استخدام كلمات المرور الضعيفة أو السهلة التخمين، واستخدام كلمات مرور طويلة وتتكون من مزيج من الأحرف الكبيرة والصغيرة والأرقام والرموز.

تذكر أن اتباع هذه الإرشادات يساعد على ضمان أمان حساباتك في ChatGPT وحماية معلوماتك الحساسة من البرامج الضارة.

 التوصية ببرامج مكافحة البرامج الضارة

أفضل برامج مكافحة البرامج الضارة لحماية حسابات ChatGPT

قامت برامج ضارة بسرقة معلومات أكثر من 100,000 حساب في ChatGPT، لذلك لا بد من اتخاذ إجراءات لحماية الحسابات. هنا بعض أفضل برامج مكافحة البرامج الضارة لحماية حسابات ChatGPT التي يمكن استخدامها:

  1. Bitdefender: يعتبر واحدًا من أقوى برامج مكافحة البرمجيات الضارة في السوق، حيث يوفر حماية شاملة ضد الفيروسات وبرامج التجسس والاحتيال عبر الإنترنت.
  2. Malwarebytes: يتميز بقدرته على اكتشاف وإزالة برامج الإعلانات المزعجة وبرامج التجسس وغيرها من البرامج الضارة التي قد تهدد سلامة الحسابات.
  3. AVG Antivirus: يوفر حماية قوية ضد الفيروسات وبرامج التجسس والبرمجيات الخبيثة، ويتميز بأداة تحليل البرامج الضارة الذكية التي تقوم بمسح وتحليل الملفات المشبوهة.
  4. Avast: يوفر حماية شاملة للحسابات من الفيروسات وبرامج التجسس والبرامج الضارة الأخرى، ويعتمد على تقنيات الذكاء الاصطناعي لاكتشاف ومنع التهديدات.
  5. Kaspersky: يوفر حماية متقدمة للحسابات من الفيروسات وبرامج التجسس والاحتيال عبر الإنترنت، ويعتبر واحدًا من أكثر البرامج شعبية للأفراد والشركات.

الحماية المستقبلية لحسابات ChatGPT

استراتيجيات الحماية المستقبلية لمنع البرامج الضارة

هناك العديد من استراتيجيات الحماية المستقبلية التي يمكن اتخاذها لمنع البرامج الضارة في حسابات ChatGPT، وتشمل:

  1. تحديث وترقية برامج الأمان الخاصة بك بانتظام للحصول على أحدث التحديثات والتصحيحات الأمنية.
  2. استخدام برامج مكافحة البرامج الضارة الموثوقة للحماية من الهجمات وكشف البرامج الضارة المحتملة.
  3. تعزيز أمان كلمات المرور الخاصة بك بتنويعها وجعلها قوية وصعبة للتخمين.
  4. تفعيل المصادقة الثنائية لحسابك لإضافة طبقة إضافية من الحماية.
  5. توفير التدريب والتوعية للمستخدمين بشأن المخاطر الأمنية والوقاية من هجمات البرمجيات الضارة.
  6. مراجعة صلاحيات الوصول وتقييد الوصول إلى حسابات ChatGPT إلى أشخاص مخولين فقط.
  7. الاحتفاظ بنسخ احتياطية من البيانات الهامة وتنفيذ إجراءات الاسترداد في حالة حدوث هجمات أو فقد البيانات.

تطبيق هذه الاستراتيجيات سيساهم في تقوية أمان حسابات ChatGPT والحد من فرصة حدوث البرامج الضارة.

أخبار تقنية

الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع

Avatar of هدير ابراهيم

Published

on

الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع

مع التطور السريع لتقنيات الذكاء الاصطناعي، باتت الهجمات السيبرانية أكثر ذكاءً وخداعًا. من أبرز هذه الأساليب الحديثة ما يُعرف بـ “الاحتيال الصوتي المدعوم بالذكاء الاصطناعي”، والذي يُعد أحد أخطر التهديدات الإلكترونية التي يصعب اكتشافها نظرًا لدقته في تقليد الأصوات واستنساخ الشخصيات.

الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع

الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع

الاحتيال الصوتي بالذكاء الاصطناعي التهديد الصامت الذي يخترق الثقة ويستهدف الجميع

الاحتيال الصوتي باستخدام الذكاء الاصطناعي (AI Vishing) هو نسخة متطورة من الاحتيال الهاتفي الكلاسيكي، حيث يستخدم المجرمون تقنيات الذكاء الاصطناعي لتقليد أصوات موثوقة مثل موظفي البنوك أو الأقارب، بهدف خداع الضحايا ودفعهم للإفصاح عن معلومات حساسة أو اتخاذ قرارات مالية خطيرة.
وتتيح هذه التقنية إجراء آلاف المكالمات المبرمجة بدقة بأصوات واقعية، ما يجعل التمييز بينها وبين المكالمات الحقيقية أمرًا في غاية الصعوبة.

وقائع حقيقية تكشف مدى خطورة الاحتيال الصوتي

1. انتحال صوت وزير إيطالي لخداع رجال أعمال
في بداية عام 2025، تم استخدام الذكاء الاصطناعي لتقليد صوت وزير الدفاع الإيطالي، وخداع عدد من رجال الأعمال، بينهم مالك نادي إنتر ميلان السابق، ماسيمو موراتي، وتمكنت الشرطة من استرداد الأموال لاحقًا.

2. استهداف قطاع السياحة والفنادق
وفقًا لصحيفة وول ستريت جورنال، شهد الربع الأخير من 2024 تزايدًا ملحوظًا في عمليات الاحتيال الصوتي داخل قطاع السياحة، حيث تظاهر المحتالون بأنهم مدراء تنفيذيون أو وكلاء سفر، ما مكنهم من الحصول على بيانات حساسة من موظفي الفنادق.

3. تقليد أصوات أفراد العائلة للاحتيال على كبار السن
في عام 2023، استغل المحتالون الذكاء الاصطناعي لتقليد أصوات الأحفاد أو الآباء في مكالمات موجهة لكبار السن، يطلبون فيها تحويل أموال طارئة. وقد تم توثيق خسائر تقارب 200,000 دولار لعائلات مختلفة بسبب هذه الطريقة الخبيثة.

“الاحتيال الصوتي كخدمة”.. تطور مرعب في عالم الجريمة

برز مؤخرًا نموذج جديد يُعرف باسم “Vishing-as-a-Service”، حيث أصبح بالإمكان الاشتراك في خدمات احتيالية مدفوعة تتيح للمجرمين الوصول إلى أدوات متقدمة تتضمن:

  • أصوات بشرية قابلة للتخصيص بدقة عالية.

  • سيناريوهات احتيالية مُعدة مسبقًا.

  • انتحال أرقام حقيقية وإضافة مؤثرات صوتية لمحاكاة البيئة الحقيقية للاتصال.

إحدى أبرز الشركات المعروفة في هذا المجال هي PlugValley، التي توفر روبوتات قادرة على التفاعل اللحظي مع الضحايا، باستخدام أصوات شديدة الواقعية. وتُمكّن هذه الروبوتات المجرمين من سرقة البيانات البنكية وكلمات المرور المؤقتة بسهولة، دون الحاجة لمهارات تقنية متقدمة.

إجراءات الحماية: كيف تتجنب الوقوع في الفخ؟

للشركات والمؤسسات:

  • تدريب الموظفين على التحقق من هوية المتصل.

  • عدم مشاركة أي بيانات سرية عبر الهاتف دون تأكيد رسمي.

  • اعتماد حلول ذكاء اصطناعي مضادة لرصد الأنماط الاحتيالية.

للأفراد:

  • عدم الوثوق بأي مكالمة غير متوقعة تطلب معلومات شخصية أو مالية.

  • استخدام “كلمة مرور سرية” للتحقق بين أفراد العائلة.

  • الإبلاغ الفوري عن أي مكالمة مشبوهة أو محاولة احتيال.

Continue Reading

الذكاء الاصطناعي

التزييف الذكي كيف غيّر الذكاء الاصطناعي قواعد الاحتيال المالي

Avatar of هدير ابراهيم

Published

on

التزييف الذكي كيف غيّر الذكاء الاصطناعي قواعد الاحتيال المالي

في ظل التطور السريع لتقنيات الذكاء الاصطناعي، أصبح المحتالون قادرين على تنفيذ عمليات احتيال مالية متقنة يصعب اكتشافها. إذ لم يعد الاحتيال محصورًا في رسائل البريد الإلكتروني المشبوهة أو المكالمات الهاتفية المزيفة، بل بات يشمل تقنيات متقدمة مثل التزييف العميق وإنشاء هويات اصطناعية ومواقع وهمية. فكيف يمكن للبنوك مواجهة هذا التهديد المتنامي؟

التزييف الذكي كيف غيّر الذكاء الاصطناعي قواعد الاحتيال المالي

اعتمد المحتالون في السنوات الأخيرة على أدوات الذكاء الاصطناعي لتجاوز آليات الحماية التقليدية وتنفيذ عمليات معقدة يصعب تتبعها، وأبرز هذه الأساليب:

التزييف الذكي كيف غيّر الذكاء الاصطناعي قواعد الاحتيال المالي

التزييف الذكي كيف غيّر الذكاء الاصطناعي قواعد الاحتيال المالي

1. التزييف العميق وانتحال الشخصيات

في واحدة من أبرز حوادث الاحتيال في عام 2024، خسرت شركة Arup البريطانية 25 مليون دولار بعد أن نجح المحتالون في استخدام فيديو مزيف يحاكي وجوه وأصوات المدراء التنفيذيين لإقناع أحد الموظفين بتحويل الأموال.
يعتمد هذا النوع من الاحتيال على خوارزميات التزييف العميق (Deepfake)، التي تستطيع محاكاة ملامح الوجه والصوت بدقة عالية من صورة ودقيقة صوتية واحدة فقط.

2. تصميم مواقع مصرفية وهمية تحاكي الأصلية

يُستخدم الذكاء الاصطناعي لإنشاء مواقع إلكترونية مزيفة تُقلّد بدقة منصات استثمارية أو مصرفية حقيقية. مثال على ذلك، انتحال موقع Exante المالي لإقناع المستخدمين بتحويل أموالهم إلى حسابات يديرها المحتالون.
تتفاعل هذه المواقع بشكل واقعي مع الزوار، مما يعزز من مصداقيتها الكاذبة.

3. تجاوز أنظمة التحقق البيومتري

حتى أدوات التحقق المعتمدة على الكاميرات والتعرف البيومتري لم تسلم من ذكاء المحتالين الاصطناعي.
يمكن الآن عبر تقنيات التزييف العميق تجاوز هذه الأنظمة بسهولة، بل إن بعض الأدوات التجارية تتيح تنفيذ ذلك مقابل مبالغ مالية زهيدة ومتاحة للجميع.

4. إنشاء هويات مزيفة باستخدام الذكاء الاصطناعي

يساهم الذكاء الاصطناعي في تركيب هويات اصطناعية تجمع بين بيانات واقعية ووهمية تُستخدم لفتح حسابات مصرفية مزيفة.
وبحسب تقرير شركة Equifax، فإن ثلث التنبيهات الكاذبة ترتبط بهويات من هذا النوع، التي يصعب على الأنظمة التقليدية اكتشافها.

كيف يمكن للبنوك التصدي لهذا الخطر المتنامي؟

أمام هذا التطور المقلق في أدوات الاحتيال، على البنوك اتخاذ خطوات استباقية لحماية أنظمتها وعملائها:

1. تعزيز المصادقة المتعددة العوامل (MFA)

تُعدّ المصادقة الثنائية والمتعددة من أقوى وسائل الحماية ضد هجمات الذكاء الاصطناعي.
ينبغي للبنوك اعتمادها بشكل إلزامي، مع توعية العملاء بعدم مشاركة رموز التحقق مع أي جهة خارجية.

2. تطوير آليات متقدمة للتحقق من الهوية

ينبغي تحسين أنظمة كشف الهويات المزيفة من خلال اختبار النماذج التوليدية واستخدام أدوات قادرة على رصد الأنماط الاحتيالية في البيانات الشخصية.

3. تقييم دقيق عند فتح الحسابات الجديدة

من الضروري إجراء مطابقة شاملة للبيانات (كالاسم، العنوان، الرقم الوطني) مع قواعد البيانات الحكومية ومنصات التواصل الاجتماعي، إلى جانب فرض قيود مؤقتة على الحسابات الجديدة إلى حين التحقق الكامل.

الاحتيال الذكي يتطلب حلولًا ذكية

لم تعد أدوات الاحتيال مقصورة على المحترفين، بل أصبحت في متناول أي شخص بفضل تقنيات الذكاء الاصطناعي.
لذا فإن مواجهة هذه التهديدات تتطلب من البنوك نهجًا أمنيًا متجددًا ومتقدمًا، يعتمد على الابتكار في الحماية بقدر الابتكار في التهديد.

Continue Reading

أخبار تقنية

قيود أميركية جديدة تُربك خطط إنفيديا في السوق الصينية

Avatar of هدير ابراهيم

Published

on

قيود أميركية جديدة تُربك خطط إنفيديا في السوق الصينية

تواجه شركة إنفيديا، الرائدة عالميًا في صناعة أشباه الموصلات، تحديات تصديرية جديدة بعد أن فرضت الحكومة الأميركية قيودًا غير متوقعة على رقائق H20 المُخصصة للذكاء الاصطناعي.

قيود أميركية جديدة تُربك خطط إنفيديا في السوق الصينية

قيود أميركية جديدة تُربك خطط إنفيديا في السوق الصينية

قيود أميركية جديدة تُربك خطط إنفيديا في السوق الصينية

أعلنت إنفيديا، في ملف رسمي قُدم يوم الثلاثاء، أنها أُبلغت من قبل الحكومة الأميركية بضرورة الحصول على ترخيص خاص لتصدير رقائق H20 إلى الصين، وهو شرط ساري لأجل غير مسمى.
وذكرت السلطات الأميركية أن السبب يعود إلى “خطر استخدام الرقاقة في حواسيب فائقة القدرات في الصين”، بحسب ما أورد موقع TechCrunch ونقلته “العربية Business”.

انخفاض في قيمة السهم وتوقعات بخسائر مالية

على إثر الإعلان، انخفض سهم إنفيديا بنحو 6% في جلسات التداول الممتدة.
وتتوقع الشركة أن تصل الرسوم المرتبطة بهذه القيود إلى 5.5 مليار دولار في السنة المالية 2026، التي تنتهي في 27 أبريل.

H20: الرقاقة الأهم في السوق الصينية

تُعد رقاقة H20 واحدة من أكثر شرائح الذكاء الاصطناعي تطورًا التي يمكن تصديرها إلى الصين ضمن القيود الأميركية القائمة.
وقد كشفت وكالة رويترز أن إنفيديا تلقت طلبات شراء بقيمة 18 مليار دولار منذ بداية العام على هذه الشريحة فقط، مما يُبرز أهميتها الاستراتيجية.

مناورات سياسية واستثمارات أميركية مشروطة

ذكرت شبكة NPR أن الرئيس التنفيذي لإنفيديا، جنسن هوانغ، حاول التفاوض لتخفيف القيود على H20 خلال لقاء خاص في منتجع “مار-إيه-لاغو” مع الرئيس السابق دونالد ترامب، مستعرضًا التزام الشركة بالاستثمار داخل أميركا.

وبالتزامن، أعلنت إنفيديا عن خطة لضخ مئات الملايين من الدولارات خلال السنوات الأربع القادمة لتصنيع شرائح AI محليًا، لكن الخبراء أشاروا إلى أن الإعلان جاء غامضًا من حيث التفاصيل التنفيذية.

مخاوف من تسريب تكنولوجيا حساسة

تأتي هذه الإجراءات في أعقاب تقارير تشير إلى أن رقاقة H20 استُخدمت في تدريب نماذج ذكاء اصطناعي متقدمة لشركات صينية، أبرزها شركة “ديب سيك” (DeepSeek)، التي طوّرت نموذج الاستدلال R1 – النموذج الذي أثار موجة من الجدل في سوق الذكاء الاصطناعي الأميركي في يناير الماضي.

Continue Reading

Trending

Copyright © 2023 High Tech. Powered By DMB Agency.