الذكاء الاصطناعي

ChatGPT-4o مخاطر الاستغلال في الاحتيال المالي وكيفية مواجهتها

Published

on

أظهرت دراسة حديثة أن واجهة برمجة التطبيقات الصوتية لنموذج الذكاء الاصطناعي ChatGPT-4o من OpenAI قد تستخدم من قبل مجرمي الإنترنت في عمليات احتيال مالي. وتوصلت الدراسة إلى أن احتمالات نجاح هذه العمليات تتراوح بين منخفضة ومتوسطة، مما يشير إلى تحديات أمنية كبيرة مع تطور تقنيات الذكاء الاصطناعي.

ChatGPT-4o مخاطر الاستغلال في الاحتيال المالي وكيفية مواجهتها

يتميز نموذج ChatGPT-4o بقدرته على استيعاب النصوص والأصوات والمرئيات، ما يجعله قادرًا على إنتاج محتوى متنوع بفاعلية عالية. ولهذا أدرجت OpenAI آليات أمان تهدف إلى اكتشاف المحتوى الضار ومنع إساءة الاستخدام، خاصةً في التزييف الصوتي، والذي يزداد انتشاره ويتسبب بخسائر مالية ضخمة.

ChatGPT-4o مخاطر الاستغلال في الاحتيال المالي وكيفية مواجهتها

تحذيرات الباحثين حول استغلال ChatGPT-4o في الاحتيال

وفقًا لدراسة جامعة إلينوي، فإن الأدوات المتاحة للجمهور قد تفتقر إلى حماية كافية من الاستغلال الاحتيالي. واستعرضت الدراسة حالات احتيال تشمل سرقة الحسابات المصرفية، بطاقات الهدايا، العملات الرقمية، وبيانات حسابات التواصل الاجتماعي والبريد الإلكتروني.

وقد أظهر الباحثون أن مجرمي الإنترنت قد يستخدمون ChatGPT-4o للتنقل بين صفحات الويب، وإدخال البيانات، وإدارة أكواد المصادقة الثنائية، واتباع إرشادات احتيالية. وقد تبين أن نموذج ChatGPT-4o يرفض عادة التعامل مع بيانات حساسة، ولكن الباحثين وجدوا وسائل بسيطة لتحفيز النموذج على الاستجابة لتعليماتهم.

نتائج الدراسة: معدلات نجاح الاحتيال وكلفته

أظهرت التجارب أن معدلات نجاح عمليات الاحتيال الصوتي تراوحت بين 20% و60%، حيث استغرقت بعض المحاولات ما يصل إلى 26 خطوة وبمدة زمنية تبلغ نحو ثلاث دقائق في الحالات المعقدة. وكانت معدلات النجاح في سرقة بيانات Gmail تبلغ 60%، في حين حققت عمليات الاحتيال المرتبطة بالعملات الرقمية وبيانات إنستاجرام نسبة نجاح 40%. وقدرت تكلفة العملية الواحدة بنحو 75 سنتًا أمريكيًا، بينما بلغت تكلفة التحويلات المصرفية الأكثر تعقيدًا حوالي 2.51 دولار.

استجابة OpenAI للتحديات الأمنية

أوضحت OpenAI في بيان نشره موقع BleepingComputer أن النموذج الأحدث “o1-preview” يمتلك إمكانيات أمنية محسنة، إذ نجح في تحقيق معدل أمان بنسبة 93% مقارنةً بنسبة 71% في نموذج GPT-4o السابق. كما أشارت الشركة إلى أن الأبحاث الأكاديمية، مثل دراسة جامعة إلينوي، تلعب دورًا مهمًا في تحسين الأمان ضد الاستخدامات الضارة.

وأكدت OpenAI التزامها بتطوير نماذجها المقبلة لتكون أكثر أمانًا، إلى جانب تقييد خاصية توليد الأصوات بمجموعة محددة من الأصوات المصرح بها لتجنب عمليات التزييف الصوتي.

مع التطور السريع لتقنيات الذكاء الاصطناعي، تبرز تحديات جديدة تتعلق بالأمان والحماية من الاحتيال. وتعمل OpenAI على تحسين إجراءات الأمان في ChatGPT-4o لمواجهة هذه التهديدات، ولكن يبقى التعاون مع الجهات الأكاديمية والمتخصصين في الأمن السيبراني أمرًا حيويًا للحد من مخاطر إساءة استخدام هذه التقنية المتطورة.

Leave a Reply

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Trending

Exit mobile version