Connect with us

الذكاء الاصطناعي

ChatGPT-4o مخاطر الاستغلال في الاحتيال المالي وكيفية مواجهتها

Avatar of هدير ابراهيم

Published

on

ChatGPT 4o مخاطر الاستغلال في الاحتيال المالي وكيفية مواجهتها

أظهرت دراسة حديثة أن واجهة برمجة التطبيقات الصوتية لنموذج الذكاء الاصطناعي ChatGPT-4o من OpenAI قد تستخدم من قبل مجرمي الإنترنت في عمليات احتيال مالي. وتوصلت الدراسة إلى أن احتمالات نجاح هذه العمليات تتراوح بين منخفضة ومتوسطة، مما يشير إلى تحديات أمنية كبيرة مع تطور تقنيات الذكاء الاصطناعي.

ChatGPT-4o مخاطر الاستغلال في الاحتيال المالي وكيفية مواجهتها

يتميز نموذج ChatGPT-4o بقدرته على استيعاب النصوص والأصوات والمرئيات، ما يجعله قادرًا على إنتاج محتوى متنوع بفاعلية عالية. ولهذا أدرجت OpenAI آليات أمان تهدف إلى اكتشاف المحتوى الضار ومنع إساءة الاستخدام، خاصةً في التزييف الصوتي، والذي يزداد انتشاره ويتسبب بخسائر مالية ضخمة.

ChatGPT-4o مخاطر الاستغلال في الاحتيال المالي وكيفية مواجهتها

ChatGPT-4o مخاطر الاستغلال في الاحتيال المالي وكيفية مواجهتها

تحذيرات الباحثين حول استغلال ChatGPT-4o في الاحتيال

وفقًا لدراسة جامعة إلينوي، فإن الأدوات المتاحة للجمهور قد تفتقر إلى حماية كافية من الاستغلال الاحتيالي. واستعرضت الدراسة حالات احتيال تشمل سرقة الحسابات المصرفية، بطاقات الهدايا، العملات الرقمية، وبيانات حسابات التواصل الاجتماعي والبريد الإلكتروني.

وقد أظهر الباحثون أن مجرمي الإنترنت قد يستخدمون ChatGPT-4o للتنقل بين صفحات الويب، وإدخال البيانات، وإدارة أكواد المصادقة الثنائية، واتباع إرشادات احتيالية. وقد تبين أن نموذج ChatGPT-4o يرفض عادة التعامل مع بيانات حساسة، ولكن الباحثين وجدوا وسائل بسيطة لتحفيز النموذج على الاستجابة لتعليماتهم.

نتائج الدراسة: معدلات نجاح الاحتيال وكلفته

أظهرت التجارب أن معدلات نجاح عمليات الاحتيال الصوتي تراوحت بين 20% و60%، حيث استغرقت بعض المحاولات ما يصل إلى 26 خطوة وبمدة زمنية تبلغ نحو ثلاث دقائق في الحالات المعقدة. وكانت معدلات النجاح في سرقة بيانات Gmail تبلغ 60%، في حين حققت عمليات الاحتيال المرتبطة بالعملات الرقمية وبيانات إنستاجرام نسبة نجاح 40%. وقدرت تكلفة العملية الواحدة بنحو 75 سنتًا أمريكيًا، بينما بلغت تكلفة التحويلات المصرفية الأكثر تعقيدًا حوالي 2.51 دولار.

استجابة OpenAI للتحديات الأمنية

أوضحت OpenAI في بيان نشره موقع BleepingComputer أن النموذج الأحدث “o1-preview” يمتلك إمكانيات أمنية محسنة، إذ نجح في تحقيق معدل أمان بنسبة 93% مقارنةً بنسبة 71% في نموذج GPT-4o السابق. كما أشارت الشركة إلى أن الأبحاث الأكاديمية، مثل دراسة جامعة إلينوي، تلعب دورًا مهمًا في تحسين الأمان ضد الاستخدامات الضارة.

وأكدت OpenAI التزامها بتطوير نماذجها المقبلة لتكون أكثر أمانًا، إلى جانب تقييد خاصية توليد الأصوات بمجموعة محددة من الأصوات المصرح بها لتجنب عمليات التزييف الصوتي.

مع التطور السريع لتقنيات الذكاء الاصطناعي، تبرز تحديات جديدة تتعلق بالأمان والحماية من الاحتيال. وتعمل OpenAI على تحسين إجراءات الأمان في ChatGPT-4o لمواجهة هذه التهديدات، ولكن يبقى التعاون مع الجهات الأكاديمية والمتخصصين في الأمن السيبراني أمرًا حيويًا للحد من مخاطر إساءة استخدام هذه التقنية المتطورة.

الذكاء الاصطناعي

هل يُضعف الذكاء الاصطناعي قدراتنا الذهنية دراسة تثير تساؤلات جديدة

Avatar of هدير ابراهيم

Published

on

أعطال تقنية 54

كشفت دراسة حديثة أجراها باحثون من الولايات المتحدة والمملكة المتحدة عن تأثيرات مزدوجة لاستخدام أدوات الذكاء الاصطناعي. فبينما تسهم هذه الأدوات في تحسين الأداء بشكل سريع، فإنها قد تؤدي في المقابل إلى تراجع القدرات الذهنية على المدى الأطول.

هل يُضعف الذكاء الاصطناعي قدراتنا الذهنية دراسة تثير تساؤلات جديدة

حملت الدراسة عنوان “مساعدة الذكاء الاصطناعي تُقلّص المثابرة وتُضعف الأداء المستقل”، وأظهرت أن الاستخدام حتى لفترة قصيرة — لا تتجاوز 10 دقائق — يمكن أن يخلق حالة من الاعتماد. هذه الحالة تؤدي لاحقًا إلى انخفاض في الأداء وزيادة الشعور بالإرهاق عند غياب الدعم التقني، وهو ما وصفه الباحثون بـ “الثمن المعرفي المرتفع”.

هل يُضعف الذكاء الاصطناعي قدراتنا الذهنية دراسة تثير تساؤلات جديدة

هل يُضعف الذكاء الاصطناعي قدراتنا الذهنية دراسة تثير تساؤلات جديدة

تفاصيل التجربة: ماذا حدث للمشاركين؟

استندت الدراسة إلى تجربة شملت 350 مشاركًا طُلب منهم حل مسائل رياضية تعتمد على الكسور:

  • نصف المشاركين استخدموا روبوت محادثة قائمًا على نموذج GPT-5
  • النصف الآخر أكمل المهام دون أي مساعدة

وفي منتصف الاختبار، تم إيقاف الدعم عن المجموعة الأولى، ما أدى إلى:

  • انخفاض ملحوظ في عدد الإجابات الصحيحة
  • تزايد حالات الاستسلام والتوقف عن المحاولة

وتكررت هذه النتائج في تجربة أوسع ضمّت 670 مشاركًا، بالإضافة إلى اختبار ثالث ركّز على فهم النصوص بدلًا من الرياضيات، مع نفس النمط من تراجع الأداء.

التأثير الأعمق: تراجع الدافعية قبل المهارة

أوضح الباحث راشيت دوبي من جامعة كاليفورنيا أن المشكلة لا تقتصر على ضعف الإجابات بعد سحب الذكاء الاصطناعي، بل تمتد إلى انخفاض الرغبة في المحاولة من الأساس. وأشار إلى أن المثابرة نفسها تتأثر بشكل واضح، وهو ما قد ينعكس سلبًا على التعلم والابتكار.

مخاوف تعليمية: جيل أقل إدراكًا لقدراته

حذّر الباحثون من التوسع السريع في دمج الذكاء الاصطناعي داخل قطاع التعليم، معتبرين أن ذلك قد يؤدي إلى نشوء جيل لا يكتشف قدراته الحقيقية بشكل كامل، مما يهدد الإبداع والتفكير المستقل على المدى البعيد.

تأثير تدريجي يصعب ملاحظته

شبّهت الدراسة هذا التأثير بظاهرة “الضفدع في الماء المغلي”، حيث يحدث التراجع بشكل تدريجي وغير ملحوظ، إلى أن تتآكل الدافعية والمثابرة بمرور الوقت، وقد يصبح من الصعب استعادة المستوى السابق.

جانب إيجابي محدود

رغم النتائج السلبية، رصدت الدراسة نقطة مضيئة، إذ حقق المشاركون الذين استخدموا الذكاء الاصطناعي للحصول على تلميحات أو توضيحات — بدلًا من إجابات جاهزة — أداءً أفضل بعد إيقافه، مقارنةً بمن اعتمدوا عليه بشكل كامل.

سياق أوسع: ماذا تقول الدراسات الأخرى؟

تأتي هذه النتائج ضمن موجة من الأبحاث التي تدرس تأثير الذكاء الاصطناعي على الإنسان، حيث:

ملاحظة مهمة حول موثوقية الدراسة

يجدر التنبيه إلى أن هذه الدراسة لم تخضع بعد لمراجعة الأقران، وهي خطوة أساسية في البحث العلمي لضمان دقة النتائج ومصداقيتها. لذلك، يُنصح بالتعامل مع هذه النتائج بحذر إلى حين التحقق منها بشكل مستقل.

Continue Reading

الذكاء الاصطناعي

إعادة هيكلة كبرى في سناب تقليص الوظائف لصالح الذكاء الاصطناعي

Avatar of هدير ابراهيم

Published

on

أعطال تقنية 46

أعلنت Snap Inc.، على لسان رئيسها التنفيذي Evan Spiegel، عن تسريح نحو 1000 موظف، ما يمثل حوالي 16% من إجمالي قوتها العاملة، إلى جانب إلغاء أكثر من 300 وظيفة شاغرة، وذلك ضمن خطة إعادة هيكلة شاملة.

إعادة هيكلة كبرى في سناب تقليص الوظائف لصالح الذكاء الاصطناعي

تسعى الشركة من خلال هذه الخطوة إلى تقليل نفقاتها السنوية بأكثر من 500 مليون دولار بحلول النصف الثاني من عام 2026، مع التركيز على رفع الكفاءة التشغيلية وتسريع وتيرة النمو في بيئة تنافسية متغيرة.

إعادة هيكلة كبرى في سناب تقليص الوظائف لصالح الذكاء الاصطناعي

إعادة هيكلة كبرى في سناب تقليص الوظائف لصالح الذكاء الاصطناعي

سلسلة من التخفيضات السابقة

لم تكن هذه المرة الأولى التي تُقدم فيها Snap Inc. على تقليص العمالة؛ إذ سبق أن خفّضت نحو 20% من موظفيها في عام 2022 خلال تداعيات جائحة كورونا، ثم أتبعت ذلك بخفض إضافي بنسبة 10% في مطلع 2024.

تحول نوعي في نموذج العمل

وصفت الشركة هذه المرحلة بأنها “لحظة حاسمة”، مؤكدة الحاجة إلى نموذج عمل أكثر مرونة وسرعة، يركز على تحقيق أرباح مستقرة ومستدامة في ظل التحولات التكنولوجية المتسارعة.

الذكاء الاصطناعي في قلب الاستراتيجية

أشارت Snap Inc. إلى أن التطور السريع في تقنيات الذكاء الاصطناعي يمكّنها من تقليل المهام المتكررة، وتسريع تنفيذ العمليات، وتحسين تجربة المستخدمين والشركاء والمعلنين.

فرق أصغر.. إنتاجية أعلى

تعتمد الشركة بشكل متزايد على فرق عمل صغيرة مدعومة بأدوات الذكاء الاصطناعي، استطاعت تحقيق تقدم ملحوظ في مشاريع رئيسية، من بينها تطوير أنظمة الإعلانات، وتوسيع خدمة Snapchat+، وتحسين أداء تطبيق Snap Lite.

شراكات تقنية لتعزيز القدرات

عززت Snap Inc. استثماراتها في الذكاء الاصطناعي داخل تطبيق Snapchat، حيث تعاونت مع OpenAI لإطلاق روبوت الدردشة My AI، كما دعّمته لاحقًا بتقنيات Google عبر نموذج Gemini لدعم الاستعلامات متعددة الوسائط.

أدوات جديدة لصنّاع المحتوى

وفي سياق تعزيز منظومة الإبداع، أطلقت الشركة ميزة “AI Clips” ضمن منصة Lens Studio، التي تتيح للمطورين وصنّاع المحتوى إنشاء مقاطع فيديو بالواقع المعزز بسرعة كبيرة باستخدام أوامر نصية، ما يعكس توجهًا واضحًا نحو أتمتة الإنتاج الإبداعي.

Continue Reading

الذكاء الاصطناعي

منتج أمني جديد من OpenAI يثير القلق قبل إطلاقه لماذا تتردد الشركة

Avatar of هدير ابراهيم

Published

on

إنستاجرام يطلق نسخة تجريبية من اشتراك بلاس بمزايا حصرية 7

تستعد شركة OpenAI لإطلاق منتج جديد في مجال الأمن السيبراني يحمل اسم Spud، في خطوة تعكس تطورًا كبيرًا في قدرات الذكاء الاصطناعي، لكنها في الوقت نفسه تثير مخاوف جدية بشأن إساءة الاستخدام.

منتج أمني جديد من OpenAI يثير القلق قبل إطلاقه لماذا تتردد الشركة

بحسب تقارير حديثة، تقترب OpenAI من إنهاء تطوير Spud، مع خطط لطرحه بشكل محدود على مجموعة مختارة من الشركاء.
ولا تزال تفاصيل قدراته غير واضحة بالكامل، سواء من حيث إمكانيات الاختراق أو آليات الحماية التي سيقدمها.

منتج أمني جديد من OpenAI يثير القلق قبل إطلاقه لماذا تتردد الشركة

منتج أمني جديد من OpenAI يثير القلق قبل إطلاقه لماذا تتردد الشركة

ذكاء اصطناعي بقدرات قد تكون خطيرة

يأتي هذا التوجه في وقت وصلت فيه تقنيات الذكاء الاصطناعي إلى مستوى متقدم من الاستقلالية، خاصة في تحليل الأنظمة واكتشاف الثغرات. هذه القدرات، رغم أهميتها في تعزيز الأمن، قد تتحول إلى تهديد إذا استُخدمت بشكل غير مسؤول.

نافسة تتبنى النهج الحذر نفسه

لا تقتصر هذه المخاوف على OpenAI فقط، إذ تخطط شركة Anthropic أيضًا لإطلاق نموذجها الجديد ميثوس بشكل محدود، نتيجة القلق من قدراته المتقدمة في مجال الاختراق.

تحذيرات من سيناريوهات خطيرة

خلال العام الماضي، حذر مسؤولون وخبراء أمنيون من أن نماذج الذكاء الاصطناعي المتقدمة قد تُستخدم مستقبلًا لتعطيل بنى تحتية حيوية، مثل شبكات الكهرباء أو المياه أو الأنظمة المالية، إذا وقعت في الأيدي الخطأ.

ويرى خبراء أن هذه السيناريوهات لم تعد افتراضية، بل أصبحت أقرب إلى الواقع مع التطور السريع لهذه التقنيات.

إجماع على صعوبة التراجع

يشير متخصصون في الأمن السيبراني إلى أن هذه القدرات أصبحت أمرًا واقعًا لا يمكن التراجع عنه. فحتى مع فرض قيود على النشر، تظل إمكانية تطوير أدوات مشابهة قائمة.

وأكد روب تي. لي أن النماذج قادرة بالفعل على تحليل الشيفرات واكتشاف الثغرات في الأنظمة القديمة، وهي مهارة يصعب احتواؤها أو الحد منها.

تسارع التطور يفرض واقعًا جديدًا

من جانبها، توقعت ويندي ويتمور ظهور نماذج مماثلة خلال فترة قصيرة قد لا تتجاوز أسابيع أو أشهر، في حين وصف آدم مايرز هذه التطورات بأنها “جرس إنذار” لقطاع الأمن السيبراني.

بين الابتكار والمخاطر

يعكس مشروع Spud التحدي الكبير الذي تواجهه شركات الذكاء الاصطناعي اليوم: تحقيق التوازن بين الابتكار التقني وحماية المستخدمين من المخاطر المحتملة.

Continue Reading

Trending

Copyright © 2025 High Tech. Powered By DMB Agency.