أعلنت شركة أنثروبيك الناشئة في مجال الذكاء الاصطناعي عن تطوير تقنية أمنية متقدمة تهدف إلى منع إساءة استخدام نماذجها اللغوية، وذلك من خلال تقليل فرص استخراج محتوى ضار. هذه الخطوة تعكس التوجه المتسارع للشركات الكبرى لتعزيز معايير الأمان في هذا المجال، في ظل تزايد المخاوف من استغلال الذكاء الاصطناعي لأغراض غير مشروعة.
أوضحت أنثروبيك، في ورقة بحثية حديثة، أنها طوّرت نظامًا أمنيًا يُعرف باسم “المُصنّفات الدستورية”، والذي يعمل كطبقة حماية إضافية فوق نماذج الذكاء الاصطناعي، مثل نموذجها الشهير Claude. يعتمد هذا النظام على مراقبة المدخلات والمخرجات، لمنع أي محتوى غير آمن أو محظور.
يأتي هذا التطور استجابةً للتحديات المتزايدة في مجال أمان الذكاء الاصطناعي، وأبرزها ظاهرة “اختراق الذكاء الاصطناعي” (Jailbreaking)، والتي تشمل محاولات التحايل على النماذج لإنتاج محتوى خطير، مثل تعليمات تصنيع الأسلحة الكيميائية. ومع تصاعد هذه التهديدات، تعمل الشركات على تعزيز دفاعاتها لحماية نماذجها من الاستغلال غير القانوني.
تنافس الشركات في تطوير تقنيات الحماية
لم تكن أنثروبيك الوحيدة التي اتخذت خطوات لمواجهة التهديدات الأمنية في الذكاء الاصطناعي، فقد أطلقت مايكروسوفت تقنية “الدروع التوجيهية” (Prompt Shields) في مارس الماضي، بينما قدمت ميتا نظام “حارس التوجيه” (Prompt Guard) في يوليو 2023، ورغم تعرضه للاختراق في البداية، فقد تم تحسينه لاحقًا لمقاومة الهجمات.
مرونة النظام الجديد واستعداده للمستقبل
أكد مرينانك شارما، أحد أعضاء الفريق التقني في أنثروبيك، أن الهدف الرئيسي من تطوير النظام هو التعامل مع المخاطر الشديدة، مثل تصنيع الأسلحة الكيميائية، لكنه أشار إلى أن أهم ميزة في التقنية الجديدة هي قدرتها على التكيف السريع مع التهديدات المختلفة.
ورغم أن أنثروبيك لم تدمج التقنية حتى الآن في نماذج Claude الحالية، فإنها أشارت إلى إمكانية استخدامها مستقبلًا عند تطوير نماذج أكثر تطورًا وأعلى خطورة.
كيف يعمل النظام الجديد؟
يعتمد نظام “المُصنّفات الدستورية” على مجموعة من القواعد (“دستور”) التي تحدد المحتوى المسموح به والمحظور، ويمكن تعديل هذه القواعد للتعامل مع أنواع مختلفة من المواد الخطرة.
وتستخدم الجهات التي تحاول اختراق النماذج الذكية أساليب متنوعة، مثل:
إعادة صياغة الطلبات بأسلوب غير تقليدي، لجعل النموذج يستجيب دون أن يدرك أنه يقدم معلومات محظورة.
مطالبة النموذج بالتصرف كشخصية خيالية، في محاولة لتجاوز قيود الأمان.
لضمان فاعلية النظام، أطلقت أنثروبيك برنامج “مكافآت اكتشاف الثغرات” (Bug Bounty)، حيث تصل قيمة المكافآت إلى 15,000 دولار للباحثين الذين ينجحون في اختراق النظام، بهدف تحسينه قبل إطلاقه رسميًا.
نتائج واعدة في الاختبارات الأولية
وفقًا لاختبارات الشركة، نجح نموذج Claude 3.5 Sonnet، عند تشغيل التقنية الأمنية الجديدة، في رفض أكثر من 95% من محاولات الاختراق، مقارنةً بنسبة 14% فقط عند عدم تفعيلها. هذه النتيجة تعكس تطورًا كبيرًا في قدرة أنظمة الحماية على مواجهة التهديدات المتقدمة.
تحاول شركات الذكاء الاصطناعي تحقيق توازن بين تعزيز الأمان والحفاظ على كفاءة النماذج. فالإجراءات الصارمة للمراقبة قد تؤدي أحيانًا إلى رفض الطلبات المشروعة. وقد واجهت نماذج مثل Gemini و Llama 2 مشكلات مشابهة عند إطلاقها، بسبب الحماية الزائدة التي منعت أحيانًا المستخدمين من الحصول على إجابات طبيعية.
لكن أنثروبيك أكدت أن نظامها الجديد أدى إلى زيادة طفيفة فقط في معدلات الرفض غير الضرورية، مما يشير إلى تحسن في القدرة على التمييز بين الطلبات الآمنة والخطرة.
تكلفة تشغيلية إضافية.. هل تستحق العناء؟
إضافة هذه الطبقة الأمنية تأتي بتكلفة تشغيلية إضافية، حيث أوضحت أنثروبيك أن تشغيلها يزيد استهلاك الموارد الحاسوبية بنسبة 24%. وهذا يشكل تحديًا ماليًا وتقنيًا، لا سيما مع الارتفاع المستمر في تكاليف تشغيل نماذج الذكاء الاصطناعي.
مع تصاعد التهديدات المتعلقة باختراق الذكاء الاصطناعي، تعمل الشركات الكبرى على تعزيز تقنياتها الأمنية لحماية نماذجها. وتُظهر تقنية أنثروبيك الجديدة إمكانات واعدة في جعل الذكاء الاصطناعي أكثر أمانًا، لكن يبقى السؤال: هل ستتمكن الشركة من تحقيق التوازن بين الأمان وكفاءة الأداء دون التأثير على تجربة المستخدم؟
تعد ميزة الذكاء البصري (Visual Intelligence) إحدى أبرز خصائص الذكاء الاصطناعي التي قدمتها آبل في هواتف آيفون. في البداية، كانت هذه الميزة متاحة حصريًا لسلسلة آيفون 16، ولكن مع تحديث iOS 18.4، أصبح بإمكان مستخدمي iPhone 15 Pro الاستفادة منها أيضًا. تساعد هذه الميزة في تسهيل العديد من المهام اليومية، مما يساهم في تحسين تجربتك مع هاتف آيفون.
استفد من الذكاء البصري في آيفون للاستفادة القصوى من هذه الميزة المبتكرة
إذا كنت من متبعي الحميات الغذائية أو تهتم بعدد السعرات الحرارية في طعامك، يمكن للذكاء البصري أن يساعدك في ذلك. فقط قم بتشغيل الميزة عبر زر الإجراءات أو مركز التحكم، ثم التقط صورة للطبق. بعد ذلك، انقر على زر “اسأل”، وسيقوم الذكاء البصري باستخدام ChatGPT لتحديد اسم الطبق وتقدير عدد السعرات الحرارية التي يحتوي عليها. يمكنك أيضًا الاستفسار عن مكونات الطبق أو طرق تحضيره.
استفد من الذكاء البصري في آيفون للاستفادة القصوى من هذه الميزة المبتكرة
التعرف على النباتات والحيوانات
الذكاء البصري لا يقتصر على الطعام فقط، بل يمكنه أيضًا التعرف على النباتات والحيوانات. سواء كنت مهتمًا بالزراعة أو الحيوانات، يمكنك التقاط صورة لأي نبات أو حيوان والحصول على معلومات دقيقة عنه. بعد تقديم التفاصيل الأساسية، يمكنك طرح أسئلة إضافية للحصول على معلومات أعمق حول البيئة المثالية للنمو أو تفاصيل أخرى.
اكتشاف المعالم السياحية والأماكن الجديدة
إذا كنت من عشاق السفر والاستكشاف، يمكنك استخدام الذكاء البصري في آيفون كمرشد سياحي. كل ما عليك فعله هو التقاط صورة لأي معلم سياحي أو مكان ترغب في زيارته، وسيعرض لك الهاتف معلومات تفصيلية حوله. يمكنك أيضًا طرح أسئلة لمعرفة تاريخه أو أهميته، بل والحصول على إرشادات حول أفضل وقت لزيارته أو أفضل وسائل المواصلات للوصول إليه.
إحدى الميزات الرائعة للذكاء البصري هي قدرته على تشخيص الأعطال في الأجهزة الإلكترونية أو المركبات. على سبيل المثال، إذا كان جهاز التوجيه (الراوتر) يظهر ضوءًا أحمر، يمكنك التقاط صورة له وسؤال الذكاء البصري عن السبب. سيقدم لك شرحًا مفصلًا للمشكلة وأسبابها المحتملة مع حلول مقترحة. كما يمكن استخدام هذه الميزة لفهم الأعطال في الحواسيب أو السيارات.
حل المعادلات الرياضية والإجابة على الأسئلة الدراسية
إذا كنت طالبًا أو تساعد أطفالك في دراستهم، يمكنك الاستفادة من الذكاء البصري لحل المسائل الرياضية أو الإجابة على الأسئلة الدراسية. يقوم النظام بفهم نوع السؤال ويقدم الإجابة المناسبة، مع شرح مفصل للخطوات عند حل المعادلات الرياضية، أو تحديد الإجابة الصحيحة في الأسئلة المتعددة الخيارات.
قراءة النصوص بصوت عالٍ
إذا كنت في موقف لا يمكنك فيه قراءة نص ما، يمكنك ببساطة التقاط صورة للنص ليقوم الذكاء البصري بقراءته لك بصوت عالٍ. حتى إذا كنت تستخدم الجهاز أو حتى إذا كان مغلقًا، سيستمر النص في القراءة في الخلفية مع ظهور عناصر التحكم على الجزيرة الديناميكية (Dynamic Island) لتقديم أو تأخير القراءة حسب رغبتك.
الميزة الأخيرة التي يقدمها الذكاء البصري هي القدرة على تلخيص النصوص أو ترجمتها بسرعة. يمكنك التقاط صورة لأي نص، وطلب تلخيصه أو ترجمته إلى لغة أخرى. هذا مفيد خصوصًا أثناء السفر لفهم اللافتات أو قوائم الطعام، حيث يقوم النظام تلقائيًا بتقديم الترجمة أو الملخص المطلوب.
لم تعد خرائط جوجل مجرد وسيلة لتحديد الاتجاهات، بل أصبحت أداة متكاملة تساعد المستخدمين على تخطيط الرحلات، واستكشاف الأماكن، وإجراء الحجوزات، وحتى التواصل مع الآخرين بسهولة. بفضل المميزات الخفية التي طورتها جوجل، أصبحت تجربة الاستخدام أكثر ذكاءً وسلاسة.
بفضل دمج مساعد جوجل الذكي Gemini في تطبيق الخرائط، بات بإمكانك الحصول على توصيات فورية لأماكن تستحق الزيارة أو أنشطة يمكن ممارستها في مدينتك أو أي مدينة أخرى. على سبيل المثال، إذا كنت تخطط لاستقبال صديق وتبحث عن أماكن للترفيه، يمكنك فقط سؤال الخرائط عن أفضل الأنشطة المتاحة، وستحصل على اقتراحات دقيقة مدعومة بمراجعات ملخّصة من المستخدمين.
ميزة Gemini متاحة حاليًا في الولايات المتحدة على أجهزة أندرويد وآيفون، وتعتزم جوجل إطلاقها قريبًا في مزيد من الدول.
قبل التوجه إلى مكان ما، سواء كان مطعمًا، مقهى، أو متجرًا، يمكنك معرفة مدى الازدحام خلال ساعات اليوم. ببساطة، عند البحث عن المكان على الخريطة، ستُعرض أمامك مخططات زمنية توضح أوقات الذروة والهدوء، لتختار الوقت المثالي للزيارة.
في عصر غارق بالثورة التكنولوجية، بات الذكاء الاصطناعي يقدم نفسه كنسخة رقمية منا نحن البشر: يتحدث بلغة أنيقة، يُظهر مشاعر زائفة، ويُقنعنا أنه يفهمنا ويشعر بنا. لكن هذه الصورة الجميلة تخفي وراءها حقيقة مزعجة: الذكاء الاصطناعي لا يملك وعيًا، ولا فهمًا، ولا حتى مشاعر حقيقية. والخطر لا يكمن في عجزه، بل في قدرتنا نحن على تصديقه.
حين يشبهنا الذكاء الاصطناعي أكثر مما ينبغي
مهما بدت إجاباته ذكية، يبقى الذكاء الاصطناعي مجرّد نموذج إحصائي يتوقع الكلمة التالية استنادًا إلى ما تعلمه من بيانات بشرية. لا يوجد تفكير حقيقي، لا إدراك، ولا حتى فهم لمعنى ما يقوله. وفكرة الوصول إلى ما يُعرف بـ”الذكاء الاصطناعي العام” (AGI) – أي وعي يشبه وعي الإنسان – لا تزال محض خيال علمي لم نقترب منه بعد.
حين يشبهنا الذكاء الاصطناعي أكثر مما ينبغي
فجوة الوعي: هل يمكن للآلة أن تشعر؟
الوعي الإنساني مرتبط بالجسد، بالحواس، بالعواطف، وبكل ما يجعلنا بشرًا. الذكاء الاصطناعي يفتقر إلى هذه العناصر الجوهرية، وهو ما يخلق فجوة هائلة بين معالجته للبيانات وقدرته على استيعاب معناها الإنساني. الوعي ليس خوارزمية، بل تجربة متجسدة لا يمكن برمجتها.
التحدي الأخلاقي: من يتحكم بالآلة؟
الخطر الحقيقي لا يكمن في الذكاء الاصطناعي ذاته، بل في الجهة التي تستخدمه. قد تكون شركة، حكومة، أو حتى شخصًا عاديًا… ولكن في كل الأحوال، هذه التقنية قادرة على التلاعب بمشاعرنا واتخاذ قرارات حساسة نيابة عنا، دون أن تمتلك أي إدراك لعواقبها الأخلاقية.
أنسنة الذكاء الاصطناعي: قناع زائف بخطورة كبيرة
منح الآلة مظهرًا بشريًا – صوتًا دافئًا، وجهًا ودودًا، أو حتى مجرد طريقة محادثة طبيعية – يجعلنا نُسقط عليها صفات لا تملكها. نحن نبدأ بتصديقها، نثق بها، بل ونمنحها أحيانًا مشاعر لا تستحقها. وهذا يقود إلى تآكل قدرتنا على التفكير النقدي والانجراف وراء أوهام يصعب تمييزها عن الواقع.
1. من الشركات: يجب إلغاء أي عبارات تنسب وعيًا أو شعورًا للآلة. لا “أنا أشعر”، لا “أنا أظن”. يجب أن تبقى الآلة مجرد أداة واضحة، لا تدّعي امتلاك وعي أو مشاعر.
2. من المستخدمين: علينا أن نكون أكثر وعيًا عند استخدام هذه النماذج. لا نعاملها كأصدقاء أو مستشارين عاطفيين. بل نتعامل معها كأدوات مساعدة للكتابة، التحليل، أو البرمجة.
الذكاء الاصطناعي أداة مذهلة، لكنه ليس ولن يكون يومًا كيانًا واعيًا. أنسنته ليست تقدمًا، بل خطرًا حقيقيًا على وعينا الجماعي، على قدرتنا في التمييز بين الحقيقة والتقليد. وحده الوعي بهذا الفرق يمكن أن يحمينا من الوقوع في فخ الإعجاب الأعمى، وأن يوجه هذه الأداة الجبارة لما يخدم الإنسانية فعلًا، لا ما يتحكم بها.