fbpx
Connect with us

أخبار الانترنت

كيف تحمي خصوصيتك عند استخدام Gemini و ChatGPT؟

Avatar of هند عيد

Published

on

Using ChatGPT Gemini and other AI securely 780x470 1

شهد العام الماضي نمواً كبيراً في تطبيقات وخدمات الذكاء الاصطناعي، ويبدو أن هذا النمو سيستمر لفترة طويلة، حيث يتم دمج الذكاء الاصطناعي الآن في جميع التطبيقات والأدوات التي نستخدمها يومياً مثل البريد الإلكتروني والتطبيقات المكتبية وأدوات تحرير الصور وأنظمة التشغيل ويندوز، و  أندرويد بالإضافة إلى بيئات تطوير متكاملة مثل فيجوال ستوديو وغيرها.

يقوم المطورون الآن بإنشاء العديد من التطبيقات الجديدة التي تستفيد من نماذج الذكاء الاصطناعي. وعلى الرغم من ذلك، لم يتمكن أي شخص حتى الآن من حل مشاكل الأمان التي يواجهها المستخدمون، مثل تسريب البيانات السرية واختراق الحسابات والأجهزة باستخدام الذكاء الاصطناعي، وكذلك نقص الضمانات ضد الهجمات الشريرة للذكاء الاصطناعي في المستقبل. لذا ينبغي عليك اكتساب بعض المهارات لتأمين بياناتك عند استخدام هذه الأدوات، بهدف حل هذه المشاكل.

كيف يمكنك استخدام تقنيات الذكاء الاصطناعي بأمان دون تعريض أمنك الرقمي للخطر؟

تزداد قلقاً بشأن خصوصية البيانات مع انتشار روبوتات الدردشة التي تعتمد على الذكاء الاصطناعي، خاصة مع استخدام البيانات في التدريب وحدوث تسريبات غير مقصودة.

إذ تنص  سياسة الخصوصية  التي تتبعها (  OpenAI  )، الشركة المطورة لروبوت  ChatGPT حفظ جميع المحادثات مع روبوت (ChatGPT) واستخدامها لأغراض متنوعة، مثل تدريب إصدارات جديدة من النماذج (GPT) لتحسين المنتجات ومنع انتهاكات شروط الخدمة.

ومع ذلك، فقد حدثت بالفعل  تسرب لبيانات المستخدمين بون قصد نتيجة لأخطاء في البرمجة، تم عرض عناوين سجل المحادثات الخاصة بمستخدمي ChatGPT بشكل عشوائي لبعض المستخدمين الآخرين.

يمكن لاستخدام البيانات في التدريب أيضًا أن يشكل خطرًا على الخصوصية، حيث قد يقوم مساعد الذكاء الاصطناعي بكشف معلوماتك لشخص آخر دون علمك إذا اعتبر أنها ذات صلة بالرد. بالإضافة إلى ذلك، قد استخدم المهاجمون الإصدارات (GPTs) المتاحة في متجر GPT، التي تم تطويرها لأداء مهمات معينة، لشن هجمات لسرقة المحادثات، مما يعني أن هذا الخطر لا يمكن تجاوزه بسهولة.

لذا، يجب عليك دائماً أن تتذكر أن محادثاتك مع Gemini و ChatGPT، وأي روبوتات دردشة أخرى قد تكون سبب في اختراق حسابك. ومن المهم أن تتخذ الإجراءات اللازمة لحماية بياناتك عند استخدامها.

كيف تحافظ على سلامة بياناتك عند استخدام تقنيات الذكاء الاصطناعي؟

لا تقوم بمشاركة أي بيانات شخصية مع الروبوتات الدردشة.

لا يُعتبر Gemini و ChatGPT وأي روبوتات دردشة أخرى مكان آمن لمشاركة المعلومات الحساسة أو التعامل معها، مثل البيانات المالية وكلمات المرور والمعلومات الشخصية وبيانات العمل السرية، لذا من الأفضل عدم مشاركة هذه المعلومات معها بأي حال من الأحوال، ويمكن استخدام علامات نجمية في حال الضرورة.

تجنب مشاركة أي وثائق تحتوي على معلومات حساسة أو سرية.

Many tools and plugins allow you to use chatbots to process documents quickly, which may be tempting to upload a work document for processing or quickly getting a summary of it. However, by uploading multiple-page documents for processing without thinking, you risk leaking sensitive information. البيانات السرية قد تتعرض للخطر المعلومات السرية والملكية الفكرية أو الأسرار التجارية عند معالجة المستندات الواردة من مصادر خارجية، مثل تاريخ إصدار منتج جديد أو كشوف مرتبات الفريق. وما يسوء الحال أكثر، هو أنه يمكن استهدافك بالاختراق عند فحص المستندات القادمة من الخارج.

 3- استخدم إعدادات الخصوصية:

قم بقراءة سياسة الخصوصية المتعلقة بالنموذج اللغوي الذي تستخدمه بعناية، ثم اختر الإعدادات المتاحة للتحكم في كيفية جمع واستخدام بياناتك. على سبيل المثال، يمكن لمنتجات OpenAI تعطيل حفظ المحادثات، وبهذه الطريقة، سيتم حذف البيانات بعد مرور 30 يومًا ولن يتم استخدامها في التدريب.

تقليل المخاطر المتعلقة بتطبيقات الأطراف الخارجية والإضافات.

حرص على اتباع النصائح السابقة عند استخدام أي نوع من الروبوتات الدردشة التي تعتمد على الذكاء الاصطناعي في عملها، حتى لو كانت معروفة مثل ChatGPT أو Gemini، ومع ذلك، قد لا يكون هذا كافياً لضمان الخصوصية، حيث يمكن أن يؤدي استخدام الإضافات مع الروبوتات الدردشة إلى تعريضك لأنواع جديدة من التهديدات الأمنية.

  • قد تكون سجلات المحادثات المخزنة على خوادم تتبع طرف ثالث الذي يدعم الإضافات المستخدمة مصدرًا للحزن، وليس فقط على خوادم شركات مثل جوجل أو OpenAI.
  • تعتمد معظم الإضافات المعلومات من مصادر خارجية، مثل عمليات البحث عبر الإنترنت أو البريد الوارد في البريد الإلكتروني أو الملاحظات الشخصية من خدمات مثل Notion أو Jupyter أو Evernote. قد تنتهي بياناتك من هذه الخدمات إلى الخوادم التي تعمل عليها الإضافة أو النموذج اللغوي نفسه.
  • يمكن استغلال إضافات روبوتات الدردشة لشن هجمات على المستخدمين، مثل إنشاء مستودعات GitHub جديدة باسمهم دون علمهم.

إذا كنت تبحث عن بعض الخصائص التي توفرها الإضافات، فيرجى اتخاذ كافة الاحتياطات الممكنة قبل استخدامها، مثل:

  • اختر الإضافات التي كانت متواجدة منذ عدة أشهر على الأقل وتُحدث بشكل منتظم.
  • فكر فقط في التطبيقات التي حققت عدداً كبيراً من التنزيلات، واطلع بعناية على المراجعات للبحث عن أي مشاكل.
  • إذا كانت التطبيقة لديها سياسة خصوصية، يرجى قراءتها بعناية قبل البدء باستخدامها.
  • اختر الأدوات المفتوحة المصدر.
  • إذا كنت تمتلك مهارات البرمجة، تحقق من التعليمات البرمجية لضمان أن الإضافات التي تستخدمها ترسل البيانات إلى الخوادم المعلنة فقط. وإذا لم تكن لديك هذه المهارات، فاطلب من صديق مبرمج مراجعة التعليمات البرمجية بالنيابة عنك، أو استخدم أداة تحليل الإضافات الموثوقة للتحقق من سلامة البيانات.

أخبار الانترنت

آبل تستعد لثورة جديدة: الذكاء الاصطناعي في الإشعارات

Avatar of هند عيد

Published

on

Apple AI Notifications 780x470 1

تعتزم شركة آبل إضافة ميزات الذكاء الاصطناعي في جميع أنحاء نظامها.  iOS 18  الجديد في هواتف الآيفون يتضمن قسم الإشعارات، حسب ما تم ذكره. في  تقرير  تم ننشره أخيرًا من قبل وكالة بلومبرغ الأمريكية.

وفقا للتقرير، ستعتمد آبل على التكنولوجيا الذكية في تطويرها. يُلخص الإشعارات المختلفة التي يتلقاها المستخدمون طوال اليوم.

ستستخدم هذه الميزة تلقائياً، ويمكن للمستخدمين الحصول على ملخصات صوتية للإشعارات من المساعد الشخصي الذكي “سيري”، بالإضافة إلى ميزات أخرى مثل تلخيص الأخبار وتحسين الاتصال باللغة الطبيعية.

يهدف العديد من التطبيقات إلى إرسال الإشعارات للمستخدمين لتشجيعهم على التفاعل المستمر معها، لكن هذا قد يؤدي إلى ازدحام قسم الإشعارات بكمية كبيرة منها بغض النظر عن أهميتها للمستخدم.

بعض المستخدمين يرون أن نظام إدارة الإشعارات في نظام iOS بحاجة إلى تطوير إضافي، وأن الذكاء الاصطناعي قد يلعب دورًا في تحسين إدارة الإشعارات، لتوفير مزيد من الفائدة للمستخدمين وتقليل تشتتهم.

ووفقًا للتقرير، تسعى آبل إلى تقديم مزايا الذكاء الاصطناعي في نظام iOS 18 معتمدة على المعالجة في الأجهزة، بينما ستكون هناك مزايا أخرى معتمدة على المعالجة في خوادم الشركة السحابية.

ذكر التقرير أن آبل قد تتخلى عن إضافة تطبيق للدردشة الذكية مثل ChatGPT و Gemini في النظام القادم، مما يعني أن الشركة قد لم تتوصل إلى اتفاق مع الشركات المنافسة لدمج تطبيقاتها في النظام.

أكدت آبل في وقت سابق قدوم مزايا الذكاء الاصطناعي إلى أجهزتها من خلال أنظمة التشغيل المستقبلية، ومن المقرر الإعلان عن التفاصيل في مؤتمر المطورين في بداية شهر يونيو القادم.

Continue Reading

أخبار الانترنت

جوجل تواجه ردود فعل سلبية بعد إطلاق مزايا البحث بالذكاء الاصطناعي

Avatar of هند عيد

Published

on

Google AI Search

أطلقت جوجل ميزة جديدة استخدمت الذكاء الاصطناعي في نتائج البحث، وهي تُعرف باسم “الملخصات الذكية”.  تجربة البحث التوليدية  وتقوم ب استخدام نماذج اللغات الكبيرة (LLM) لتلخيص محتوى نتائج البحث.

على الرغم من أن هذه الميزة تهدف إلى توفير قيمة إضافية للمستخدمين وتوفير الوقت اللازم للاطلاع على النتائج المختلفة، إلا أن بعض المستخدمين عبروا عن عدم رضاهم عنها واستفسروا عن كيفية تعطيلها.

وتقول جوجل إن تلك   الميزة  تظهر التعريفات الذكية عندما يعتبر المستخدم أنها تتيح مزيدًا من المعلومات من الروابط التقليدية، ولكنها في بعض الأحيان تقدم معلومات غير دقيقة وتسبب تأخيرًا في الحصول على الإجابة. وقد أبلغ بعض المستخدمين بوجود معلومات مضللة بشكل خطير في نتائج البحث.

في البداية، كانت هذه الخاصية اختيارية ضمن ما يسمى بـ “مختبرات البحث” في جوجل، حيث تقوم جوجل بتجربة المزايا الجديدة. ومؤخرًا، بدأت جوجل في توفير هذه الخاصية لجميع المستخدمين في الولايات المتحدة، ومن المقرر أن تكون متاحة قريبًا في بلدان أخرى.

أثار إعلان شركة جوجل استياء كبيرًا بين المستخدمين، حيث عبروا عن استيائهم في المنتديات الرسمية التابعة للشركة، مشيرين إلى أن الميزة تعيق تجربة البحث وتقدم معلومات غير صحيحة.

قال أحد المستخدمين في تعليق نشره في منتدى الدعم الفني: “أجد النتائج متكررة جدًا وغالبًا ما تكون غير دقيقة، وهي لا تتوافق مع ما أبحث عنه”، بينما قال آخر: “كل النتائج التي حصلت عليها من الملخصات التي تعتمد على الذكاء الاصطناعي كانت غير صحيحة. أستطيع فهم المقالات بمفردي بشكل أفضل من الذكاء الاصطناعي”.

بسبب الشكاوى المستمرة، لا يمكن حالياً تعطيل تلك الميزة بعد أن أصبحت متاحة للجميع. بدلاً من ذلك، قدمت جوجل خيارًا جديدًا يُعرف ببحث “الويب” الذي يُعيد ظهور البحث القديم مع تجنب الميزات الزائدة التي أطلقتها جوجل مؤخراً.

يأمل المستخدمون أن يجلب الخيار الجديد تجربة بحث أكثر يسرًا ودقة، بعيدًا عن التشتيت والمزايا المبالغ فيها التي تملأ نتائج البحث التقليدية بحسب وصفهم.

 

Continue Reading

أخبار الانترنت

ابتكار وتطوير: دور شركة سلاك في تطوير نماذج الذكاء الاصطناعي

Avatar of هند عيد

Published

on

18520241257800 شرسلا

تقوم سلاك بتدريب نماذج التعلم الآلي باستخدام رسائل المستخدم والملفات والمحتويات الأخرى دون الحصول على إذن واضح.

تستعمل المنصة بياناتك الشخصية تلقائيًا، ولكي تتوقف عن المشاركة يجب عليك أن تطلب من مدير الموارد البشرية أو قسم تكنولوجيا المعلومات في مؤسستك أن يرسل بريدًا إلكترونيًا إلى الشركة لطلب التوقف، ولا يمكنك القيام بذلك بنفسك.

و  اكتشف  كوري كوين  أحد المسؤولين التنفيذيين في مجموعة DuckBill تناول هذه السياسة في مبادئ خصوصية Slack وكتب عنها على منصة X.

وتنص السياسة على ما يلي: “بهدف تطوير نماذج الذكاء الاصطناعي وتعلم الآلة، تقوم أنظمتنا بتحليل بيانات العميل، مثل الرسائل والمحتوى والملفات المقدمة إلى سلاك، بالإضافة إلى معلومات أخرى تتضمن معلومات الاستخدام، كما هو محدد في سياسة الخصوصية وفي اتفاقية العميل.”

ووفقًا لسياسة الخصوصية، لإلغاء الاشتراك يجب أن تطلب من مالكي مؤسستك أو مساحة العمل أو المالك الأساسي التواصل مع فريق خدمة عملاء سلاك باستخدام عنوان مساحة العمل أو المؤسسة. سنقوم بمعالجة طلبك والرد عليك فور اكتمال عملية إلغاء الاشتراك.

ردت الشركة على تغريدة كوين قائلة: “تملك سلاك نماذج تعلم آلي على مستوى المنصة مخصصة لأشياء مثل اقتراحات القنوات والرموز التعبيرية ونتائج البحث. يمكن للعملاء استثناء بياناتهم من استخدامها لتدريب نماذج تعلم الآلة”.

من غير الواضح منذ متى قامت الشركة التابعة لشركة Salesforce بتعديل سياسة الخصوصية.

تساهم التناقضات في سياسات خصوصية “سلاك” في زيادة الحيرة؛ حيث يشير أحد الأقسام إلى أن “سلاك” لا تستطيع الوصول إلى المحتوى الأساسي عند تطوير نماذج التعلم الآلي أو عند تحليل بيانات العملاء بأساليب أخرى، وذلك لأنها تتبع إجراءات تقنية متعددة تحول دون حدوث ذلك.

يبدو أن نهج تدريب نماذج التعلم الآلي يتناقض مع هذا القسم، مما يخلق مساحة كبيرة للارتباك.

وتأخذ صفحة تسويق أدوات الذكاء الاصطناعي التوليدي على عاتقها التأكيد: “إننا لا نستخدم بياناتك لتدريب نماذج الذكاء الاصطناعي. كل العمليات تجري ضمن البنية التحتية الآمنة للمنصة وتلتزم بنفس معايير الامتثال التي تعتمدها سلاك”.

في هذا السياق، تشير الشركة إلى أدوات الذكاء الاصطناعي التوليدي المميزة التي تختلف عن نماذج التعلم الآلي التي تُدرب على البيانات دون الحصول على إذن صريح.

ويمكن اعتبار الادعاء بأن جميع بياناتك محمية من تدريب الذكاء الاصطناعي خادعاً، إذ تقوم الشركة باختيار نماذج الذكاء الاصطناعي التي يشملها هذا البيان.

 

Continue Reading

Trending