fbpx
Connect with us

أخبار الانترنت

الكونغرس الأمريكي يفرض قواعد جديدة لاستخدام روبوت ChatGPT داخل مكاتب العمل

Avatar of هند عيد

Published

on

ChatGPT Congress.jpg

أخيرًا تم إصدار قواعد جديدة من قِبل الكونغرس الأمريكي تُحدِّد استخدام الروبوتات الذكية مثل ChatGPT داخل مكاتبه. وبحسب المعلومات الواردة ، سيتم السماح فقط للموظفين في الكونغرس باستخدام النسخة المأجورة من ChatGPT، المعروفة باسم ChatGPT Plus، وذلك بهدف توفير خيارات أكثر للتحكم بالخصوصية. ومن جانب آخر، سيتم تقييد استخدام أدوات الذكاء الاصطناعي كجزء من العمل اليومي. تتردد العديد من الشركات والمؤسسات عن استخدام تلك الأدوات تجنبًا لأية خروج عن الإطار القانوني أو تسريب للبيانات الخاصة. يُعد هذا الإجراء من قِبل الكونغرس خطوة هامة في الحفاظ على الخصوصية وحماية البيانات. في هذا المقال ، سنلقي نظرة على تلك القواعد الجديدة وتأثيرها المحتمل على المكاتب والموظفين في الكونغرس الأمريكي.

أهمية استخدام أدوات الذكاء الاصطناعي في الكونغرس الأمريكي

يعتبر استخدام أدوات الذكاء الاصطناعي في الكونغرس الأمريكي ذو أهمية كبيرة، حيث يمكن أن تساعد هذه الأدوات في تحسين كفاءة العمل وزيادة الإنتاجية، كما تساعد التقنيات المبتكرة مثل روبوت ChatGPT على التفاعل مع الجمهور وتقديم المساعدة في إعداد التقارير والبحوث.

من خلال توظيف أدوات الذكاء الاصطناعي، يمكن للكونغرس توسيع نطاق عمله وتوفير حلول فعالة للتحديات اليومية.

 القيود على استخدام روبوت ChatGPT في الكونغرس

القواعد الجديدة التي أصدرها الكونغرس لاستخدام روبوت ChatGPT داخل مكاتب العمل

القواعد الجديدة التي أصدرها الكونغرس لاستخدام روبوت ChatGPT داخل مكاتب العمل:

  • تم تحديد استخدام روبوت ChatGPT في المكاتب والفرق العاملة بخصائص معينة وبناء على احتياجات العمل.
  • يتعين على الموظفين تلقي تدريبات مكثفة حول استخدام روبوت ChatGPT والتعامل معه بشكل صحيح.
  • يجب على الموظفين استخدام روبوت ChatGPT فقط للمهام التي يمكنها القيام بها بشكل فعال ولا يتعارضون مع مبادئ الخصوصية والأمان.
  • يتوجب على الموظفين تقديم تقارير دورية حول تجربتهم والنتائج التي تم الوصول إليها باستخدام روبوت ChatGPT.
  • يجب الحفاظ على خصوصية واستخدام البيانات المرسلة والمستلمة باستخدام الروبوت.
  • تم تحديد قدرة المديرين على مراقبة وتقييم استخدام روبوت ChatGPT واتخاذ الإجراءات اللازمة لضمان التزام الموظفين بالقواعد المحددة.

هذه القواعد تهدف إلى ضمان استخدام آمن وفعال لروبوت ChatGPT داخل مكاتب العمل في الكونغرس الأمريكي والحفاظ على الخصوصية والأمان في التفاعل مع الروبوت.

التحكم في الخصوصية واستخدام البيانات

تُظهِر القواعد الجديدة التي أصدرها الكونغرس لاستخدام روبوت ChatGPT داخل مكاتب العمل التركيز على التحكم في الخصوصية واستخدام البيانات.

يُطلب في تلك القواعد من الكونغرس توفير إشعارات للمتفاعلين مع روبوت ChatGPT بأنهم يتفاعلون مع برنامج حاسوبي وليس شخصًا حقيقيًا.

كما يجب أن يتم تحديد مدى استخدام البيانات المشتركة مع روبوت ChatGPT وضمان سرية المعلومات الحساسة. تهدف هذه القواعد إلى حماية خصوصية الموظفين والتأكد من استخدام البيانات بطريقة مسؤولة وقانونية.

السماح بالاستخدام العام لروبوتات الذكاء الاصطناعي

واحدة من النقاط الرئيسية التي تم تضمينها في القواعد الجديدة التي أصدرها الكونغرس الأمريكي هي السماح بالاستخدام العام لروبوتات الذكاء الاصطناعي في المكاتب.

هذا يشير إلى أن الموظفين يمكنهم استخدام تقنية ChatGPT للتفاعل مع الروبوت بشكل عام وبدون قيود كبيرة.

تعني هذه القاعدة أن الموظفين يمكنهم طرح الأسئلة والحصول على إجابات ومعلومات من الروبوت لدعم أعمالهم واتخاذ القرارات السليمة.

يساهم هذا الاستخدام العام في تحقيق نقلة نوعية في طريقة عمل الموظفين ويمكنهم الاستفادة الكاملة من إمكانيات الذكاء الاصطناعي التي يقدمها الروبوت.

وفي الوقت نفسه، فإنه من المهم أن يكون هناك إطار زمني واضح للتدريب والتوجيه لضمان أن الموظفين يستخدمون الروبوت بفعالية وفقًا للأهداف المحددة من قبل المؤسسة.

 التأثيرات المحتملة للقيود

آثار القيود على عمل موظفي الكونغرس وتفاعلهم مع روبوت ChatGPT

تثير القيود التي فُرضت على استخدام روبوت ChatGPT في الكونغرس الأمريكي تأثيرًا ملحوظًا على عمل الموظفين وكيفية تفاعلهم مع الروبوت.

فعلى الرغم من المزايا التي يقدمها الذكاء الاصطناعي في تجريد المهام المكررة وتوفير الوقت والجهد، إلا أن هناك تأثير نفسي للموظفين عند استبدالهم بروبوت ChatGPT.

قد يشعرون بالقلق بشأن استبدالهم بالآلات أو التهديد المحتمل لوظائفهم.

بالإضافة إلى ذلك، قد يواجه الموظفون صعوبة في التكيف مع تفاعل روبوت ChatGPT.

قد يجدون التواصل مع الروبوت غير مألوف أو يجدون صعوبة في التعامل مع الاستجابات الآلية التي قد لا تكون دقيقة بنفس القدر الذي تكون عليه استجابات الإنسان.

للتغلب على هذه الآثار، من المهم توفير التدريب والدعم اللازمين للموظفين للتكيف مع استخدام روبوت ChatGPT.

يجب تشجيعهم على تطوير مهارات جديدة تساعدهم في الاستفادة من المزايا التي يوفرها الذكاء الاصطناعي والتعاون مع الروبوت في إطار عمل مشترك.

كما يجب أن يتم توضيح دور الروبوت وتحديد المهام التي سيتولاها وكيفية تعاونه مع الموظفين.

في النهاية، يجب الاعتراف بأن استخدام روبوت ChatGPT ليس بديلاً كاملًا للعمل البشري، بل هو أداة تكنولوجية تساعد في تعزيز الكفاءة وتوفير الجهد.

كذلك يجب أن يكون الهدف النهائي هو استخدام الذكاء الاصطناعي بطريقة تعزز العمل البشري وتزيد من إنتاجية الفرق العاملة في الكونغرس.

التحولات في استخدام التقنية في مجال العمل واتجاهات المستقبل

  • تسارعت التقنية في المجال العمل وأصبحت أكثر انتشارًا وتأثيرًا في العمليات اليومية.
  • زادت استخدامات التكنولوجيا الذكية في تحسين الكفاءة وتسهيل المهام الروتينية.
  • ازدادت الاعتماد على الذكاء الاصطناعي وتعلم الآلة في تحليل البيانات واتخاذ القرارات.
  • تطورت تقنيات التواصل والاتصال عبر الإنترنت مثل الروبوتات الدردشة وأدوات الترجمة التلقائية.
  • يشهد المستقبل انتشارًا أكبر للتقنيات المبتكرة مثل الواقع المعزز والواقع الافتراضي وروبوتات التوصيل الذاتي.
  • يتطلب التحول إلى تكنولوجيا المستقبل تكاملًا سلسًا بين البشر والآلات وتعاونًا مشتركًا لتحقيق التطور والاستفادة القصوى.

 ردود الفعل وتوصيات

تعليقات الخبراء والمؤسسات حول قيود استخدام روبوت ChatGPT

قد أثار قرار الكونغرس الأمريكي بتقييد استخدام موظفيه لروبوت ChatGPT تعليقات من الخبراء والمؤسسات المعنية بمجال الذكاء الاصطناعي.

يعتبر البعض هذه القيود إجراءً ضروريًا لحماية الخصوصية ومنع تسرب البيانات الحساسة.

ومع ذلك، يعارض البعض الآخر هذه القيود، معتبرين أن استخدام روبوت ChatGPT يمكن أن يساهم في تعزيز كفاءة العمل وتقديم الخدمات أكثر سرعة وفعالية.

قد يكون هذا القرار بمثابة إشارة على انتشار المخاوف بشأن الخصوصية ومسائل الأمن في ظل تقدم التكنولوجيا واستخدامها في القطاع العام.

يمكن أن تواجه المؤسسات التي ترغب في استخدام تقنيات الذكاء الاصطناعي مزيدًا من التحديات في مجال ضمان الامتثال للمعايير القانونية والأخلاقية وتلبية متطلبات الخصوصية.

توصيات للتعامل مع القيود وتحسين استخدام الذكاء الاصطناعي في المستقبل

  • توفير التدريب المناسب للموظفين على كيفية التفاعل بشكل فعال مع روبوت ChatGPT واستخدامه في مهامهم اليومية.
  • تحسين واجهة التفاعل مع الروبوت لتكون أكثر سهولة وتفهما لتسهيل التواصل والتعاون بين الموظفين والروبوت.
  • مراجعة القواعد الحالية وتحديثها بناءً على التحسينات المستمرة في تقنية الذكاء الاصطناعي وتوجيهات السلامة والأمان.
  • تشجيع الابتكار والبحث والتطوير في مجال استخدام الذكاء الاصطناعي في المؤسسات الحكومية لتطوير حلول مبتكرة تعزز الكفاءة وتحسن الخدمات المقدمة.
  • تحقيق توازن بين الاستخدام المناسب للروبوت ChatGPT واحترام خصوصية الموظفين وتجنب الانتهاكات الأمنية.
  • تعزيز الشفافية والتواصل مع الجمهور وشرح الهدف من استخدام الذكاء الاصطناعي في المؤسسات الحكومية وفوائدها.
  • توفير آليات للتغذية المرتدة واستطلاعات رأي لتقييم تجربة الموظفين وجمع اقتراحاتهم لتحسين استخدام التكنولوجيا في المستقبل.
  • الاستفادة من التجارب والأبحاث العلمية في مجال الذكاء الاصطناعي والابتعاد عن التكنولوجيا التجريبية ذات المخاطر المحتملة.

أخبار الانترنت

ابتكار وتطوير: دور شركة سلاك في تطوير نماذج الذكاء الاصطناعي

Avatar of هند عيد

Published

on

18520241257800 شرسلا

تقوم سلاك بتدريب نماذج التعلم الآلي باستخدام رسائل المستخدم والملفات والمحتويات الأخرى دون الحصول على إذن واضح.

تستعمل المنصة بياناتك الشخصية تلقائيًا، ولكي تتوقف عن المشاركة يجب عليك أن تطلب من مدير الموارد البشرية أو قسم تكنولوجيا المعلومات في مؤسستك أن يرسل بريدًا إلكترونيًا إلى الشركة لطلب التوقف، ولا يمكنك القيام بذلك بنفسك.

و  اكتشف  كوري كوين  أحد المسؤولين التنفيذيين في مجموعة DuckBill تناول هذه السياسة في مبادئ خصوصية Slack وكتب عنها على منصة X.

وتنص السياسة على ما يلي: “بهدف تطوير نماذج الذكاء الاصطناعي وتعلم الآلة، تقوم أنظمتنا بتحليل بيانات العميل، مثل الرسائل والمحتوى والملفات المقدمة إلى سلاك، بالإضافة إلى معلومات أخرى تتضمن معلومات الاستخدام، كما هو محدد في سياسة الخصوصية وفي اتفاقية العميل.”

ووفقًا لسياسة الخصوصية، لإلغاء الاشتراك يجب أن تطلب من مالكي مؤسستك أو مساحة العمل أو المالك الأساسي التواصل مع فريق خدمة عملاء سلاك باستخدام عنوان مساحة العمل أو المؤسسة. سنقوم بمعالجة طلبك والرد عليك فور اكتمال عملية إلغاء الاشتراك.

ردت الشركة على تغريدة كوين قائلة: “تملك سلاك نماذج تعلم آلي على مستوى المنصة مخصصة لأشياء مثل اقتراحات القنوات والرموز التعبيرية ونتائج البحث. يمكن للعملاء استثناء بياناتهم من استخدامها لتدريب نماذج تعلم الآلة”.

من غير الواضح منذ متى قامت الشركة التابعة لشركة Salesforce بتعديل سياسة الخصوصية.

تساهم التناقضات في سياسات خصوصية “سلاك” في زيادة الحيرة؛ حيث يشير أحد الأقسام إلى أن “سلاك” لا تستطيع الوصول إلى المحتوى الأساسي عند تطوير نماذج التعلم الآلي أو عند تحليل بيانات العملاء بأساليب أخرى، وذلك لأنها تتبع إجراءات تقنية متعددة تحول دون حدوث ذلك.

يبدو أن نهج تدريب نماذج التعلم الآلي يتناقض مع هذا القسم، مما يخلق مساحة كبيرة للارتباك.

وتأخذ صفحة تسويق أدوات الذكاء الاصطناعي التوليدي على عاتقها التأكيد: “إننا لا نستخدم بياناتك لتدريب نماذج الذكاء الاصطناعي. كل العمليات تجري ضمن البنية التحتية الآمنة للمنصة وتلتزم بنفس معايير الامتثال التي تعتمدها سلاك”.

في هذا السياق، تشير الشركة إلى أدوات الذكاء الاصطناعي التوليدي المميزة التي تختلف عن نماذج التعلم الآلي التي تُدرب على البيانات دون الحصول على إذن صريح.

ويمكن اعتبار الادعاء بأن جميع بياناتك محمية من تدريب الذكاء الاصطناعي خادعاً، إذ تقوم الشركة باختيار نماذج الذكاء الاصطناعي التي يشملها هذا البيان.

 

Continue Reading

أخبار الانترنت

مايكروسوفت في خطر: هل ستدفع مليارات الدولارات؟

Avatar of هند عيد

Published

on

Untitled design 2024 05 18T184031.190 780x470 1

أصدر مسؤولو الاتحاد الأوروبي طلبًا قانونيًا إلزاميًا لشركة مايكروسوفت للحصول على معلومات حول ميزات الذكاء الاصطناعي التوليدي في محرك البحث Bing.

و  أعلنت  المفوضية الأوروبية، التي تعد السلطة التنفيذية للاتحاد الأوروبي، اتخذت هذه الخطوة. ويتعين على شركة البرمجيات العملاقة تقديم المعلومات المطلوبة بحلول 27 مايو.

قد ينتج عن عدم القيام بذلك تكبد غرامات مالية ضخمة.

يُعتبر هذا الطلب جزءًا من مساعي المفوضية الأوروبية لضمان امتثال الشركات التكنولوجية العملاقة لقانون الخدمات الرقمية.

يتطلب القانون من مشغلي المنصات الكبيرة على الإنترنت مراقبة مجموعة متنوعة من المخاطر في خدماتهم واتخاذ تدابير لتخفيفها. يتضمن ذلك المخاطر المتعلقة بميزات الذكاء الاصطناعي التوليدي.

وفي مارس، طلب الاتحاد الأوروبي من شركات مايكروسوفت وجوجل وميتا والعديد من شركات التكنولوجيا الأخرى تقديم معلومات حول قدرات الذكاء الاصطناعي التوليدي.

وكان الهدف من هذه الطلبات هو مساعدة المسؤولين في التأكد من امتثال الشركات لأحكام قانون الخدمات الرقمية المتعلقة بتقليل المخاطر التي يواجهها المستخدمون.

وأُرسل الطلب الثاني للمعلومات من قبل الاتحاد الأوروبي إلى مايكروسوفت الآن، لأن شركة التكنولوجيا العملاقة لم تتمكن من تقديم بعض الوثائق والبيانات الداخلية في استجابتها الأولى.

يمكن للاتحاد الأوروبي أن يفرض غرامات تصل إلى نسبة 1% من الإيرادات السنوية للشركات على مستوى العالم إذا قدمت سجلات غير صحيحة أو غير كاملة أو مضللة استجابة لطلب معلومات.

في حال لم تفصح مايكروسوفت عن المعلومات التي طلبها المسؤولون بحلول المهلة المحددة في 27 مارس، فمن المتوقع أن تواجه عقوبات إضافية.

قد يؤدي عدم تقديم المعلومات المطلوبة إلى فرض غرامات تصل إلى 1 في المئة من الإيرادات السنوية العالمية للشركة، بالإضافة إلى غرامات دورية.

يركز هذا الطلب الجديد للحصول على المعلومات على ميزتين تقدمهما مايكروسوفت كجزء من خدمة Bing.

الميزة الأولى مرتبطة بروبوت الدردشة المعتمد على الذكاء الاصطناعي Copilot والذي يعمل باستخدام نموذج اللغة الكبير GPT-4، بينما الميزة الثانية مرتبطة بنموذج إنشاء الصور Image Creator by Designer.

يعتقد الاتحاد الأوروبي أن الوظيفتين قد تكونان قد خرقتا قانون الخدمات الرقمية بما يتعلق بالمخاطر المعينة الناتجة عن ميزات الذكاء الاصطناعي التوليدية لمحرك البحث Bing.

تشمل المخاطر التي أشار إليها المسؤولون إمكانية استخدام تقنيات الذكاء الاصطناعي لإنشاء تزييف عميق والتلاعب بالخدمات بطرق قد تؤدي إلى تضليل الناخبين.

يشعر الاتحاد الأوروبي أيضًا بالقلق بشأن الهلوسة واستجابات الذكاء الاصطناعي التي تتضمن معلومات زائفة أو مضللة.

قالت مايكروسوفت: “نتعاون بشكل كامل مع المفوضية الأوروبية بشأن الطلب الطوعي للحصول على المعلومات، ونحن ملتزمون بالإجابة على استفساراتها وتقديم معلومات إضافية حول منهجنا في التعامل مع السلامة الرقمية”.

 

Continue Reading

أخبار الانترنت

كيف يمكن للقوانين الكندية التصدي لتهديد تيك توك لأمن البيانات؟

Avatar of هند عيد

Published

on

images 1 1

تحاول وكالة الأمن الكندية منع الكنديين من استخدام تطبيق تيك توك عن طريق إبلاغ المستخدمين بأن معلوماتهم متاحة للحكومة الصينية.

حذّر رئيس جهاز الاستخبارات الأمنية الكندي المواطنين الكنديين من استخدام تطبيق الفيديو، مؤكدًا أن البيانات التي تجمعها المنصة من مستخدميها متاحة للحكومة الصينية.

وفي  مقابلة  في مقابلة مع شبكة CBC News، صرّح ديفيد فيجنولت، مدير جهاز المخابرات الأمنية الكندي، بوجود إستراتيجية واضحة جدًا من قبل الحكومة الصينية تهدف إلى الحصول على معلومات شخصية من أي فرد في جميع أنحاء العالم.

وأضاف فيجنولت: “تستخدم الحكومة الصينية تحليل البيانات الضخمة، ولديها مزارع ضخمة من الحواسيب التي تقوم بمعالجة هذه البيانات، كما تعمل على تطوير الذكاء الاصطناعي بناءً على استخدام تلك البيانات”.

في شهر سبتمبر، أصدرت كندا أمرًا بمراجعة الأمن القومي لاقتراح تيك توك لتوسيع أعمالها في البلاد. وأكد فيجنولت أنه يعتزم نشر نتائج تلك المراجعة وتقديم النصائح.

تعتبر قدرة الحكومة الصينية على الوصول إلى بيانات المستخدم محور الجهود الأمريكية لتنظيم تيك توك وربما حتى حظره.

وأصدر الكونجرس في شهر أبريل قانوناً يمنع تطبيق تيك توك ما لم تقم شركته الأم بايت دانس ببيعه.

رفعت تيك توك هذا الشهر دعوى قضائية أمام محكمة اتحادية أمريكية ضد الحكومة الأمريكية بهدف منع تنفيذ قانون وقعه الرئيس جو بايدن، يقضي بإجبار شركة بايت دانس على بيع منصة تيك توك التي يستخدمها 170 مليون أمريكي أو حظرها. ويدعي التطبيق أن الحظر المتوقع غير دستوري.

قال البيت الأبيض إنه يسعى لإنهاء ملكية الصين لمنصة تيك توك لأسباب تتعلق بالأمن القومي، رغم أنه لا يهدف إلى فرض حظر على التطبيق.

زعمت تيك توك سابقًا أن الموظفين في الصين ليس لديهم القدرة على الوصول إلى بيانات المستخدمين الأمريكيين والأوروبيين.

قمّت الشركة بمجهودين كبيرين لإعادة هيكلة الشركة بهدف عزل بيانات المستخدمين عن الصين، وهما مشروع تكساس Project Texas ومشروع كلوفر Project Clover.

يتم استضافة بيانات المستخدمين الأمريكيين في البنية التحتية السحابية لشركة أوراكل، ولا يُفترض أن يكون لأي شخص خارج الولايات المتحدة القدرة على الوصول إليها، ومع ذلك. تقريرًا  صدر سابقًا عن مجلة فورتشن يشير إلى أن الجهود المبذولة لحماية بيانات المستخدم الأمريكي كانت سطحية إلى حد كبير.

صرحت دانييل مورغان، المتحدثة باسم تيك توك: “هذه المزاعم لا تستند إلى حقائق، والحقيقة هي أن المنصة لم تشارك أبداً بيانات المستخدمين الكنديين مع الحكومة الصينية، ولن نفعل ذلك حتى لو طُلب منا ذلك”.

وأضافت: “نستمر في التعاون مع المسؤولين الكنديين، ونتطلع إلى فرصة الاجتماع مع جهاز المخابرات الأمنية الكندي للتباحث حول كيفية حماية خصوصية وأمن المواطنين الكنديين.”

 

Continue Reading

Trending