fbpx
Connect with us

أخبار الانترنت

علماء جامعة ستانفورد: ChatGPT يزداد غباءً ! تعرف على تفاصيل الدراسة من هنا

Avatar of هند عيد

Published

on

184759 W

I. ما هو ChatGPT وكيف يعمل؟

مفهوم وظيفة ChatGPT

تم تطوير ChatGPT بواسطة OpenAI وهو نموذج للذكاء الاصطناعي (AI) يستخدم للدردشة والتفاعل مع المستخدمين.

يعتمد ChatGPT على نموذج آخر يسمى GPT (تطور الأجناس المؤتلفة) الذي يهدف إلى توليد نصوص طبيعية مشابهة للنصوص التي يتم تدريبه عليها.

تقنية التعلم العميق في ChatGPT

يعتمد ChatGPT على تقنية التعلم العميق (Deep Learning) لتحليل وفهم التركيب والمعنى في الجمل والقواعد اللغوية.

يتم تدريبه على مجموعة كبيرة من البيانات اللغوية والحوارات لتحسين قدرته على إنتاج إجابات منطقية ومفهومة.

ومع ذلك، أكد علماء جامعة ستانفورد في دراسة حديثة أن ChatGPT يعاني من قدرات ضعيفة في فهم بعض السياقات اللغوية المعقدة وفي تقديم أجوبة صحيحة ودقيقة.

اكتشف الباحثون أن الطريقة التي تم جمع البيانات فيها تسببت في اكتساب ChatGPT لبعض السلوكيات السلبية والأفكار المشوهة.

النتائج الحالية تعني أن هناك مجالًا لتحسين هذه التقنية وتطويرها لتزيد من قدراتها على التفاعل الذكي والمفيد مع المستخدمين.

علماء جامعة ستانفورد: ChatGPT يزداد غباءً

في دراسة حديثة قام بها علماء جامعة ستانفورد، تمت مراجعة ذكاء ChatGPT، الذي يعتبر أحد أبرز نماذج التعلم العميق في مجال توليد النصوص.

استنتاجات الدراسة حول ذكاء ChatGPT

ووفقًا للاستنتاجات التي توصلت إليها الدراسة، فإن ChatGPT يزداد غباءً مع زيادة تعقيد الأسئلة التي يتم طرحها عليه.

على الرغم من أنه يظهر قدرة عالية في إعطاء إجابات سليمة على أسئلة بسيطة ومباشرة، إلا أنه يفتقر إلى قدرة التفاعل بشكل نمطي وفعال مع أسئلة أكثر تعقيدًا واستدلال.

هذا يعكس حاجة المزيد من العمل على تحسين أداء النموذج.

تحليل النتائج المتوصل إليها في الدراسة

تشير النتائج المتوصل إليها في الدراسة إلى أن تعقيد الأسئلة واختبارها قد يكون عاملاً حاسمًا في تحديد ذكاء ChatGPT.

ومن المهم استكشاف الاختلافات وتحليل النتائج لتطوير استخدامات أوسع لنموذج توليد النصوص مثل ChatGPT في المستقبل.

لمزيد من المعلومات حول دراسة جامعة ستانفورد حول ChatGPT، يمكنكم الاطلاع على المصدر التالي في ويكيبيديا: https://en.wikipedia.org/wiki/ChatGPT

مشاكل في تصميم وتطوير ChatGPT

قيود وتحديات في تصميم ChatGPT

على الرغم من التقدم الكبير الذي أحرزه ChatGPT في مجال الذكاء الاصطناعي، إلا أنه لا يخلو من بعض القيود والتحديات في تصميمه وتطويره، ومن هذه القيود والتحديات:

  1. نقص المعرفة: يُعتبر نقص المعرفة من أبرز التحديات التي تواجه تصميم ChatGPT. فبالرغم من أنه يتعلم من كمّ هائل من البيانات، إلا أنه قد يواجه صعوبة في تحليل بعض الأسئلة أو الأوامر المعقدة التي تتطلب مهارات ومعرفة عميقة.
  2. ضعف التفاعل العاطفي: قد يعاني ChatGPT من ضعف التفاعل العاطفي وقدراته على فهم وتفسير العواطف المعبر عنها في النصوص. قد يعتبر ذلك تحديًا في بعض الاستخدامات التي تتطلب تواصلًا عاطفيًا وقدرة على التعبير عن المشاعر.
  3. نقص التعقيد في المحادثة: قد يعاني ChatGPT من صعوبة في التعامل مع محادثات تعقيدية ذات أطوال طويلة، حيث قد يفقد التركيز أو يعطي إجابات غير متسقة. قد يكون من الصعب بناء حوار متسق ومنطقي مع ChatGPT في بعض الأحيان.

صعوبات في تحسين ذكاء ChatGPT

على الرغم من أن فريق علماء جامعة ستانفورد قد حقق تقدمًا كبيرًا في تحسين ذكاء ChatGPT، إلا أنه لا يمكن تجاهل وجود بعض الصعوبات في هذا الصدد، ومن هذه الصعوبات:

  1. تكاليف التدريب: يتطلب تحسين ذكاء ChatGPT جمع كمية كبيرة من البيانات وتصميم نماذج تدريب ضخمة. هذا يتطلب جهودًا وموارد مالية هائلة لشراء وتطوير التقنيات والبنية التحتية لتدريب النماذج.
  2. تأخر في التعلم: قد يستغرق تدريب ChatGPT وقتًا طويلًا قبل أن يتمكن من تعلم وفهم البيانات والعمل على إنتاج إجابات دقيقة ومفهومة. هذا التأخير قد يشكل تحديًا في تطبيقات الوقت الحقيقي التي تتطلب ردود فورية.
  3. تحسين التبادل اللغوي: قد يواجه علماء جامعة ستانفورد صعوبة في تحسين تبادل اللغة مع ChatGPT بشكل فعال. يعتمد تحسين الأداء على تحليل الاستجابات السلوكية وتعديل خوارزميات التدريب وترتيب البيانات.

على الرغم من هذه الصعوبات، إلا أن الفريق ما زال يعمل بجد لتحسين ذكاء ChatGPT وتطويره لتلبية متطلبات المستخدمين بشكل أفضل.

 الآثار السلبية لزيادة غباء ChatGPT

تأثير زيادة غباء ChatGPT على جودة الاستجابات

دراسة حديثة قام بها علماء جامعة ستانفورد قد أظهرت أن زيادة غباء ChatGPT يمكن أن يؤثر سلباً على جودة استجاباته.

بدلاً من تقديم إجابات دقيقة ومعلومات صحيحة، علمت النماذج بالمزيد من الأخطاء والتشتت.

هذا يمكن أن يؤدي إلى استجابات غير مفهومة أو غير ملائمة للسؤال المطروح.

تزيد زيادة غباء ChatGPT من احتمالية تقديم استجابات غير صحيحة أو شطب الأدلة أو إعطاء معلومات خاطئة.

بالإضافة إلى ذلك، يمكن أن يتسبب الزيادة في التشتت في تضييع الوقت وزيادة الالتباس للمستخدمين.

المشاكل الناجمة عن زيادة غباء ChatGPT

زيادة غباء ChatGPT يمكن أن يؤدي إلى عدة مشاكل وتحديات، بما في ذلك:

  • انخفاض جودة الاستجابات: زيادة غباء ChatGPT يعني أن النموذج يمكن أن يقدم استجابات غير دقيقة أو غير صحيحة، مما يمكن أن يؤثر على فائدته في التفاعل مع المستخدمين.
  • صعوبة التفاعل الفعّال: عندما يكون ChatGPT أكثر غباء، فإنه يمكن أن يواجه صعوبة في فهم السياق والمعنى العميق للسؤال المطروح، مما يجعله أقل قدرة على توفير استجابة ذات جودة عالية.
  • ضياع الوقت: قد يؤدي زيادة غباء ChatGPT إلى الحاجة إلى المزيد من التفاصيل أو الإيضاحات من المستخدمين، مما يضيع الوقت ويجعل العملية أكثر تعقيدًا وصعوبة.

بشكل عام، يجب أن يتم التعامل مع زيادة غباء ChatGPT بجدية حتى لا تتأثر جودة التفاعلات وتجربة المستخدم النهائية.

 التحسينات المستقبلية المقترحة لتجنب زيادة غباء ChatGPT

نظرًا للزيادة في حالات الغباء التي تظهر في ChatGPT ، يعمل علماء جامعة ستانفورد على اقتراح تحسينات مستقبلية لتجنب هذه المشكلة وتحسين ذكاء ChatGPT. إليك بعض الأفكار والتوصيات لتطوير ذكاء ChatGPT:

أفكار وتوصيات لتطوير ذكاء ChatGPT

  1. تحسين مجموعة البيانات: يمكن تحسين ChatGPT من خلال توسيع وتنويع مجموعة البيانات المستخدمة في تدريبه. يمكن استخدام معلومات من مصادر متنوعة مثل المنتديات ومواقع التواصل الاجتماعي لتعزيز تفاعله وفهمه للغة الطبيعية.
  2. تقييم أوتوماتيكي: يمكن استخدام تقييم أوتوماتيكي لتحديد مدى جودة وبدقة إجابات ChatGPT. يمكن استخدام هذا التقييم لتدريب النموذج على تجنب الإجابات غير الصحيحة وزيادة الإجابات الذكية.

الابتكارات المقترحة لاستخدام تقنيات أخرى في ChatGPT

  1. الذكاء الصناعي المشترك: يمكن استخدام تقنيات الذكاء الاصطناعي المشترك لتحسين أداء ChatGPT. يمكن استخدام البرمجة المشتركة والتفاعل مع البشر لتعزيز قدراته وزيادة مستوى ذكائه.
  2. التعلم المستمر: يمكن تحسين ChatGPT من خلال تطبيق تقنيات التعلم المستمر. يتعلم النموذج من التفاعلات السابقة ويستخدم هذه المعرفة لتحسين أدائه في المرات اللاحقة.

عند تطبيق هذه التحسينات والابتكارات المقترحة ، يمكن أن يتحسن ذكاء ChatGPT ويتجنب زيادة الغباء في إجاباته. هذا سيسمح للنموذج بتقديم إجابات أكثر ذكاءً وفهمًا للمستخدمين.

أخبار الانترنت

ابتكار وتطوير: دور شركة سلاك في تطوير نماذج الذكاء الاصطناعي

Avatar of هند عيد

Published

on

18520241257800 شرسلا

تقوم سلاك بتدريب نماذج التعلم الآلي باستخدام رسائل المستخدم والملفات والمحتويات الأخرى دون الحصول على إذن واضح.

تستعمل المنصة بياناتك الشخصية تلقائيًا، ولكي تتوقف عن المشاركة يجب عليك أن تطلب من مدير الموارد البشرية أو قسم تكنولوجيا المعلومات في مؤسستك أن يرسل بريدًا إلكترونيًا إلى الشركة لطلب التوقف، ولا يمكنك القيام بذلك بنفسك.

و  اكتشف  كوري كوين  أحد المسؤولين التنفيذيين في مجموعة DuckBill تناول هذه السياسة في مبادئ خصوصية Slack وكتب عنها على منصة X.

وتنص السياسة على ما يلي: “بهدف تطوير نماذج الذكاء الاصطناعي وتعلم الآلة، تقوم أنظمتنا بتحليل بيانات العميل، مثل الرسائل والمحتوى والملفات المقدمة إلى سلاك، بالإضافة إلى معلومات أخرى تتضمن معلومات الاستخدام، كما هو محدد في سياسة الخصوصية وفي اتفاقية العميل.”

ووفقًا لسياسة الخصوصية، لإلغاء الاشتراك يجب أن تطلب من مالكي مؤسستك أو مساحة العمل أو المالك الأساسي التواصل مع فريق خدمة عملاء سلاك باستخدام عنوان مساحة العمل أو المؤسسة. سنقوم بمعالجة طلبك والرد عليك فور اكتمال عملية إلغاء الاشتراك.

ردت الشركة على تغريدة كوين قائلة: “تملك سلاك نماذج تعلم آلي على مستوى المنصة مخصصة لأشياء مثل اقتراحات القنوات والرموز التعبيرية ونتائج البحث. يمكن للعملاء استثناء بياناتهم من استخدامها لتدريب نماذج تعلم الآلة”.

من غير الواضح منذ متى قامت الشركة التابعة لشركة Salesforce بتعديل سياسة الخصوصية.

تساهم التناقضات في سياسات خصوصية “سلاك” في زيادة الحيرة؛ حيث يشير أحد الأقسام إلى أن “سلاك” لا تستطيع الوصول إلى المحتوى الأساسي عند تطوير نماذج التعلم الآلي أو عند تحليل بيانات العملاء بأساليب أخرى، وذلك لأنها تتبع إجراءات تقنية متعددة تحول دون حدوث ذلك.

يبدو أن نهج تدريب نماذج التعلم الآلي يتناقض مع هذا القسم، مما يخلق مساحة كبيرة للارتباك.

وتأخذ صفحة تسويق أدوات الذكاء الاصطناعي التوليدي على عاتقها التأكيد: “إننا لا نستخدم بياناتك لتدريب نماذج الذكاء الاصطناعي. كل العمليات تجري ضمن البنية التحتية الآمنة للمنصة وتلتزم بنفس معايير الامتثال التي تعتمدها سلاك”.

في هذا السياق، تشير الشركة إلى أدوات الذكاء الاصطناعي التوليدي المميزة التي تختلف عن نماذج التعلم الآلي التي تُدرب على البيانات دون الحصول على إذن صريح.

ويمكن اعتبار الادعاء بأن جميع بياناتك محمية من تدريب الذكاء الاصطناعي خادعاً، إذ تقوم الشركة باختيار نماذج الذكاء الاصطناعي التي يشملها هذا البيان.

 

Continue Reading

أخبار الانترنت

مايكروسوفت في خطر: هل ستدفع مليارات الدولارات؟

Avatar of هند عيد

Published

on

Untitled design 2024 05 18T184031.190 780x470 1

أصدر مسؤولو الاتحاد الأوروبي طلبًا قانونيًا إلزاميًا لشركة مايكروسوفت للحصول على معلومات حول ميزات الذكاء الاصطناعي التوليدي في محرك البحث Bing.

و  أعلنت  المفوضية الأوروبية، التي تعد السلطة التنفيذية للاتحاد الأوروبي، اتخذت هذه الخطوة. ويتعين على شركة البرمجيات العملاقة تقديم المعلومات المطلوبة بحلول 27 مايو.

قد ينتج عن عدم القيام بذلك تكبد غرامات مالية ضخمة.

يُعتبر هذا الطلب جزءًا من مساعي المفوضية الأوروبية لضمان امتثال الشركات التكنولوجية العملاقة لقانون الخدمات الرقمية.

يتطلب القانون من مشغلي المنصات الكبيرة على الإنترنت مراقبة مجموعة متنوعة من المخاطر في خدماتهم واتخاذ تدابير لتخفيفها. يتضمن ذلك المخاطر المتعلقة بميزات الذكاء الاصطناعي التوليدي.

وفي مارس، طلب الاتحاد الأوروبي من شركات مايكروسوفت وجوجل وميتا والعديد من شركات التكنولوجيا الأخرى تقديم معلومات حول قدرات الذكاء الاصطناعي التوليدي.

وكان الهدف من هذه الطلبات هو مساعدة المسؤولين في التأكد من امتثال الشركات لأحكام قانون الخدمات الرقمية المتعلقة بتقليل المخاطر التي يواجهها المستخدمون.

وأُرسل الطلب الثاني للمعلومات من قبل الاتحاد الأوروبي إلى مايكروسوفت الآن، لأن شركة التكنولوجيا العملاقة لم تتمكن من تقديم بعض الوثائق والبيانات الداخلية في استجابتها الأولى.

يمكن للاتحاد الأوروبي أن يفرض غرامات تصل إلى نسبة 1% من الإيرادات السنوية للشركات على مستوى العالم إذا قدمت سجلات غير صحيحة أو غير كاملة أو مضللة استجابة لطلب معلومات.

في حال لم تفصح مايكروسوفت عن المعلومات التي طلبها المسؤولون بحلول المهلة المحددة في 27 مارس، فمن المتوقع أن تواجه عقوبات إضافية.

قد يؤدي عدم تقديم المعلومات المطلوبة إلى فرض غرامات تصل إلى 1 في المئة من الإيرادات السنوية العالمية للشركة، بالإضافة إلى غرامات دورية.

يركز هذا الطلب الجديد للحصول على المعلومات على ميزتين تقدمهما مايكروسوفت كجزء من خدمة Bing.

الميزة الأولى مرتبطة بروبوت الدردشة المعتمد على الذكاء الاصطناعي Copilot والذي يعمل باستخدام نموذج اللغة الكبير GPT-4، بينما الميزة الثانية مرتبطة بنموذج إنشاء الصور Image Creator by Designer.

يعتقد الاتحاد الأوروبي أن الوظيفتين قد تكونان قد خرقتا قانون الخدمات الرقمية بما يتعلق بالمخاطر المعينة الناتجة عن ميزات الذكاء الاصطناعي التوليدية لمحرك البحث Bing.

تشمل المخاطر التي أشار إليها المسؤولون إمكانية استخدام تقنيات الذكاء الاصطناعي لإنشاء تزييف عميق والتلاعب بالخدمات بطرق قد تؤدي إلى تضليل الناخبين.

يشعر الاتحاد الأوروبي أيضًا بالقلق بشأن الهلوسة واستجابات الذكاء الاصطناعي التي تتضمن معلومات زائفة أو مضللة.

قالت مايكروسوفت: “نتعاون بشكل كامل مع المفوضية الأوروبية بشأن الطلب الطوعي للحصول على المعلومات، ونحن ملتزمون بالإجابة على استفساراتها وتقديم معلومات إضافية حول منهجنا في التعامل مع السلامة الرقمية”.

 

Continue Reading

أخبار الانترنت

كيف يمكن للقوانين الكندية التصدي لتهديد تيك توك لأمن البيانات؟

Avatar of هند عيد

Published

on

images 1 1

تحاول وكالة الأمن الكندية منع الكنديين من استخدام تطبيق تيك توك عن طريق إبلاغ المستخدمين بأن معلوماتهم متاحة للحكومة الصينية.

حذّر رئيس جهاز الاستخبارات الأمنية الكندي المواطنين الكنديين من استخدام تطبيق الفيديو، مؤكدًا أن البيانات التي تجمعها المنصة من مستخدميها متاحة للحكومة الصينية.

وفي  مقابلة  في مقابلة مع شبكة CBC News، صرّح ديفيد فيجنولت، مدير جهاز المخابرات الأمنية الكندي، بوجود إستراتيجية واضحة جدًا من قبل الحكومة الصينية تهدف إلى الحصول على معلومات شخصية من أي فرد في جميع أنحاء العالم.

وأضاف فيجنولت: “تستخدم الحكومة الصينية تحليل البيانات الضخمة، ولديها مزارع ضخمة من الحواسيب التي تقوم بمعالجة هذه البيانات، كما تعمل على تطوير الذكاء الاصطناعي بناءً على استخدام تلك البيانات”.

في شهر سبتمبر، أصدرت كندا أمرًا بمراجعة الأمن القومي لاقتراح تيك توك لتوسيع أعمالها في البلاد. وأكد فيجنولت أنه يعتزم نشر نتائج تلك المراجعة وتقديم النصائح.

تعتبر قدرة الحكومة الصينية على الوصول إلى بيانات المستخدم محور الجهود الأمريكية لتنظيم تيك توك وربما حتى حظره.

وأصدر الكونجرس في شهر أبريل قانوناً يمنع تطبيق تيك توك ما لم تقم شركته الأم بايت دانس ببيعه.

رفعت تيك توك هذا الشهر دعوى قضائية أمام محكمة اتحادية أمريكية ضد الحكومة الأمريكية بهدف منع تنفيذ قانون وقعه الرئيس جو بايدن، يقضي بإجبار شركة بايت دانس على بيع منصة تيك توك التي يستخدمها 170 مليون أمريكي أو حظرها. ويدعي التطبيق أن الحظر المتوقع غير دستوري.

قال البيت الأبيض إنه يسعى لإنهاء ملكية الصين لمنصة تيك توك لأسباب تتعلق بالأمن القومي، رغم أنه لا يهدف إلى فرض حظر على التطبيق.

زعمت تيك توك سابقًا أن الموظفين في الصين ليس لديهم القدرة على الوصول إلى بيانات المستخدمين الأمريكيين والأوروبيين.

قمّت الشركة بمجهودين كبيرين لإعادة هيكلة الشركة بهدف عزل بيانات المستخدمين عن الصين، وهما مشروع تكساس Project Texas ومشروع كلوفر Project Clover.

يتم استضافة بيانات المستخدمين الأمريكيين في البنية التحتية السحابية لشركة أوراكل، ولا يُفترض أن يكون لأي شخص خارج الولايات المتحدة القدرة على الوصول إليها، ومع ذلك. تقريرًا  صدر سابقًا عن مجلة فورتشن يشير إلى أن الجهود المبذولة لحماية بيانات المستخدم الأمريكي كانت سطحية إلى حد كبير.

صرحت دانييل مورغان، المتحدثة باسم تيك توك: “هذه المزاعم لا تستند إلى حقائق، والحقيقة هي أن المنصة لم تشارك أبداً بيانات المستخدمين الكنديين مع الحكومة الصينية، ولن نفعل ذلك حتى لو طُلب منا ذلك”.

وأضافت: “نستمر في التعاون مع المسؤولين الكنديين، ونتطلع إلى فرصة الاجتماع مع جهاز المخابرات الأمنية الكندي للتباحث حول كيفية حماية خصوصية وأمن المواطنين الكنديين.”

 

Continue Reading

Trending