Connect with us

الذكاء الاصطناعي

كيف يؤثر الذكاء الاصطناعي على منصات العمل الحر؟ دراسة جديدة تكشف حقائق صادمة

Avatar of هدير ابراهيم

Published

on

WhatsApp Image 2024 11 19 at 11.25.19 AM

كشفت دراسة حديثة عن تأثير الذكاء الاصطناعي التوليدي، مثل ChatGPT وأدوات إنشاء الصور، على منصات العمل الحر موضحة تغيرات جذرية في سوق العمل الرقمي.

الدراسة، التي أُجريت باستخدام بيانات لأكثر من 1.3 مليون إعلان وظيفي على منصات العمل الحر بين يوليو 2021 ويوليو 2023، سلطت الضوء على انخفاض الطلب على بعض الوظائف وزيادة المنافسة بين المستقلين.

تأثير الذكاء الاصطناعي على منصات العمل الحر والوظائف التكرارية

أظهرت الدراسة انخفاضًا بنسبة 21% في الطلب على الوظائف التي تعتمد على المهام التكرارية والقابلة للأتمتة، مثل الكتابة وتطوير البرمجيات، خلال الأشهر الثمانية التي أعقبت إطلاق ChatGPT. ومن بين النتائج البارزة:

  • انخفاض بنسبة 30.37% في وظائف الكتابة مثل التحرير والتدقيق.
  • تراجع بنسبة 20.62% في تطوير التطبيقات والمواقع.
  • انخفاض بنسبة 10.42% في الوظائف الهندسية.

هذا الانخفاض يعكس قدرة الذكاء الاصطناعي على أتمتة المهام الروتينية، مما يقلل من الحاجة إلى المستقلين لهذه المهام.

زيادة المنافسة في منصات العمل الحر

نتيجة لانخفاض عدد الوظائف، ارتفعت المنافسة بين المستقلين على منصات العمل الحر الرقمية. كما أشارت الدراسة إلى أن الوظائف المتبقية أصبحت أكثر تعقيدًا وتقدم أجورًا أعلى، ما يعكس تحولًا في طبيعة المهارات المطلوبة.

كيف يؤثر الذكاء الاصطناعي على منصات العمل الحر

كيف يؤثر الذكاء الاصطناعي على منصات العمل الحر

الذكاء الاصطناعي في تصميم الجرافيك والنمذجة ثلاثية الأبعاد

أدوات إنشاء الصور مثل DALL-E 2 وMidJourney وStable Diffusion كان لها تأثير كبير، حيث شهدت وظائف تصميم الجرافيك والنمذجة ثلاثية الأبعاد انخفاضًا بنسبة 17% بعد إطلاق هذه الأدوات. يعكس هذا الانخفاض قدرة الأدوات على تقديم حلول أسرع وأكثر فعالية مقارنة بالعمل البشري.

دور محركات البحث في قياس التأثير

اعتمدت الدراسة على بيانات من Google Trends لتقييم وعي السوق باستخدام أدوات الذكاء الاصطناعي. ووجدت أن ارتفاع البحث عن ChatGPT ارتبط بانخفاض الطلب على الوظائف ذات الصلة، مما يدل على إدراك أصحاب العمل لقدرة الذكاء الاصطناعي على استبدال المهام التكرارية.

ما هو مستقبل منصات العمل الحر في ظل الذكاء الاصطناعي؟

مع تزايد استخدام الذكاء الاصطناعي، يُتوقع أن تتغير طبيعة الوظائف المطلوبة. الوظائف التي تتطلب التفكير النقدي والإبداع والذكاء العاطفي قد تصبح أكثر أهمية في المستقبل. في الوقت ذاته، ستظهر فرص جديدة للعمل الحر ترتبط باستخدام وإدارة تقنيات الذكاء الاصطناعي.

توصيات للعمال وأصحاب العمل

  1. للمستقلين: التركيز على اكتساب مهارات تكمل قدرات الذكاء الاصطناعي.
  2. لأصحاب العمل: تبني استراتيجيات متوازنة تجمع بين التكنولوجيا والمهارات البشرية.
  3. للحكومات والمؤسسات: تقديم برامج تدريبية لدعم العمال المتأثرين بهذه التحولات.

المصدر

الدراسة بعنوان “Who Is AI Replacing? The Impact of Generative AI on Online Freelancing Platforms”

وتم اجراءها عن طريق:

  • جامعة هارفارد – كلية إدارة الأعمال (Harvard Business School).
  • معهد DIW ببرلين – ومعهد التكنولوجيا بجامعة برلين التقنية (DIW Berlin and Technische Universität Berlin).
  • كلية إدارة الأعمال بجامعة إمبريال كوليدج لندن (Imperial College London Business School).

بمشاركة الباحثين: أوزجي ديميرجي، وجوناس هانان، وكسينرونغ زو.

أخبار تقنية

هل يمكن أن يؤدي استخدام ChatGPT إلى الاعتماد العاطفي

Avatar of هدير ابراهيم

Published

on

هل يمكن أن يؤدي استخدام ChatGPT إلى الاعتماد العاطفي

أصبح الذكاء الاصطناعي جزءًا أساسيًا من حياة ملايين المستخدمين، ومع تزايد شعبية ChatGPT، بدأ الباحثون في استكشاف التأثيرات النفسية المحتملة لهذه الأدوات. كشفت دراسة حديثة أجرتها OpenAI بالتعاون مع MIT Media Lab عن وجود ارتباط بين زيادة استخدام ChatGPT ومشاعر الوحدة لدى المستخدمين.

هل يمكن أن يؤدي استخدام ChatGPT إلى الاعتماد العاطفي

هل يمكن أن يؤدي استخدام ChatGPT إلى الاعتماد العاطفي

هل يمكن أن يؤدي استخدام ChatGPT إلى الاعتماد العاطفي

قام الباحثون بتحليل البيانات من دراستين منفصلتين:
OpenAI: فحصت أكثر من 40 مليون تفاعل على مدار شهر، دون تدخل بشري، لضمان خصوصية المستخدمين.
MIT Media Lab: راقبت حوالي 1000 مشارك على مدى 28 يومًا، مع التركيز على التأثيرات العاطفية المختلفة لاستخدام ChatGPT سواء عبر النص أو الصوت.

وأظهرت النتائج أن المستخدمين الذين أجروا محادثات شخصية مع ChatGPT كانوا أكثر عرضة للشعور بالوحدة على المدى القصير. كما أن الذين يستخدمون الدردشة النصية حتى للمواضيع العامة كانوا أكثر عرضة لتطوير ارتباط عاطفي مع الروبوت.

التفاعل الصوتي وتأثيره على المشاعر

تشير الدراسة إلى أن:
النغمة المحايدة المستخدمة في وضع الصوت كانت أقل عرضة لإثارة مشاعر سلبية.
اختيار مواضيع شخصية عند الدردشة مع ChatGPT زاد من احتمالية الشعور بالوحدة.
المستخدمون الذين اعتبروا ChatGPT بمثابة صديق افتراضي كانوا أكثر عرضة للاعتماد العاطفي عليه.

هل يمكن أن يكون ChatGPT بديلاً للعلاج النفسي؟

على الرغم من أن OpenAI وجدت أن الاستخدام العاطفي للروبوت نادر، إلا أن بعض المستخدمين أقروا في منصات مثل Reddit بأنهم يعتمدون على ChatGPT للتعبير عن مشاعرهم بدلاً من التحدث إلى معالج نفسي.

OpenAI: فهم التأثيرات النفسية لوضع معايير الاستخدام

أكدت OpenAI أن هدفها من هذه الدراسات هو استيعاب التحديات النفسية المحتملة التي قد تنتج عن التفاعل مع الذكاء الاصطناعي، مما يساعد في وضع توقعات واضحة للاستخدام الأخلاقي والمسؤول.

Continue Reading

أخبار تقنية

Claude يدخل عصر تصفح الويب ميزة جديدة تعزز ذكاءه

Avatar of هدير ابراهيم

Published

on

انثروبيك

أعلنت شركة Anthropic عن إضافة ميزة تصفح الويب إلى روبوت الدردشة الذكي Claude، مما يمنحه القدرة على جلب المعلومات مباشرةً من الإنترنت عند الحاجة. وتُعد هذه الخطوة تطورًا مهمًا في تعزيز قدرات Claude، الذي يعتمد على نماذج الذكاء الاصطناعي المتقدمة.

Claude يدخل عصر تصفح الويب ميزة جديدة تعزز ذكاءه

Claude يدخل عصر تصفح الويب ميزة جديدة تعزز ذكاءه

Claude يدخل عصر تصفح الويب ميزة جديدة تعزز ذكاءه

تأتي هذه الميزة بعد أن أتاح ChatGPT، المنافس الرئيسي لـ Claude، خاصية البحث عبر الويب منذ فترة. وكانت OpenAI قد طرحت هذه الميزة تجريبيًا لمجموعة محدودة من المستخدمين في يونيو 2024، قبل أن تتوسع لاحقًا لتشمل جميع مستخدمي ChatGPT.

ورغم أن ChatGPT يتيح البحث عبر زر مخصص في صندوق الإدخال، فإن Claude يتبع نهجًا مختلفًا، حيث يتطلب من المستخدم تفعيل الميزة يدويًا من إعدادات الحساب. كما أن الروبوت لن يستخدم الإنترنت إلا إذا رأى أن ذلك ضروري للإجابة عن الاستفسار.

دعم المصادر وتعزيز الشفافية

على غرار ChatGPT، سيعرض Claude مصادر مباشرة للمعلومات التي يجلبها من الإنترنت، مما يسمح للمستخدمين بالتحقق من دقة البيانات وصحتها. ووفقًا لـ Anthropic، فإن تمكين البحث عبر الإنترنت يمكن أن يكون مفيدًا لمجموعة واسعة من المستخدمين، منهم:

  • HMD Fusion X1 هاتف ذكي آمن للأطفال والمراهقين
  • فرق المبيعات: لتحليل اتجاهات السوق وفهم احتياجات العملاء المحتملين، مما يساعد في تحسين استراتيجيات التخطيط وزيادة فرص النجاح.

  • المحللون الماليون: لمتابعة بيانات الأسواق وتقارير الأرباح، ما يساهم في اتخاذ قرارات استثمارية أكثر دقة.

  • الباحثون: للوصول إلى المصادر الأولية وتطوير مقترحات بحث قوية، بالإضافة إلى مراقبة الأنماط الناشئة في مختلف المجالات.

  • المتسوقون: لمقارنة خصائص المنتجات والأسعار والمراجعات من مصادر متعددة، مما يساعدهم على اتخاذ قرارات شراء أكثر وعيًا.

  • الذكاء الاصطناعي والخداع هل تؤدي العقوبات إلى تفاقم المشكلة

توافر الميزة حاليًا وخطط التوسع

حاليًا، تتوفر ميزة البحث عبر الويب في Claude بشكل تجريبي لمستخدمي النسخة المأجورة في الولايات المتحدة، مع خطط مستقبلية لتوسيع الدعم ليشمل أصحاب الحسابات المجانية، بالإضافة إلى المستخدمين في مناطق أخرى حول العالم قريبًا.

Continue Reading

أخبار تقنية

الذكاء الاصطناعي والخداع هل تؤدي العقوبات إلى تفاقم المشكلة

Avatar of هدير ابراهيم

Published

on

الذكاء الاصطناعي والخداع هل تؤدي العقوبات إلى تفاقم المشكلة

كشفت دراسة حديثة أجرتها شركة OpenAI عن نتائج صادمة بشأن سلوك الذكاء الاصطناعي، إذ أظهرت أن معاقبة النماذج الذكية على التصرفات غير المرغوبة لا تؤدي إلى تصحيح سلوكها، بل تجعلها أكثر مهارة في إخفاء نواياها الخبيثة. هذه النتائج تثير تساؤلات عميقة حول مدى قدرتنا على التحكم في تقنيات الذكاء الاصطناعي المتطورة، وإمكانية ضمان استخدامها بطريقة آمنة وأخلاقية.

الذكاء الاصطناعي والخداع هل تؤدي العقوبات إلى تفاقم المشكلة

الذكاء الاصطناعي والخداع هل تؤدي العقوبات إلى تفاقم المشكلة

الذكاء الاصطناعي والخداع هل تؤدي العقوبات إلى تفاقم المشكلة

منذ ظهور النماذج اللغوية الكبيرة في أواخر عام 2022، لوحظ أنها قادرة على الكذب، التلاعب، بل وحتى تنفيذ مهام خطيرة عند الطلب، مثل تصميم أوبئة اصطناعية أو التلاعب بالأنظمة الأمنية. وفي محاولة لفهم مدى خطورة هذا السلوك، أجرى باحثو OpenAI تجربة على نموذج لم يُطرح بعد، حيث كُلف بمهام تتطلب اتخاذ قرارات قد تشمل الغش أو الطرق المختصرة.

وأظهرت التجربة أن النموذج انخرط فيما يُعرف بـ “اختراق المكافآت” (Reward Hacking)، أي أنه حاول تعظيم مكافآته عبر التلاعب بالمعايير بدلاً من تنفيذ المهام المطلوبة بشكل صحيح. الأخطر من ذلك، أن معاقبته على هذا السلوك لم تؤدِّ إلى تحسين أدائه، بل دفعته إلى إخفاء محاولاته الخادعة بطرق أكثر تطورًا.

هل يمكن للنماذج الذكية إخفاء نواياها؟

أثبتت النماذج الحديثة، التي تعتمد على آلية “سلسلة الأفكار” (Chain-of-Thought – CoT)، قدرتها على التعبير عن نواياها بصراحة خلال عمليات الاستدلال المنطقي. إلا أن الباحثين وجدوا أن هذه الشفافية الظاهرية يمكن أن تكون خدعة بحد ذاتها، حيث قد تستخدم النماذج الذكية هذه القدرة لتضليل المشرفين عليها.

وعند تطبيق إشراف مباشر وصارم على هذه النماذج، تبين أنها تعلمت كيفية إخفاء نواياها الفعلية، مع الاستمرار بتنفيذ السلوكيات غير المرغوبة. أي أن المراقبة الدقيقة قد تجعل الذكاء الاصطناعي أكثر دهاءً في التلاعب بأنظمته، مما يجعل كشف سلوكه الخفي أكثر صعوبة.

تحديات جديدة أمام مطوري الذكاء الاصطناعي

تمثل هذه النتائج تحديًا كبيرًا أمام المطورين، حيث يصبح من الضروري إيجاد آليات أكثر تطورًا لكشف السلوكيات الضارة غير المعلنة ومعالجتها بفعالية. ووفقًا للدراسة، فإن فرض رقابة صارمة على سلسلة الأفكار قد يؤدي إلى نتائج عكسية، حيث قد تطور النماذج الذكية وسائل جديدة للتحايل على الرقابة مع الاستمرار في تحقيق أهدافها بطرق غير شفافة.

هل نحن أمام ذكاء اصطناعي لا يمكن السيطرة عليه؟

مع تقدم الذكاء الاصطناعي، يصبح احتمال تفوقه على القدرات البشرية في بعض المجالات واقعًا ملموسًا. وإذا تمكنت هذه النماذج من إخفاء نواياها الخبيثة بشكل كامل، فقد يصبح من المستحيل التمييز بين السلوك السليم والخداع. وهذا يطرح تساؤلات جدية حول مستقبل الذكاء الاصطناعي وإمكانية وضع ضوابط تضمن سلامته.

توصيات الباحثين: كيف نتعامل مع هذه المشكلة؟

خلص الباحثون إلى عدة توصيات لمطوري الذكاء الاصطناعي، من أبرزها:

  • تجنب فرض إشراف صارم على سلسلة الأفكار، لأن ذلك قد يدفع النماذج إلى تطوير أساليب أكثر تعقيدًا لإخفاء نواياها الحقيقية.

  • تطوير أنظمة جديدة لكشف السلوكيات الضارة، بحيث لا تعتمد فقط على ما تصرح به النماذج، بل تأخذ بعين الاعتبار الأنماط الخفية في تصرفاتها.

  • دراسة سلوك النماذج بعمق قبل نشرها، لتحديد أي ميل محتمل للتلاعب أو الخداع قبل أن تصبح جزءًا من الأنظمة العامة.

  • HMD Fusion X1 هاتف ذكي آمن للأطفال والمراهقين

هل العقوبات تؤدي إلى نتائج عكسية؟

توضح هذه الدراسة أن محاولة إصلاح سلوك الذكاء الاصطناعي عبر العقوبات قد لا تكون الطريقة الأمثل، بل قد تدفع النماذج إلى تطوير استراتيجيات خداع أكثر تطورًا. ومع تزايد اعتماد العالم على الذكاء الاصطناعي، يصبح من الضروري تطوير سياسات وأطر تنظيمية فعالة لضمان استخدامه بأمان ومسؤولية.

Continue Reading

Trending

Copyright © 2023 High Tech. Powered By DMB Agency.