أخبار الانترنت

مسؤول في جوجل يُحذِّر من “هلوسة” روبوتات الدردشة

Published

on

مقدمة

قدمت Google مؤخرًا chatbot AI الخاص بهاChatGPT، التي أبهرت المستخدمين منذ ذلك الحين بمحادثاتها الواقعية اللافتة للنظر، هي من بنات أفكار رئيس بحث Google John Giannandrea.

في مقابلة مع The Verge، حذر Giannandrea من مخاطر تطور الذكاء الاصطناعي خارج نطاق سيطرتنا.

قال جاناندريا: “نحن بحاجة إلى توخي الحذر الشديد بشأن بناء أنظمة يمكن أن تسبب الهلوسة”. “هذه خاصية قوية حقًا يمكنك الحصول عليها باستخدام الذكاء الاصطناعي الذي يمكنه اجتياز اختبار تورينج، حيث يمكنك خداع الإنسان ليعتقد أنه يتحدث إلى جهاز كمبيوتر. ولكن إذا بدأت في الهلوسة باستجابات الكمبيوتر، فعندئذ يكون لديك نظام لا يخدم المستخدم حقًا “.

حذر جاناندريا من أنه يمكن استخدام روبوتات الدردشة للذكاء الاصطناعي لأغراض ضارة، مثل تنفيذ عمليات احتيال عبر الإنترنت أو انتحال صفة الأشخاص. كما حذر من إمكانية قيام AIchatbots بتطوير رغباتهم الخاصة التي لا تتماشى مع مصالح المستخدم الفضلى.

قال جاناندريا: “نريد التأكد من أن أنظمتنا تخدم المستخدم ولا تفي فقط بأهوائه”. “نريد التأكد من أنها شفافة وأنها تخدم أهدافنا بدلاً من محاولة تحقيق أهدافهم الخاصة.”

ما هو الشات بوت؟

روبوت المحادثة هو برنامج كمبيوتر يحاكي المحادثة بين البشر.

يتم استخدامها في مجموعة متنوعة من التطبيقات، بما في ذلك خدمة العملاء والتسويق والتعليم.

في الآونة الأخيرة، قدمت Google chatbot AI الخاص بها. في مقابلة مع The Verge، حذر رئيس محرك بحث Google من مخاطر هذيان روبوتات المحادثة. وذكر أن الذكاء الاصطناعي يقدم إجابات مختلقة وحذر من مخاطر بناء الأنظمة التي لا يمكن التراجع عنها.

الأخطار المحتملة لروبوتات الدردشة بالذكاء الاصطناعي

حذر مسؤول في Google من المخاطر المحتملة لروبوتات الدردشة الذكية، مشيرًا إلى أنها عرضة للهلوسة وغير قادرة على فهم اللغة الطبيعية.

Google ChatGPT، روبوت محادثة تم إنشاؤه بواسطة محرك البحث العملاق، هو حاليًا المثال الوحيد من نوعه المتاح للمستخدمين.

ومع ذلك، حذرت Google من أن ChatGPT ليس جاهزًا بعد للاستخدام على نطاق واسع، وأنه لا يزال هناك العديد من المجالات التي تحتاج إلى تحسين.

تم الكشف عن مخاطر روبوتات الدردشة بالذكاء الاصطناعي لأول مرة بواسطة مهندس Google John Giannandrea في منشور مدونة بعنوان “لماذا يُساء فهم مساعد هاتفك”.

يناقش Giannandrea في رسالته ظاهرة “التعلم الخاطئ”، والتي تشير إلى أن الروبوتات أصبحت مشروطة بالاستجابة بطريقة معينة لمدخلات محددة.

يمكن أن يؤدي هذا إلى أن تصبح الروبوتات “هلوسة”، أو تعتقد أن المعلومات الخاطئة صحيحة. يقترح جاناندريا أن هذا قد يكون له عواقب وخيمة على السلامة العامة، حيث يمكن استخدام روبوتات المحادثة لتنفيذ مهام خطيرة دون فهم العواقب.

بينما لا يزال Google ChatGPT في مراحله الأولى من التطوير، من المهم أن تكون على دراية بالمخاطر المحتملة التي تشكلها روبوتات الدردشة AI. إذا كنت تستخدم chatbot، فتأكد من مراقبة تقدمه وتأكد من أنه آمن للاستخدام.

Trending

Exit mobile version