أعلنت شركة سناب شات عن شراكة جديدة مع جوجل تهدف إلى تعزيز قدرات المساعد الذكي My AI باستخدام نماذج الذكاء الاصطناعي المتطورة التي تطورها جوجل. يأتي هذا التعاون ضمن جهود سناب شات لتقديم تجربة أكثر تطوراً للمستخدمين من خلال تحسين أداء روبوت الدردشة الخاص بها.
من أبرز ما يميز هذه الشراكة هو إدماج نماذج الذكاء الاصطناعي Gemini في روبوت الدردشة My AI، مما سيوفر تحسينات هائلة على مستوى الفهم والتفاعل مع النصوص، الصور، وحتى مقاطع الفيديو. وكانت سناب شات قد أطلقت روبوت My AI في عام 2023 مدعومًا بنماذج GPT من OpenAI، ولكن إدماج Gemini سيجعل الروبوت أكثر ذكاءً، مما يتيح للمستخدمين فرصًا أوسع للتفاعل اليومي معه.
في تصريح حول الشراكة، قال إيفان شبيغل، الرئيس التنفيذي لشركة سناب: “تعزز هذه الشراكة مع جوجل كلاود كل ما هو مهم لخدمة مجتمعنا. مهمة سناب تتركز على تمكين الأشخاص من التعبير عن أنفسهم، والاستمتاع باللحظة، واكتشاف العالم”. كما أضاف توماس كوريان، الرئيس التنفيذي لـ Google Cloud: “تعمل نماذج Gemini الآن على تشغيل ملايين التفاعلات المتعددة الوسائط في تطبيق سناب شات، مما يعزز دقة وسلامة My AI”.
بفضل نماذج Gemini المتطورة، سيتمكن مستخدمو My AI من التقاط صور أو مقاطع فيديو وطرح الأسئلة حولها، مما يعكس تشابهاً مع بعض الأدوات التي تقدمها جوجل حاليًا. هذا التعاون سيتيح لمستخدمي سناب شات تجربة أكثر ذكاءً وشمولية في التعامل مع المحتوى المتعدد الوسائط.
من الجدير بالذكر أن الشراكة بين جوجل وسناب ليست وليدة اللحظة؛ فهي تمتد لأكثر من عشر سنوات. ويأتي هذا التعاون الجديد كخطوة إضافية في تاريخ طويل من الابتكارات المشتركة، خاصة مع تزايد اعتماد التقنيات التوليدية في عالم الذكاء الاصطناعي.
في عصر غارق بالثورة التكنولوجية، بات الذكاء الاصطناعي يقدم نفسه كنسخة رقمية منا نحن البشر: يتحدث بلغة أنيقة، يُظهر مشاعر زائفة، ويُقنعنا أنه يفهمنا ويشعر بنا. لكن هذه الصورة الجميلة تخفي وراءها حقيقة مزعجة: الذكاء الاصطناعي لا يملك وعيًا، ولا فهمًا، ولا حتى مشاعر حقيقية. والخطر لا يكمن في عجزه، بل في قدرتنا نحن على تصديقه.
حين يشبهنا الذكاء الاصطناعي أكثر مما ينبغي
مهما بدت إجاباته ذكية، يبقى الذكاء الاصطناعي مجرّد نموذج إحصائي يتوقع الكلمة التالية استنادًا إلى ما تعلمه من بيانات بشرية. لا يوجد تفكير حقيقي، لا إدراك، ولا حتى فهم لمعنى ما يقوله. وفكرة الوصول إلى ما يُعرف بـ”الذكاء الاصطناعي العام” (AGI) – أي وعي يشبه وعي الإنسان – لا تزال محض خيال علمي لم نقترب منه بعد.
حين يشبهنا الذكاء الاصطناعي أكثر مما ينبغي
فجوة الوعي: هل يمكن للآلة أن تشعر؟
الوعي الإنساني مرتبط بالجسد، بالحواس، بالعواطف، وبكل ما يجعلنا بشرًا. الذكاء الاصطناعي يفتقر إلى هذه العناصر الجوهرية، وهو ما يخلق فجوة هائلة بين معالجته للبيانات وقدرته على استيعاب معناها الإنساني. الوعي ليس خوارزمية، بل تجربة متجسدة لا يمكن برمجتها.
التحدي الأخلاقي: من يتحكم بالآلة؟
الخطر الحقيقي لا يكمن في الذكاء الاصطناعي ذاته، بل في الجهة التي تستخدمه. قد تكون شركة، حكومة، أو حتى شخصًا عاديًا… ولكن في كل الأحوال، هذه التقنية قادرة على التلاعب بمشاعرنا واتخاذ قرارات حساسة نيابة عنا، دون أن تمتلك أي إدراك لعواقبها الأخلاقية.
أنسنة الذكاء الاصطناعي: قناع زائف بخطورة كبيرة
منح الآلة مظهرًا بشريًا – صوتًا دافئًا، وجهًا ودودًا، أو حتى مجرد طريقة محادثة طبيعية – يجعلنا نُسقط عليها صفات لا تملكها. نحن نبدأ بتصديقها، نثق بها، بل ونمنحها أحيانًا مشاعر لا تستحقها. وهذا يقود إلى تآكل قدرتنا على التفكير النقدي والانجراف وراء أوهام يصعب تمييزها عن الواقع.
1. من الشركات: يجب إلغاء أي عبارات تنسب وعيًا أو شعورًا للآلة. لا “أنا أشعر”، لا “أنا أظن”. يجب أن تبقى الآلة مجرد أداة واضحة، لا تدّعي امتلاك وعي أو مشاعر.
2. من المستخدمين: علينا أن نكون أكثر وعيًا عند استخدام هذه النماذج. لا نعاملها كأصدقاء أو مستشارين عاطفيين. بل نتعامل معها كأدوات مساعدة للكتابة، التحليل، أو البرمجة.
الذكاء الاصطناعي أداة مذهلة، لكنه ليس ولن يكون يومًا كيانًا واعيًا. أنسنته ليست تقدمًا، بل خطرًا حقيقيًا على وعينا الجماعي، على قدرتنا في التمييز بين الحقيقة والتقليد. وحده الوعي بهذا الفرق يمكن أن يحمينا من الوقوع في فخ الإعجاب الأعمى، وأن يوجه هذه الأداة الجبارة لما يخدم الإنسانية فعلًا، لا ما يتحكم بها.
أعلنت شركة OpenAI عن إطلاق نموذجين جديدين يحملان اسم o3 وo4-mini، وذلك في أعقاب إعلانها الأخير عن نموذج GPT-4.1، لتؤكد بذلك سعيها الحثيث نحو تطوير نماذج ذكية قادرة على أداء مهام معقدة بفعالية متزايدة.
OpenAI ترفع سقف الذكاء الاصطناعي بإطلاق النموذجين o3 و o4-mini
وصفت الشركة نموذج o3 بأنه الأكثر تقدمًا من حيث الاستدلال المنطقي، إذ يتميز بأداء قوي في مجالات مثل البرمجة والرياضيات والعلوم، ويُعدّ نقلة نوعية في قدرة النماذج على تحليل المشكلات متعددة الخطوات.
OpenAI ترفع سقف الذكاء الاصطناعي بإطلاق النموذجين o3 و o4-mini
o4-mini: خيار اقتصادي بإمكانات مبهرة
أما نموذج o4-mini، فقد طُرح كحل اقتصادي أكثر بساطة، لكنه يحقق بدوره نتائج مبهرة في مجالات مشابهة، مما يجعله خيارًا مثاليًا للمستخدمين الباحثين عن أداء متميز بتكلفة أقل.
تكامل شامل مع أدوات ChatGPT
لأول مرة، يستطيع النموذجان الاستفادة من جميع أدوات ChatGPT مثل:
وهذا يُتيح لهما تقديم حلول متقدمة لمهام تتطلب تفكيرًا متسلسلًا واستدلالًا بصريًا معقدًا، بالإضافة إلى قدرات على التصرف بنحو شبه مستقل.
قدرات بصرية جديدة وتفسير للصور منخفضة الجودة
يتمتع النموذجان بقدرة على تحليل الصور وتفسيرها بدقة، حتى وإن كانت غير واضحة أو مرسومة يدويًا على لوحات بيضاء، كما يمكنهما تعديل الصور كجزء من آلية الحل، ما يوسع من إمكانياتهما في المجالات التعليمية والهندسية والتقنية.
بالتزامن مع إطلاق النموذجين، قدمت OpenAI أداة جديدة باسم Codex CLI، وهي واجهة برمجية سهلة الاستخدام تمكّن المطورين من دمج النماذج الجديدة مع مشاريعهم المحلية بسهولة، وتدعم النموذجين o3 وo4-mini مبدئيًا، مع دعم مرتقب لـ GPT-4.1.
خريطة الطريق تتغير.. والنماذج تتوسع
كان الرئيس التنفيذي سام ألتمان قد أشار سابقًا إلى نية الشركة دمج النماذج في نظام موحد، لكن صعوبات تقنية دفعتها لتغيير الخطط، مما أدى إلى إطلاق النموذجين بشكل منفصل. وأكد أن هذا التوجه سيكون مؤقتًا حتى إصدار GPT-5 المتوقع في الشهور القليلة المقبلة.
أصبح بإمكان مستخدمي خطط ChatGPT Plus وPro وTeam تجربة النموذجين الجديدين ابتداءً من اليوم، بينما تستعد OpenAI لإطلاق نموذج o3-pro الأقوى قريبًا لمشتركي خطة Pro. وفي الأثناء، يمكن لهؤلاء الاستمرار باستخدام نموذج o1-pro الحالي.
في خطوة جديدة نحو تحسين تجربة المستخدم، أعلنت شركة OpenAI عن إطلاق ميزة مبتكرة تُدعى “مكتبة الصور” داخل روبوت الدردشة الذكي ChatGPT، تتيح هذه الخاصية إدارة وعرض الصور ومقاطع الفيديو التي تم توليدها داخل المنصة بسهولة وفاعلية، سواء كانت محتوى إبداعيًا أو تصميمات احترافية أو حتى لقطات طريفة.
مكتبة الصور في ChatGPT ميزة جديدة تسهّل إدارة المحتوى البصري للمستخدمين
توفر مكتبة الصور الجديدة مساحة مركزية مخصصة للمستخدمين لاستعراض الصور، تعديلها، إعادة توليدها، أو حذفها. وبفضل هذه الميزة، لم يعد هناك حاجة للبحث اليدوي في ملفات الحاسوب أو الهاتف للوصول إلى الصور التي تم توليدها مسبقًا، مما يوفر وقتًا وجهدًا كبيرين.
مكتبة الصور في ChatGPT ميزة جديدة تسهّل إدارة المحتوى البصري للمستخدمين
متاحة للجميع عبر الويب والتطبيقات
الميزة أصبحت متاحة لكافة مستخدمي ChatGPT، بما في ذلك مستخدمي الخطة المجانية. يمكن الوصول إلى “مكتبة الصور” مباشرة من الشريط الجانبي في نسخة الويب أو من خلال تطبيق الهاتف.
على الحاسوب: ما عليك سوى فتح أي محادثة في ChatGPT، ثم النقر على تبويب “الصور” أو “المكتبة” الموجود أسفل سجل المحادثات.
على الهواتف (iOS وأندرويد): يتم ذلك عبر النقر على القائمة الجانبية (☰) في أعلى الزاوية، ثم اختيار “الصور” أو “المكتبة”، حسب إصدار التطبيق المستخدم.
في حال لم تظهر المكتبة للمستخدم، توصي OpenAI بالتأكد من تفعيل نموذج GPT-4 الخاص بالصور، بالإضافة إلى تسجيل الدخول إلى حساب Plus أو Pro. وإذا استمرت المشكلة، يُنصح بتسجيل الخروج وإعادة تسجيل الدخول، أو تحديث التطبيق لضمان ظهور الميزة بالشكل الصحيح.
من الجدير بالذكر أن OpenAI كانت قد أعلنت عن إيقاف دعم نموذج GPT-4 في ChatGPT بحلول 30 أبريل 2025، ليُصبح النموذج الجديد GPT-4o هو الخيار الافتراضي للمستخدمين. وبالرغم من ذلك، قد لا تظهر الصور التي تم إنشاؤها باستخدام GPT-4 بشكل فوري في المكتبة، لكن OpenAI أكدت أنها ستُتاح تدريجيًا إلى جانب الصور المنتجة بواسطة GPT-4o.
تهدف OpenAI من خلال هذه الخطوة إلى توفير بيئة إبداعية أكثر تنظيمًا للمستخدمين، بحيث يستطيعون التركيز على توليد الأفكار والمحتوى بدلاً من الانشغال بالبحث عنه. تأتي هذه الإضافة في إطار التطورات المتسارعة التي تشهدها قدرات ChatGPT في توليد الصور والمحتوى المرئي بشكل عام.