قامت شركة جوجل يوم الخميس بتغيير اسم منصتها الإلكترونية الذكية من “بارد” إلى “جيميناي” تزامنًا مع الكشف عن نسخة محدثة من المنصة، وأيضًا تقديم تطبيق خاص بالهواتف الجوالة.
أعلنت الشركة أن تحديث اسم الموقع الإلكتروني يهدف إلى مزامنة تسمية المنصة الذكية التي يستخدمها الزوار بفاعلية، بالإضافة إلى التطبيقات الذكية المدعومة والمستخدمة من قبل المنصة.
منذ شهر ديسمبر الماضي، تستخدم الشركة نموذج الذكاء الاصطناعي Gemini Pro، وقد أجرت تحسينات على قدرات المنصة من خلال إدخال النموذج المُحدّث والأكثر تقدمًا Gemini Ultra 1.0، وذلك بهدف طرح نسخة معززة من مساعدها الذكي الذي يُعرف باسم Gemini Advanced.
من خلال استعمال النموذج الأحدث، يمنح “جوجل جيميناي” المستخدمين مستوى متقدم من الإمكانيات التي تساعدهم على تأدية المهام المعقدة، بما في ذلك كتابة الشفرات البرمجية، وإجراء التفكير المنهجي، والالتزام بالإرشادات الدقيقة، بالإضافة إلى التعاون في المشاريع الإبداعية.
يتيح الإصدار الأحدث إمكانية للمستعملين أن يقوموا بمباحثات أكثر طولاً وغنى وتفصيلاً، وكذلك يسمح بإكمال النقاش حول أسئلة ترتبط بمواضيع سُئل عنها سابقاً ضمن الحوار ذاته.
قامت الشركة بإجراء مقارنة بين نسختها الأحدث “جيميناي ألترا 1.0” ومجموعة من أبرز النماذج المتقدمة، حيث لم تفصح عن أسماء هذه الأنماط أمام القائمين بالاختبار. أثبت إصدار جوجل الجديد تفوقه على المنافسين ونال إعجاب المشاركين في الاختبارات، ليصبح النموذج المفضل لديهم.
قدمت شركة جوجل مجموعة من الاستعمالات المحتملة للنموذج الذي طورته، حيث يمكن الاعتماد عليه بمثابة معلم خصوصي يستطيع توضيح أي مادة دراسية بالتفصيل، خطوةً بخطوة، وعمل تقييمات لتحديد مستوى فهم الطالب لموضوع محدد، بالإضافة إلى إمكانيته في إدارة حوارات تهدف لقياس مدى استيعاب الطالب، مع مراعاة مستواه الأكاديمي.
جوجل جيميناي
النسخة المدفوعة من جوجل جيميناي
يسهم “جيميناي أدفانسد” في إتمام وظائف متشابكة في مجال البرمجة وتكوين المحتوى، وهو قادر على مد يد العون للمبرمج في تمحيص أفكاره المتنوعة حول صياغة الشيفرات البرمجية لتحقيق مفهوم محدد، فضلاً عن مؤازرته لصناع المحتوى في ابتداع أفكار متجددة للمحتوى، انطلاقاً من المفهوم الأولي وصولاً إلى أسلوب التطبيق الإبداعي، مع القدرة على الاطلاع المستمر على أبرز القضايا المتداولة بهدف مكننة صناع المحتوى من الإلمام بها.
سيكون الإطلاق متوفرًا للمشتركين في باقة Google One AI Premium الجديدة، والتي تكون تكلفتها 19.99 دولار في الشهر. كما سيحظى المشتركون بميزة شهرين مجانيين، بالإضافة إلى الحصول على فضاء تخزين سحابي يصل إلى 2 تيرابايت. ومن المتوقع أن يتمكنوا في المستقبل القريب من استعمال “جيميناي” مباشرةً ضمن خدمات جوجل المكتبية كجيميل وDocs وSlides وSheets.
يتوفر الإصدار الحديث في أكثر من 150 دولة حول العالم، تشمل دول منطقة الشرق الأوسط، لكنه يقتصر على اللغة الإنجليزية في الوقت الراهن. ومع ذلك، وعدت شركة جوجل بأن الإصدار سيشمل دعماً للغات إضافية في المستقبل.
للمرة الأولى، أعلنت شركة جوجل عن إطلاقها لنسختها الذكية المعروفة بـ “جيميناي” داخل تطبيق خاص بالأجهزة الجوالة. وقد أطلقت على النسخة الموجهة للهواتف التي تعمل بنظام التشغيل أندرويد اسم Gemini، بينما أطلقت على النسخة المصممة للهواتف الخاصة بالآيفون اسم Google App.
يتاح للأشخاص الذين يستعملون الهواتف العاملة بنظام “أندرويد” الفرصة لاختبار تقنية محسنة عبر تنزيل التطبيق الحديث، أو عن طريق الموافقة على تفعيله فورًا ضمن مساعد جوجل الذكي. يمكن تفعيل هذا المساعد المتقدم بالضغط على زر البدء في الهاتف أو ببساطة بالنطق بكلمات استدعاء Hey Google.
يستطيع المستخدم أيضاً أن يدون تعليقاً كتابياً عن أي صورة تظهر له على الشاشة، أو أن يستفسر عن محتوى أي مقالة أو متن يطالعه، بالإضافة إلى عدد كبير من المهام الأخرى التي بوسعه أداؤها بشكل سريع.
توفر جوجل من خلال تطبيقها الجديد كل الميزات التي يتمتع بها مساعدها الإلكتروني، بما في ذلك إجراء المكالمات الهاتفية، وإعداد التنبيهات والتذكيرات، وإدارة الأجهزة المنزلية الذكية. هذا يؤكد صحة التنبؤات التي قالت بأن “جيميناي” سيأتي ليستبدل مساعد جوجل في وقت قريب.
بالنسبة لمستعملي “آيفون”، يمكنهم تجريب النسخة التجريبية ضمن تطبيق Google، من خلال تنشيط الزر الذي يقع بجوار كلمة Gemini داخل البرنامج، ومن ثم يتاح لهم إمكانية طرح الأسئلة وبدء الحوارات حول مختلف الموضوعات، بالإضافة إلى الاستفادة من المساعدة في تصميم الصور وصياغة النصوص وتلخيصها بشكل دقيق.
في عصر غارق بالثورة التكنولوجية، بات الذكاء الاصطناعي يقدم نفسه كنسخة رقمية منا نحن البشر: يتحدث بلغة أنيقة، يُظهر مشاعر زائفة، ويُقنعنا أنه يفهمنا ويشعر بنا. لكن هذه الصورة الجميلة تخفي وراءها حقيقة مزعجة: الذكاء الاصطناعي لا يملك وعيًا، ولا فهمًا، ولا حتى مشاعر حقيقية. والخطر لا يكمن في عجزه، بل في قدرتنا نحن على تصديقه.
حين يشبهنا الذكاء الاصطناعي أكثر مما ينبغي
مهما بدت إجاباته ذكية، يبقى الذكاء الاصطناعي مجرّد نموذج إحصائي يتوقع الكلمة التالية استنادًا إلى ما تعلمه من بيانات بشرية. لا يوجد تفكير حقيقي، لا إدراك، ولا حتى فهم لمعنى ما يقوله. وفكرة الوصول إلى ما يُعرف بـ”الذكاء الاصطناعي العام” (AGI) – أي وعي يشبه وعي الإنسان – لا تزال محض خيال علمي لم نقترب منه بعد.
حين يشبهنا الذكاء الاصطناعي أكثر مما ينبغي
فجوة الوعي: هل يمكن للآلة أن تشعر؟
الوعي الإنساني مرتبط بالجسد، بالحواس، بالعواطف، وبكل ما يجعلنا بشرًا. الذكاء الاصطناعي يفتقر إلى هذه العناصر الجوهرية، وهو ما يخلق فجوة هائلة بين معالجته للبيانات وقدرته على استيعاب معناها الإنساني. الوعي ليس خوارزمية، بل تجربة متجسدة لا يمكن برمجتها.
التحدي الأخلاقي: من يتحكم بالآلة؟
الخطر الحقيقي لا يكمن في الذكاء الاصطناعي ذاته، بل في الجهة التي تستخدمه. قد تكون شركة، حكومة، أو حتى شخصًا عاديًا… ولكن في كل الأحوال، هذه التقنية قادرة على التلاعب بمشاعرنا واتخاذ قرارات حساسة نيابة عنا، دون أن تمتلك أي إدراك لعواقبها الأخلاقية.
أنسنة الذكاء الاصطناعي: قناع زائف بخطورة كبيرة
منح الآلة مظهرًا بشريًا – صوتًا دافئًا، وجهًا ودودًا، أو حتى مجرد طريقة محادثة طبيعية – يجعلنا نُسقط عليها صفات لا تملكها. نحن نبدأ بتصديقها، نثق بها، بل ونمنحها أحيانًا مشاعر لا تستحقها. وهذا يقود إلى تآكل قدرتنا على التفكير النقدي والانجراف وراء أوهام يصعب تمييزها عن الواقع.
1. من الشركات: يجب إلغاء أي عبارات تنسب وعيًا أو شعورًا للآلة. لا “أنا أشعر”، لا “أنا أظن”. يجب أن تبقى الآلة مجرد أداة واضحة، لا تدّعي امتلاك وعي أو مشاعر.
2. من المستخدمين: علينا أن نكون أكثر وعيًا عند استخدام هذه النماذج. لا نعاملها كأصدقاء أو مستشارين عاطفيين. بل نتعامل معها كأدوات مساعدة للكتابة، التحليل، أو البرمجة.
الذكاء الاصطناعي أداة مذهلة، لكنه ليس ولن يكون يومًا كيانًا واعيًا. أنسنته ليست تقدمًا، بل خطرًا حقيقيًا على وعينا الجماعي، على قدرتنا في التمييز بين الحقيقة والتقليد. وحده الوعي بهذا الفرق يمكن أن يحمينا من الوقوع في فخ الإعجاب الأعمى، وأن يوجه هذه الأداة الجبارة لما يخدم الإنسانية فعلًا، لا ما يتحكم بها.
أعلنت شركة OpenAI عن إطلاق نموذجين جديدين يحملان اسم o3 وo4-mini، وذلك في أعقاب إعلانها الأخير عن نموذج GPT-4.1، لتؤكد بذلك سعيها الحثيث نحو تطوير نماذج ذكية قادرة على أداء مهام معقدة بفعالية متزايدة.
OpenAI ترفع سقف الذكاء الاصطناعي بإطلاق النموذجين o3 و o4-mini
وصفت الشركة نموذج o3 بأنه الأكثر تقدمًا من حيث الاستدلال المنطقي، إذ يتميز بأداء قوي في مجالات مثل البرمجة والرياضيات والعلوم، ويُعدّ نقلة نوعية في قدرة النماذج على تحليل المشكلات متعددة الخطوات.
OpenAI ترفع سقف الذكاء الاصطناعي بإطلاق النموذجين o3 و o4-mini
o4-mini: خيار اقتصادي بإمكانات مبهرة
أما نموذج o4-mini، فقد طُرح كحل اقتصادي أكثر بساطة، لكنه يحقق بدوره نتائج مبهرة في مجالات مشابهة، مما يجعله خيارًا مثاليًا للمستخدمين الباحثين عن أداء متميز بتكلفة أقل.
تكامل شامل مع أدوات ChatGPT
لأول مرة، يستطيع النموذجان الاستفادة من جميع أدوات ChatGPT مثل:
وهذا يُتيح لهما تقديم حلول متقدمة لمهام تتطلب تفكيرًا متسلسلًا واستدلالًا بصريًا معقدًا، بالإضافة إلى قدرات على التصرف بنحو شبه مستقل.
قدرات بصرية جديدة وتفسير للصور منخفضة الجودة
يتمتع النموذجان بقدرة على تحليل الصور وتفسيرها بدقة، حتى وإن كانت غير واضحة أو مرسومة يدويًا على لوحات بيضاء، كما يمكنهما تعديل الصور كجزء من آلية الحل، ما يوسع من إمكانياتهما في المجالات التعليمية والهندسية والتقنية.
بالتزامن مع إطلاق النموذجين، قدمت OpenAI أداة جديدة باسم Codex CLI، وهي واجهة برمجية سهلة الاستخدام تمكّن المطورين من دمج النماذج الجديدة مع مشاريعهم المحلية بسهولة، وتدعم النموذجين o3 وo4-mini مبدئيًا، مع دعم مرتقب لـ GPT-4.1.
خريطة الطريق تتغير.. والنماذج تتوسع
كان الرئيس التنفيذي سام ألتمان قد أشار سابقًا إلى نية الشركة دمج النماذج في نظام موحد، لكن صعوبات تقنية دفعتها لتغيير الخطط، مما أدى إلى إطلاق النموذجين بشكل منفصل. وأكد أن هذا التوجه سيكون مؤقتًا حتى إصدار GPT-5 المتوقع في الشهور القليلة المقبلة.
أصبح بإمكان مستخدمي خطط ChatGPT Plus وPro وTeam تجربة النموذجين الجديدين ابتداءً من اليوم، بينما تستعد OpenAI لإطلاق نموذج o3-pro الأقوى قريبًا لمشتركي خطة Pro. وفي الأثناء، يمكن لهؤلاء الاستمرار باستخدام نموذج o1-pro الحالي.
في خطوة جديدة نحو تحسين تجربة المستخدم، أعلنت شركة OpenAI عن إطلاق ميزة مبتكرة تُدعى “مكتبة الصور” داخل روبوت الدردشة الذكي ChatGPT، تتيح هذه الخاصية إدارة وعرض الصور ومقاطع الفيديو التي تم توليدها داخل المنصة بسهولة وفاعلية، سواء كانت محتوى إبداعيًا أو تصميمات احترافية أو حتى لقطات طريفة.
مكتبة الصور في ChatGPT ميزة جديدة تسهّل إدارة المحتوى البصري للمستخدمين
توفر مكتبة الصور الجديدة مساحة مركزية مخصصة للمستخدمين لاستعراض الصور، تعديلها، إعادة توليدها، أو حذفها. وبفضل هذه الميزة، لم يعد هناك حاجة للبحث اليدوي في ملفات الحاسوب أو الهاتف للوصول إلى الصور التي تم توليدها مسبقًا، مما يوفر وقتًا وجهدًا كبيرين.
مكتبة الصور في ChatGPT ميزة جديدة تسهّل إدارة المحتوى البصري للمستخدمين
متاحة للجميع عبر الويب والتطبيقات
الميزة أصبحت متاحة لكافة مستخدمي ChatGPT، بما في ذلك مستخدمي الخطة المجانية. يمكن الوصول إلى “مكتبة الصور” مباشرة من الشريط الجانبي في نسخة الويب أو من خلال تطبيق الهاتف.
على الحاسوب: ما عليك سوى فتح أي محادثة في ChatGPT، ثم النقر على تبويب “الصور” أو “المكتبة” الموجود أسفل سجل المحادثات.
على الهواتف (iOS وأندرويد): يتم ذلك عبر النقر على القائمة الجانبية (☰) في أعلى الزاوية، ثم اختيار “الصور” أو “المكتبة”، حسب إصدار التطبيق المستخدم.
في حال لم تظهر المكتبة للمستخدم، توصي OpenAI بالتأكد من تفعيل نموذج GPT-4 الخاص بالصور، بالإضافة إلى تسجيل الدخول إلى حساب Plus أو Pro. وإذا استمرت المشكلة، يُنصح بتسجيل الخروج وإعادة تسجيل الدخول، أو تحديث التطبيق لضمان ظهور الميزة بالشكل الصحيح.
من الجدير بالذكر أن OpenAI كانت قد أعلنت عن إيقاف دعم نموذج GPT-4 في ChatGPT بحلول 30 أبريل 2025، ليُصبح النموذج الجديد GPT-4o هو الخيار الافتراضي للمستخدمين. وبالرغم من ذلك، قد لا تظهر الصور التي تم إنشاؤها باستخدام GPT-4 بشكل فوري في المكتبة، لكن OpenAI أكدت أنها ستُتاح تدريجيًا إلى جانب الصور المنتجة بواسطة GPT-4o.
تهدف OpenAI من خلال هذه الخطوة إلى توفير بيئة إبداعية أكثر تنظيمًا للمستخدمين، بحيث يستطيعون التركيز على توليد الأفكار والمحتوى بدلاً من الانشغال بالبحث عنه. تأتي هذه الإضافة في إطار التطورات المتسارعة التي تشهدها قدرات ChatGPT في توليد الصور والمحتوى المرئي بشكل عام.