Gemma 4

By Google DeepMind · Updated

الموقع الرسمي

ما هو في الواقع

ما يميّز Gemma 4 عن كل نموذج مفتوح آخر: لا يتوسّع فقط نحو الأعلى، بل يتوسّع نحو الأسفل. بينما تنشغل صناعة الذكاء الاصطناعي بمن يستطيع بناء أكبر نموذج، طرح Google DeepMind سؤالاً مختلفًا: ما مدى ذكاء أصغر نموذج يمكننا صنعه؟

الإجابة اتّضح أنها «ذكي بشكل مدهش». نموذج E4B — المصمّم للعمل على هاتفك — يحقق 42.5% في AIME 2026، وهو اختبار رياضيات تنافسي كان سيُعتبر خيالًا علميًا لنموذج بهذا الحجم قبل عام فقط. نموذج E2B يعمل في 1.5 غيغابايت من الذاكرة ويتعامل مع النصوص والصور والصوت المباشر. هذه ليست روبوتات دردشة مبسّطة. إنها محركات استدلال متعددة الوسائط حقيقية تعمل صدفةً بدون اتصال سحابي.

النماذج الأكبر (26B MoE، 31B كثيف) تنافس أشقاء Gemma السحابية. الـ 31B يحتل المركز الثالث بين النماذج المفتوحة على Arena AI. نموذج 26B MoE هو خيار الكفاءة — 26 مليار معامل إجمالي، لكن 3.8 مليار فقط تنشط لكل رمز، مقدّمًا جودة قريبة من الـ 31B بجزء من تكلفة الحوسبة.

جميع النماذج الأربعة تتشارك ترخيص Apache 2.0، وتدعم 140+ لغة، وتوفّر أوضاع تفكير مدمجة للمهام المعقدة. سواء كنت تبني تطبيق ترجمة يعمل بدون اتصال، أو مساعد صحي يحترم الخصوصية، أو محلل صور على الجهاز — هناك نموذج Gemma 4 مناسب.

نقاط القوة الرئيسية

  • أربعة نماذج، عائلة واحدة: E2B (~1.5 غيغابايت مكمّم) للحافة القصوى، E4B للهواتف الرائدة، 26B MoE (3.8 مليار نشط) لمحطات العمل، 31B كثيف للخوادم. اختر الحجم المناسب لعتادك.
  • E2B وE4B — ذكاء حقيقي على هواتف حقيقية: إدخال متعدد الوسائط أصلي — نصوص وصور وصوت — يعمل بالكامل على الجهاز. E4B يحقق 42.5% في AIME 2026، أي أكثر من ضعف نموذج Gemma 3 27B ‏(20.8%). هذا استدلال رياضي تنافسي على هاتف ذكي.
  • Apache 2.0 — مفتوح فعلاً: لا قيود استخدام ولا رسوم ملكية وحقوق تجارية كاملة. حمّله من Hugging Face أو Ollama أو Google AI Studio واستخدمه كيفما شئت.
  • 140+ لغة: العائلة بأكملها مدرّبة على مجموعة بيانات متعددة اللغات ضخمة. للتطبيقات المحلية التي تخدم مستخدمين عالميين، هذا أمر مهم.
  • وضع استدلال مدمج: أوضاع «تفكير» قابلة للتكوين للتخطيط متعدد الخطوات وتفكيك المهام المعقدة — حتى على نماذج الحافة.
لمحة عن المعايير
  • AIME 2026 — E4B 42.5%، E2B 37.5%معيار رياضيات تنافسي. نماذج الحافة تضاعف نتيجة Gemma 3 27B ‏(20.8%). النموذج الكثيف 31B يصل إلى 89.2%.
  • Arena AI — 31B المركز 3، 26B MoE المركز 6 (نماذج مفتوحة)تصنيف مقارنة جماعي. الـ 31B في القمة بين النماذج المفتوحة؛ الـ 26B MoE يأتي ضمن فارق 1–2% بجزء من تكلفة الحوسبة.
  • البنية المعمارية — كثيف (E2B، E4B، 31B) + MoE (26B)Per-Layer Embeddings (PLE) تُعظّم كفاءة المعاملات على الحافة؛ 26B MoE يُنشّط 3.8 مليار معامل فقط لكل رمز لكفاءة محطة العمل.

قيود صادقة

  • نماذج الحافة تبقى نماذج حافة: E2B وE4B لن ينافسا نموذجًا كثيفًا بـ 31 مليار في مهام الاستدلال المعقدة. هي مُحسَّنة للجودة لكل بايت، وليس الجودة المطلقة.
  • لا فيديو على الحافة: فهم الفيديو حصري لنموذجي 26B و31B. نماذج الحافة تتعامل مع النصوص والصور والصوت فقط.
  • أدوات جوجل المفضّلة: أفضل دعم عبر MediaPipe وLiteRT وGoogle AI Studio. يعمل أيضًا مع Ollama وllama.cpp، لكن منظومة جوجل هي المسار الأكثر سلاسة.
  • لا تركيز وكيلي: على عكس جلسات GLM-5.1 المستقلة المطوّلة، Gemma 4 مبني للاستدلال في جولة واحدة أو متعددة — وليس لماراثونات البرمجة.

الحكم: Gemma 4 هي أكثر عائلة نماذج مفتوحة عملية صدرت هذا العام. الـ 31B والـ 26B نماذج محطات عمل مبهرة بالتأكيد — لكن القصة الحقيقية هي E2B وE4B. تشغيل ذكاء اصطناعي متعدد الوسائط حقيقي على هاتف، يفهم النصوص والصور والصوت المنطوق، مع استدلال رياضي كان سيُعتبر مستوى متقدمًا قبل عامين؟ هذا ليس خدعة. هذا مستقبل تطبيقات الأولوية للعمل بدون اتصال.