GLM-5.1

By Z.ai (Zhipu AI) · Updated

الموقع الرسمي

ما هو في الواقع

إذا كان GLM-5 قد أثبت أن نموذجًا مفتوحًا يمكنه منافسة الحدود الأمامية السحابية، فإن GLM-5.1 يثبت أنه يمكنه قيادتها — على الأقل حيث يهمّ الأمر أكثر للمهندسين. صدر من Zhipu AI (التي تعمل الآن باسم Z.ai) في 7 أبريل 2026، وهذا ليس إعادة هيكلة معمارية كاملة. إنه تحسين مركّز بعد التدريب يجيب على سؤال محدّد جدًا: ماذا يحدث عندما تُحسّن نموذجًا من 754 مليار معامل ليس للمحادثة اللحظية، بل لـ العمل المستقل المستدام؟ الجواب: يبني تطبيق ويب مكتبي لينكس كامل من الصفر في 8 ساعات مع 655+ تكرارًا. يُحسّن قاعدة بيانات متجهية إلى 6.9× في الإنتاجية عبر 600+ تكرار. يُنفّذ آلاف استدعاءات الأدوات على KernelBench Level 3 ويحقق تسريعًا بمتوسط هندسي 3.6×. حيث كان GLM-5 يركد بعد بداية واعدة، يواصل GLM-5.1 التنقيح والتصحيح الذاتي والتقدّم — محوّلاً جهازك المحلي إلى مختبر هندسي مستقل يعمل بينما تنام.

نقاط القوة الرئيسية

  • تحمّل وكيلي: حيث كان GLM-5 يتوقف غالبًا عن التحسّن بعد المكاسب الأولى، يواصل GLM-5.1 التحسّن عبر جلسات طويلة جدًا — أكثر من 8 ساعات، 655+ تكرارًا، آلاف استدعاءات الأدوات. لا يبدأ بقوة فحسب؛ بل يظلّ قويًا.
  • ترخيص MIT: أوزان مفتوحة بالكامل، بلا قيود استخدام، بلا رسوم ملكية. حمّله من Hugging Face وانشره تجاريًا دون طلب إذن.
  • SWE-Bench Pro رقم قياسي (58.4): يتفوق على Claude Opus 4.6 ‏(57.3) وGPT-5.4 ‏(57.7) في هندسة البرمجيات الحقيقية — أول نموذج مفتوح يتصدّر هذا المعيار.
  • 200 ألف رمز سياق، 128 ألف+ مخرجات: نافذة سياق ضخمة لتغذية قواعد أكواد كاملة، مع مخرجات كافية لتتبّعات الوكلاء الكاملة وإعادة كتابة ملفات متعددة.
  • ترقية بلا احتكاك: نفس بنية MoE كـ GLM-5 (40 مليار معامل نشط). إعداد الاستدلال والتكميم وميزانية ذاكرة الفيديو الحالية تنتقل مباشرةً.
لمحة عن المعايير
  • SWE-Bench Pro — 58.4 (رقم قياسي)معيار هندسة البرمجيات الحقيقية. GLM-5.1 يتصدّر جميع النماذج — المفتوحة والمغلقة — متفوقًا على Claude Opus 4.6 ‏(57.3) وGPT-5.4 ‏(57.7). معلم تاريخي للذكاء الاصطناعي مفتوح الأوزان.
  • CyberGym — 68.7معيار الأمن والمهام الوكيلية. قفزة هائلة بـ 20 نقطة مقارنة بـ GLM-5 ‏(48.3)، متفوقًا على كلٍّ من Claude Opus 4.6 ‏(66.6) وGPT-5.4 ‏(66.3).
  • البنية المعمارية — 754B MoE / 40B نشطخليط الخبراء مع تنشيط التخلخل الديناميكي. 40 مليار معامل فقط تنشط لكل رمز، مما يجعل الاستدلال ممكنًا على أجهزة المستهلك المتقدمة مع التكميم.

قيود صادقة

  • نصّي فقط: المدخلات والمخرجات نصّية حصرًا — لا صور ولا صوت ولا فيديو. لمهام الرؤية، تُقدّم Z.ai النموذج المنفصل GLM-5V-Turbo.
  • متطلبات الأجهزة: حوالي 754 مليار معامل إجمالي يعني متطلبات GPU جدّية حتى مع التكميم. إعدادات متعددة البطاقات (4× بطاقات عالية المستوى) قد تكون ضيّقة عند احتساب السياق وذاكرة KV التخزينية.
  • تأخير وضع التفكير: قد تُضيف التحسينات الوكيلية عبء استدلال غير ضروري في الاستفسارات البسيطة. عطّل وضع التفكير للمهام السريعة.
  • فجوة المنظومة الغربية: التوثيق وأدوات المجتمع والموارد الإنجليزية تتحسّن لكنها لا تزال أقل نضجًا من المنظومة الناطقة بالصينية.

الحكم: النموذج الذي أثبت أن الذكاء الاصطناعي مفتوح الأوزان يمكنه قيادة الحدود الأمامية في الهندسة الحقيقية. إذا كنت تشغّل GLM-5 محليًا بالفعل، فالترقية إلى 5.1 قرار بديهي — نفس العتاد، ثبات وكيلي أفضل بشكل جذري. وإذا لم تجرّب النماذج المحلية مفتوحة الأوزان بعد، فهذا هو الذي يجعل تجاهل الحجّة مستحيلاً.