GLM-5.1

By Z.ai (Zhipu AI) · Updated

Sitio web oficial

Lo que realmente es

Si GLM-5 demostró que un modelo abierto podía competir con la frontera cloud, GLM-5.1 demuestra que puede liderarla — al menos donde más importa para los ingenieros. Lanzado por Zhipu AI (ahora operando como Z.ai) el 7 de abril de 2026, esto no es una revisión completa de la arquitectura. Es un refinamiento post-entrenamiento enfocado que responde una pregunta muy específica: ¿qué pasa cuando optimizas un modelo de 754 mil millones de parámetros no para chat de una sola vez, sino para trabajo autónomo sostenido? La respuesta: construye una aplicación web de escritorio Linux completa desde cero en 8 horas con 655+ iteraciones. Optimiza una VectorDB a 6,9× de rendimiento en 600+ iteraciones. Ejecuta miles de llamadas a herramientas en KernelBench Level 3 y logra una aceleración de media geométrica de 3,6×. Donde GLM-5 se estancaba después de un comienzo prometedor, GLM-5.1 sigue refinando, autocorrigiendo y avanzando — esencialmente convirtiendo tu máquina local en un laboratorio de ingeniería autónomo que trabaja mientras duermes.

Puntos fuertes

  • Resistencia agéntica: Donde GLM-5 frecuentemente se estancaba tras los avances iniciales, GLM-5.1 sigue mejorando en sesiones muy largas — 8+ horas, 655+ iteraciones, miles de llamadas a herramientas. No solo empieza fuerte; se mantiene fuerte.
  • Licencia MIT: Pesos completamente abiertos, sin restricciones de uso, sin regalías. Descárgalo de Hugging Face y despliégalo comercialmente sin pedir permiso.
  • SWE-Bench Pro SOTA (58,4): Supera a Claude Opus 4.6 (57,3) y GPT-5.4 (57,7) en ingeniería de software real — el primer modelo abierto en liderar este benchmark.
  • 200K de contexto, 128K+ de salida: Ventana de contexto enorme para alimentar bases de código completas, con salida suficiente para trazas completas de agentes y reescrituras multi-archivo.
  • Upgrade sin fricción: Misma arquitectura MoE que GLM-5 (40B parámetros activos). Tu configuración de inferencia, cuantización y presupuesto de VRAM existentes se transfieren directamente.
Resumen de Benchmarks
  • SWE-Bench Pro — 58,4 (SOTA)Benchmark de ingeniería de software real. GLM-5.1 lidera todos los modelos — abiertos y cerrados — superando a Claude Opus 4.6 (57,3) y GPT-5.4 (57,7). Un hito para la IA de pesos abiertos.
  • CyberGym — 68,7Benchmark de seguridad y tareas agénticas. Un salto masivo de 20 puntos desde GLM-5 (48,3), superando tanto a Claude Opus 4.6 (66,6) como a GPT-5.4 (66,3).
  • Arquitectura — 754B MoE / 40B activosMixture-of-Experts con Activación de Esparsidad Dinámica. Solo 40B parámetros se activan por token, haciendo viable la inferencia en hardware de consumo gama alta con cuantización.

Limitaciones honestas

  • Solo texto: La entrada y salida son estrictamente texto — sin imágenes, audio ni video. Para tareas de visión, Z.ai ofrece el modelo separado GLM-5V-Turbo.
  • Requisitos de hardware: ~754B parámetros totales significa requisitos serios de GPU incluso con cuantización. Configuraciones multi-GPU (4× tarjetas gama alta) pueden quedarse justas cuando se incluyen contexto y caché KV.
  • Latencia del modo pensamiento: Las optimizaciones agénticas pueden añadir sobrecarga de razonamiento innecesaria en consultas simples. Desactiva el modo pensamiento para tareas rápidas.
  • Brecha del ecosistema occidental: La documentación, herramientas comunitarias y recursos en inglés están mejorando pero aún son menos maduros que el ecosistema en chino.

El Veredicto: El modelo que demostró que la IA de pesos abiertos puede liderar la frontera en ingeniería real. Si ya ejecutabas GLM-5 localmente, actualizar a 5.1 es una decisión obvia — mismo hardware, persistencia agéntica dramáticamente mejorada. Si aún no has probado modelos locales de pesos abiertos, este es el que hace imposible ignorar el argumento.