Local / Private AI — Your Brain, Your Machine, Your Rules

Here's a radical idea: what if you could run a genuinely smart AI on tu propio hardware, and nothing you told it would ever leave your machine? No cloud servers. No data collection. No subscription fees. Just you, your laptop, and an intelligence that respects your privacy by design. Welcome to the open-weight revolution.

Filtro Todos Ecosistema Diario Generación de Imágenes Programación Creadores de Apps Investigación Arquitectos Digitales Mentores Académicos Video Música y Voz IA Local / Privada Agentes IA

Qwen3.5 — 27B

IA Local / Privada

El monstruo híbrido de 27B de Alibaba corre en una sola GPU de 24 GB y compite de verdad con modelos frontier de la nube — visión, programación, 262K de contexto y 201 idiomas, todo bajo Apache 2.0. El primer modelo local sin compromisos.

Líder en benchmarks de su clase (GPQA 85.5, SWE-Bench 72.4, LiveCodeBench 80.7). Primer modelo local con multimodal real — visión, vídeo, OCR. Excelente en agentes y tool-calling. r/LocalLLaMA lo llama “el nuevo compañero diario.”

Necesita ~17–18 GB de VRAM en 4 bits — genial en tarjetas de 24 GB, justo en setups de 16 GB. Modo de pensamiento activo por defecto (fácil de desactivar). Aún no al nivel de modelos cerrados frontier en las tareas multi-turno más complejas.


Multimodal Open Weight Apache 2.0 Reasoning Vision Free Offline

GLM-5.1

IA Local / Privada

La potencia agéntica de pesos abiertos de Z.ai — diseñada para programar ocho horas seguidas sin perder el hilo. Misma licencia MIT, misma libertad abierta, pero ahora con ejecución autónoma sostenida que rivaliza con los mejores modelos cerrados en tareas reales de ingeniería.

Nuevo SOTA en SWE-Bench Pro (58,4), salto masivo en CyberGym a 68,7, y demostraciones reales de sesiones de codificación de 655+ iteraciones durante 8+ horas. Funciona en el mismo hardware que GLM-5 — cambia los pesos y listo.

Sigue siendo un modelo muy grande (~754B parámetros totales). Incluso con 40B parámetros activos por token y cuantización intensa, se necesita mucha VRAM. Solo texto — sin entrada visual ni multimodal. El modo de pensamiento puede añadir latencia en consultas simples.


Open Weight MIT Agentic Coding Free

Gemma 4

IA Local / Privada

La respuesta de Google a '¿y si una IA de frontera funcionara en tu teléfono?' Gemma 4 no es un modelo — es una familia de cuatro, desde un modelo edge de 2 mil millones de parámetros que cabe en 1,5 GB de RAM hasta uno denso de 31 mil millones. Las variantes E2B y E4B llevan inteligencia multimodal — texto, imágenes y audio — a smartphones, sin conexión a internet.

E4B obtiene 42,5 % en AIME 2026, duplicando el modelo 27B de la generación anterior. Licencia Apache 2.0 completa. Audio nativo en modelos edge. Soporte para 140+ idiomas. Cuatro tamaños distintos cubriendo cada escenario, desde Raspberry Pi hasta estación de trabajo.

Los modelos edge más pequeños (E2B, E4B) carecen de la profundidad de razonamiento de los modelos de escritorio. Sin entrada de video en las variantes edge (solo 26B y 31B). Se prefiere el ecosistema de herramientas de Google — menos compatibilidad directa con stacks que no son de Google.


Multimodal Open Weight Apache 2.0 On-Device Free