Qwen3.5 — 27B
IA Local / PrivadaEl monstruo híbrido de 27B de Alibaba corre en una sola GPU de 24 GB y compite de verdad con modelos frontier de la nube — visión, programación, 262K de contexto y 201 idiomas, todo bajo Apache 2.0. El primer modelo local sin compromisos.
Líder en benchmarks de su clase (GPQA 85.5, SWE-Bench 72.4, LiveCodeBench 80.7). Primer modelo local con multimodal real — visión, vídeo, OCR. Excelente en agentes y tool-calling. r/LocalLLaMA lo llama “el nuevo compañero diario.”
Necesita ~17–18 GB de VRAM en 4 bits — genial en tarjetas de 24 GB, justo en setups de 16 GB. Modo de pensamiento activo por defecto (fácil de desactivar). Aún no al nivel de modelos cerrados frontier en las tareas multi-turno más complejas.