Qwen3.5 — 27B
Lokale / Private KIAlibabas 27B-Hybridmonster läuft auf einer einzigen 24-GB-GPU und konkurriert ernsthaft mit Cloud-Frontier-Modellen — Vision, Coding, 262K Kontext und 201 Sprachen, alles unter Apache 2.0. Das erste lokale Modell ohne Kompromisse.
Benchmark-führend in seiner Klasse (GPQA 85.5, SWE-Bench 72.4, LiveCodeBench 80.7). Erstes lokales Modell mit echter Multimodalität — Vision, Video, OCR. Exzellentes Agent- und Tool-Calling. r/LocalLLaMA nennt es „den neuen täglichen Begleiter.“
Braucht ~17–18 GB VRAM in 4-Bit — super auf 24-GB-Karten, eng auf 16-GB-Setups. Denk-Modus standardmäßig aktiv (leicht abschaltbar). Bei den absolut härtesten Multi-Turn-Agent-Aufgaben noch nicht ganz Frontier-Niveau.