Qwen3.5 — 27B
IA Locale / PrivéeLe monstre hybride de 27B d'Alibaba tourne sur un seul GPU de 24 Go et rivalise véritablement avec les modèles cloud frontier — vision, codage, contexte de 262K et 201 langues, le tout sous licence Apache 2.0.
Leader des benchmarks dans sa catégorie (GPQA 85,5, SWE-Bench 72,4, LiveCodeBench 80,7). Premier modèle local avec un véritable multimodal (vision + vidéo + OCR). Excellentes capacités agentiques et d'appel d'outils. Le subreddit r/LocalLLaMA le surnomme déjà « le nouveau compagnon quotidien ».
Nécessite ~17-18 Go de VRAM en 4 bits (parfait sur les cartes 24 Go, serré pour les configs 16 Go). Mode raisonnement activé par défaut — facile à désactiver mais surprenant au début.