Qwen3.5 — 27B

By Alibaba (Qwen Team) · Updated

الموقع الرسمي

ما هو في الواقع

أطلق فريق Qwen من Alibaba للتو نموذجاً هجيناً بـ 27 مليار معامل يحقق ما لم ينجح فيه أي نموذج محلي بشكل مقنع من قبل: منافسة النماذج السحابية المتقدمة في البرمجة والاستدلال والرؤية — مع إمكانية التشغيل على معالج رسومي واحد بسعة 24 جيجابايت. يستخدم Qwen3.5-27B بنية هجينة مبتكرة (Gated DeltaNet + Mixture-of-Experts المتفرقة) تستخلص ذكاءً مذهلاً من كل معامل. ليس مجرد نموذج نصي — فهو يتعامل أصلاً مع الصور والفيديو وOCR، ويتحدث 201 لغة، ويمتد سياقه لأكثر من مليون رمز (token) عند الحاجة. ترخيص Apache 2.0، مما يعني حرية كاملة «افعل ما تشاء». الأهمية يصعب المبالغة فيها. للمرة الأولى، نموذج قابل للتحميل يهدد فعلاً بأن يحل محل اشتراكك في الذكاء الاصطناعي السحابي لمعظم المهام اليومية — وكلاء برمجة، تحليل مستندات، فهم بصري، جلسات بحث مطولة — كل ذلك محلياً وبخصوصية تامة ومجاناً بالكامل.

نقاط القوة الرئيسية

  • هيمنة على المعايير في فئته: GPQA Diamond 85.5، SWE-Bench Verified 72.4، LiveCodeBench v6 80.7، MMLU-Pro 86.1 — هذه ليست أرقام «جيدة للتشغيل المحلي»، بل أرقام «منافسة للنماذج المتقدمة المغلقة».
  • متعدد الوسائط حقاً: نص ورؤية وفيديو وOCR في نموذج واحد. حلّل لقطات الشاشة، واقرأ المستندات، وشاهد مقاطع الفيديو — بدون الحاجة لنموذج رؤية منفصل.
  • 262 ألف رمز سياق أصلي (قابل للتوسيع لأكثر من مليون): أطعمه قاعدة أكواد كاملة، أو ملف PDF من 300 صفحة، أو سلسلة محادثات ممتدة لأسابيع. معظم النماذج المحلية تتوقف عند 32 ألف.
  • قدرات وكيلية ممتازة: TAU2-Bench 79.0، BFCL 68.5 — يتعامل مع استدعاء الأدوات متعدد الخطوات وتنفيذ الوظائف وحلقات الوكلاء المستقلين بموثوقية كانت تتطلب سابقاً واجهات API سحابية.
  • ترخيص Apache 2.0: مفتوح بالكامل وبدون قيود تجارية. خصّصه، ادمجه، وبِع منتجات مبنية عليه — بلا شروط.
لمحة عن المعايير
  • البنية — Gated DeltaNet + MoE هجينتصميم مبتكر يجمع بين الانتباه الخطي للسرعة والخبراء المتفرقين للذكاء. لهذا السبب يضرب فوق وزنه في فئة 27 مليار معامل.
  • متعدد الوسائط — رؤية + فيديو + OCR أصلياًعلى عكس المنافسين النصيين فقط، Qwen3.5-27B يرى. فهم الصور والفيديو وOCR المستندات مدمج من مرحلة التدريب المسبق — ليس مُلحقاً لاحقاً.
  • السياق — 262 ألف رمز أصلياًمعظم النماذج المفتوحة تدّعي 128 ألف وتتدهور بعد 32 ألف. Qwen3.5-27B يحافظ على الجودة عبر كامل نافذته البالغة 262 ألف رمز، وقابل للتوسيع لأكثر من مليون باستخدام YaRN.

قيود صادقة

  • يحتاج ~17-18 جيجابايت VRAM بدقة 4-بت: يعمل بسلاسة على أي معالج رسومي بسعة 24 جيجابايت (RTX 4090/5090 وغيرها)، لكن إذا كان جهازك محدوداً جداً (16 جيجابايت إجمالاً بدون معالج رسومي مخصص)، النماذج الأصغر ستكون أكثر استجابة.
  • وضع التفكير مُفعّل افتراضياً: النموذج يُخرج آثار استدلال قبل الإجابة. سهل التعطيل، لكن إذا لم تعرف ذلك مسبقاً، ستبدو أول مخرجاتك مُطوّلة بشكل غريب.
  • ليس بالضبط على مستوى النماذج المتقدمة في أصعب المهام الوكيلية: في المعايير متعددة الجولات الأكثر تعقيداً، نماذج السحابة مثل Claude Opus وGPT-5.2 لا تزال متقدمة. لكن لـ 95% من العمل الحقيقي، لن تلاحظ الفرق.
  • الإعداد لا يزال يتطلب بعض الراحة التقنية: ستحتاج Ollama أو LM Studio أو llama.cpp. الأمر يصبح أسهل كل شهر، لكنه ليس بعد «انقر مرتين وابدأ».

الحكم: المعيار الجديد للذكاء الاصطناعي المحلي. Qwen3.5-27B هو أول نموذج تتوقف فيه عن السؤال «هل هذا جيد بما يكفي للتشغيل المحلي؟» وتبدأ بالسؤال «لماذا لا أزال أدفع مقابل ذكاء اصطناعي سحابي؟». هيمنة على المعايير، قدرات متعددة الوسائط حقيقية، سياق 262 ألف رمز، أداء ممتاز في البرمجة والوكلاء، ترخيص Apache 2.0 — وكل ذلك يعمل على معالج رسومي واحد للمستهلك. إذا كانت الخصوصية أو التكلفة أو ببساطة امتلاك حزمة الذكاء الاصطناعي الخاصة بك تهمك، فهذا هو النموذج الذي غيّر المعادلة.