ذكاء اصطناعي محلي / خاص — عقلك، جهازك، قواعدك

إليك فكرة جذرية: ماذا لو استطعت تشغيل ذكاء اصطناعي ذكي فعلاً على جهازك الخاص، دون أن تغادر أي معلومة تخبره بها حدود حاسوبك؟ لا خوادم سحابية. لا جمع بيانات. لا اشتراكات شهرية. فقط أنت، وحاسوبك المحمول، وذكاء يحترم خصوصيتك بالتصميم. مرحباً بك في ثورة النماذج مفتوحة الأوزان.

تصفية الكل النظام البيئي اليومي توليد الصور البرمجة منشئو التطبيقات البحث المهندسون الرقميون الموجهون الأكاديميون فيديو موسيقى وصوت ذكاء اصطناعي محلي / خاص وكلاء ذكاء اصطناعي

Qwen3.5 — 27B

ذكاء اصطناعي محلي / خاص

وحش Alibaba الهجين بـ 27 مليار معامل يعمل على معالج رسومي واحد بسعة 24 جيجابايت وينافس فعلاً النماذج السحابية المتقدمة — رؤية وبرمجة وسياق 262 ألف رمز و201 لغة، كل ذلك بترخيص Apache 2.0.

رائد المعايير في فئته (GPQA 85.5، SWE-Bench 72.4، LiveCodeBench 80.7). أول نموذج محلي بقدرات متعددة الوسائط حقيقية (رؤية + فيديو + OCR). قدرات وكيلية واستدعاء أدوات ممتازة. مجتمع r/LocalLLaMA يلقّبه «الرفيق اليومي الجديد».

يحتاج ~17-18 جيجابايت VRAM بدقة 4-بت (مثالي على بطاقات 24 جيجابايت، ضيق على إعدادات 16 جيجابايت). وضع التفكير مُفعّل افتراضياً — سهل التعطيل لكنه مفاجئ في البداية.


Multimodal Open Weight Apache 2.0 Reasoning Vision Free Offline

GLM-5.1

ذكاء اصطناعي محلي / خاص

القوة الوكيلية مفتوحة الأوزان من Z.ai — صُمّمت للبرمجة ثماني ساعات متواصلة دون أن تفقد الخيط. نفس ترخيص MIT، ونفس الحرية المفتوحة، لكن الآن مع تنفيذ مستقل مستدام ينافس أفضل النماذج المغلقة في مهام الهندسة الحقيقية.

رقم قياسي جديد على SWE-Bench Pro ‏(58.4)، قفزة هائلة في CyberGym إلى 68.7، وعروض واقعية لجلسات برمجة بأكثر من 655 تكرارًا تمتدّ لأكثر من 8 ساعات. يعمل على نفس العتاد الذي يشغّل GLM-5 — بدّل الأوزان وانطلق.

لا يزال نموذجًا ضخمًا جدًا (حوالي 754 مليار معامل إجمالي). حتى مع 40 مليار معامل نشط لكل رمز وتكميم مكثّف، توقّع احتياجات عالية من ذاكرة الفيديو. نصّي فقط — لا مدخلات مرئية أو متعددة الوسائط. وضع التفكير قد يضيف تأخيرًا في الاستفسارات البسيطة.


Open Weight MIT Agentic Coding Free

Gemma 4

ذكاء اصطناعي محلي / خاص

ردّ جوجل على السؤال: «ماذا لو عمل ذكاء اصطناعي متقدّم على هاتفك؟» Gemma 4 ليس نموذجًا واحدًا — إنه عائلة من أربعة، من نموذج حافّة بملياري معامل يعمل في 1.5 غيغابايت من الذاكرة إلى نموذج كثيف بـ 31 مليار معامل. نموذجا E2B وE4B يجلبان الذكاء متعدد الوسائط — نصوص وصور وصوت — إلى الهواتف الذكية، بدون اتصال بالإنترنت.

E4B يحقق 42.5% في AIME 2026 — ضعف نموذج 27B من الجيل السابق. ترخيص Apache 2.0 كامل. إدخال صوتي أصلي في نماذج الحافة. دعم 140+ لغة. أربعة أحجام مختلفة تغطي كل سيناريو من Raspberry Pi إلى محطة العمل.

نماذج الحافة الأصغر (E2B، E4B) تفتقر لعمق الاستدلال الكامل لنماذج سطح المكتب. لا إدخال فيديو في نماذج الحافة (فقط 26B و31B). أدوات نظام جوجل مفضّلة — توافق أقل مع الأنظمة غير التابعة لجوجل.


Multimodal Open Weight Apache 2.0 On-Device Free