ما هو OpenClaw ولماذا أثار الاهتمام؟
OpenClaw هو مساعد ذكاء اصطناعي شخصي يعمل بالكامل على أجهزتك الخاصة. ما يميزه عن سائر الأدوات هو قدرته على ربط منصات المراسلة — مثل WhatsApp وTelegram وSlack وDiscord وiMessage — بوكلاء برمجة AI عبر بوابة مركزية. بمعنى آخر، يمكنك إرسال أمر من هاتفك عبر تيليغرام لتجد حاسوبك المنزلي قد نفّذ المهمة وأرسل لك النتيجة — دون أن تغادر بياناتك جهازك قط. كان يُعرف سابقاً باسم Clawdbot وMoltbot قبل أن يستقر على الاسم الحالي.
Ollama يصبح مزوداً رسمياً في مارس 2026
في مارس 2026، أعلنت منصة OpenClaw عن دعم Ollama كـ مزود رسمي، مما يعني أن الإعداد أصبح أبسط بكثير من أي وقت مضى. Ollama هو أداة سطر أوامر تُشغّل النماذج اللغوية الكبيرة مباشرةً على حاسوبك، وتعمل كواجهة API متوافقة مع OpenAI على المنفذ 11434. الآن بات كل ما تحتاجه هو:
ollama pull qwen3.5:27b
ثم توجيه OpenClaw إلى http://localhost:11434/v1 — والنتيجة: وكيل AI متكامل يعمل دون اتصال بالإنترنت ودون أي تكلفة متكررة.
بحلول 2026، لم يعد مجرد التحدث مع AI كافياً — نريد وكلاء يعملون فعلاً نيابةً عنا.
أفضل النماذج المحلية للاستخدام مع OpenClaw
ليست كل النماذج متساوية في بيئة الوكلاء. بناءً على أداء SWE-bench وموثوقية استدعاء الأدوات، إليك التصنيف الحالي:
Qwen3.5 27B — الأفضل جودةً للأجهزة التي تملك 20GB+ VRAM. يصل أداؤه إلى مستوى GPT-5 Mini في اختبارات البرمجة.
Qwen3.5 35B-A3B — نموذج Mixture-of-Experts يُشغّل 3B باراميتر فقط في كل استدعاء، مما يمنحه سرعة 112 رمز/ثانية على RTX 3090.
Qwen3.5 9B — الخيار الخفيف لأجهزة 8GB VRAM.
GLM 4.7 Flash — خيار ممتاز للاستدلال وتوليد الكود محلياً (~25GB VRAM).
⚠️ ملاحظة: يحتاج OpenClaw إلى نافذة سياق لا تقل عن 64,000 رمز للعمل بكفاءة. تأكد من ضبط contextWindow بشكل صحيح في ملف الإعداد.
كيف تُعدّ البيئة في 5 خطوات
1. تثبيت Ollama:
curl -fsSL https://ollama.com/install.sh | sh
2. تحميل نموذج:
ollama pull qwen3.5:27b
3. تثبيت OpenClaw:
ollama launch openclaw
(يُعدّ المزود تلقائياً، ويُشغّل البوابة والواجهة)
4. ضبط إعدادات النموذج في openclaw.json:
عيّن baseUrl إلى http://localhost:11434/v1 واضبط contextWindow على 131072 للحصول على أفضل أداء.
5. ربط تيليغرام أو واتساب من لوحة إعدادات OpenClaw — والبوابة ستعمل في الخلفية وتتحمّل الردود تلقائياً.
حالات استخدام عملية
هذا التكامل يفتح أبواباً حقيقية للمطورين والباحثين:
💻 مساعد برمجة خاص: أرسل سؤالاً عن كودك من هاتفك وتلقَّ الإجابة في ثوانٍ، بينما النموذج يعمل على جهازك.
📊 مراقبة الأنظمة: اطلب من الوكيل فحص مساحة القرص أو حالة الخوادم وإرسال تقرير فوري.
🔒 خصوصية تامة: لا بيانات تغادر الجهاز — مثالي للبيانات الحساسة والبيئات البحثية.
🌐 أتمتة المهام اليومية: من قراءة الملفات وكتابتها إلى تشغيل أوامر Shell — OpenClaw يمتلك صلاحيات نظامية كاملة.
خلاصة: مستقبل AI المحلي وصل
دمج Ollama مع OpenClaw يمثّل نقلة نوعية في مشهد الذكاء الاصطناعي المحلي. بعد أن كانت الإعدادات معقدة وتتطلب خبرة تقنية عالية، أصبح بإمكان أي مطور اليوم بناء وكيل AI خاص يعمل على حاسوبه، يتحدث معه عبر تيليغرام، وينفّذ مهام حقيقية — كل ذلك مجاناً وبخصوصية كاملة. في عالم تتصاعد فيه تكاليف نماذج السحابة ومخاوف الخصوصية، هذا التكامل ليس مجرد خيار — بل قد يكون المعيار القادم للمطورين الجادين.