شروحات تعليمية April 9, 2026 4 مشاهدة

دليل شامل لتشغيل Claude Code مع نماذج Ollama السحابية: من الصفر حتى أول جلسة برمجة

دليل عملي لتشغيل Claude Code فوق نماذج Ollama السحابية مثل kimi-k2.5:cloud — من تثبيت الأداتين وربطهما، إلى فهم حدود الاستخدام في Ollama Cloud وكيف تُحتسب حصتك فعليًا.

دليل شامل لتشغيل Claude Code مع نماذج Ollama السحابية: من الصفر حتى أول جلسة برمجة

لماذا هذا الدمج تحديدًا؟

النماذج السحابية هي نقطة التوازن المثالية لمعظم المطورين. النماذج المحلية في Ollama تمنحك الخصوصية الكاملة وصفر تكلفة مستمرة، لكن نموذجًا برمجيًا بحجم 480 مليار معامل لن يعمل أبدًا على حاسوبك المحمول. هنا يأتي دور Ollama Cloud الذي ينقل عملية الاستدلال إلى وحدات معالجة رسومية بمواصفات مراكز البيانات، بينما تستخدم أنت نفس أمر ollama الذي تستخدمه للنماذج المحلية تمامًا — كل ما عليك هو إضافة الوسم :cloud في نهاية اسم النموذج.

يعمل النموذج فعليًا على بنية Ollama التحتية، لكنه يظهر من منظور طرفيتك كأنه نموذج محلي عادي. ثم يتحدث Claude Code إلى ذلك النموذج عبر نقطة النهاية المتوافقة مع Anthropic على العنوان http://localhost:11434.

الخطوة الأولى: تثبيت Ollama

حمّل Ollama من الموقع الرسمي ollama.com/download لنظام macOS أو Windows أو Linux. على لينكس يمكنك التثبيت بأمر واحد:

bash
curl -fsSL https://ollama.com/install.sh | sh

بعد الانتهاء، تحقق من أن كل شيء يعمل عبر الأمر التالي:

bash
ollama --version

يجب أن يكون لديك إصدار حديث — كحد أدنى v0.14، ويُفضّل أن يكون أحدث إصدار مستقر، لأن أمر ollama launch والتوافق مع Anthropic API كلاهما من الإضافات الحديثة. إذا ظهر لك خطأ يقول إن الأمر launch غير معروف، فهذا يعني أن نسختك قديمة جدًا ويجب تحديثها فورًا.

الخطوة الثانية: تسجيل الدخول للوصول للنماذج السحابية

النماذج السحابية تتطلب حسابًا في Ollama. أنشئ حسابك من ollama.com، ثم اربط واجهة الأوامر المحلية بحسابك عبر تنفيذ:

bash
ollama signin

هذه الخطوة تربط جلستك المحلية بحسابك السحابي حتى يتم احتساب طلبات النماذج السحابية ضمن حصة خطتك.

الخطوة الثالثة: تثبيت Claude Code

يتم توزيع Claude Code عبر npm، لذا تحتاج إلى Node.js إصدار 18 أو أحدث على جهازك. ثم نفّذ الأمر التالي:

bash
npm install -g @anthropic-ai/claude-code

للتأكد من نجاح التثبيت شغّل الأمر التالي:

bash
claude --version

في الوضع الافتراضي يتوقع Claude Code وجود مفتاح API من Anthropic، لكننا في هذا الإعداد سنوجّهه إلى Ollama بدلًا من ذلك، وبالتالي لست بحاجة إلى أي تسجيل دخول لدى Anthropic إطلاقًا.

الخطوة الرابعة: سحب نموذج سحابي

النماذج السحابية في Ollama يتم تمييزها بالوسم :cloud. أنت لا تُحمّل أوزان النموذج فعليًا — فهي تعيش على خوادم Ollama — لكن يمكنك الإشارة إليها تمامًا كما تفعل مع النماذج المحلية:

bash
ollama pull kimi-k2.5:cloud

من النماذج السحابية الشائعة الأخرى: qwen3-coder:480b-cloud و glm-5:cloud و gpt-oss:120b-cloud. اختر نموذجًا مناسبًا للأعمال البرمجية — Kimi K2.5 و Qwen3-Coder كلاهما خيار قوي للمبرمجين.

الخطوة الخامسة: إطلاق Claude Code من خلال Ollama

هنا يصبح الدمج في غاية البساطة. أمر ollama launch يقوم بضبط متغيرات البيئة اللازمة وتشغيل Claude Code في خطوة واحدة:

bash
ollama launch claude --model kimi-k2.5:cloud

هذا هو كل التكامل المطلوب. خلف الكواليس، هذا الأمر مكافئ تمامًا لتنفيذ الأسطر التالية يدويًا:

bash
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL=http://localhost:11434
claude --model kimi-k2.5:cloud

إذا احتجت لاحقًا لتشغيل Claude Code يدويًا — مثلًا داخل سكربت أو بيئة CI — فهذه الأسطر الأربعة هي كل ما تحتاجه. الآلية الفعلية هي تجاوز عنوان ANTHROPIC_BASE_URL: يقوم Claude Code بإرسال نفس استدعاءات الـ API كالمعتاد، لكنها تذهب الآن إلى نسختك المحلية من Ollama، التي تترجمها إلى النموذج المحدد، وفي حالة النماذج السحابية تمررها إلى مركز بيانات Ollama.

عند بدء تشغيل Claude Code سيطلب منك الإذن لقراءة وتعديل الملفات في المجلد الحالي. وافق على ذلك، وستحصل على مساعد برمجة وكيلي كامل يعمل فوق Kimi K2.5 — تحرير الملفات، استدعاء الأدوات، التفكير متعدد الخطوات، كل شيء.

ملاحظة مهمة: يتطلب Claude Code نافذة سياق كبيرة. توصي وثائق Ollama بـ 64 ألف توكن على الأقل، والنماذج السحابية تعمل دائمًا بحجم نافذة السياق الكامل الخاص بها، فلا تحتاج إلى ضبط أي شيء في الحالة السحابية. إذا انتقلت لاحقًا إلى نموذج محلي فستحتاج إلى رفع حجم النافذة الافتراضي البالغ 4 آلاف توكن يدويًا.

حدود الاستخدام في Ollama Cloud

هذا الجزء تتجاوزه معظم الأدلة بسرعة، لذلك يستحق أن نكون فيه دقيقين. تستخدم Ollama Cloud نموذج اشتراكات متدرّج بدلًا من الفوترة لكل توكن، وهو أمر غير مألوف في عالم البنى التحتية للذكاء الاصطناعي.

الخطط الحالية هي:

Free وهي مجانية ومتاحة لأي حساب، مناسبة للتجربة والاستخدام اليومي الخفيف. ثم

Pro بحوالي 20 دولارًا شهريًا، وهي موجهة للمطور الفرد المنتظم. ثم

Max بحوالي 100 دولار شهريًا للأحمال الأثقل. أما خطط Team و Enterprise فمدرجة على صفحة الأسعار باعتبارها قادمة قريبًا.

كل خطة تأتي بنافذتي إعادة تعيين: حد جلسة يُعاد ضبطه كل 5 ساعات، وحد أسبوعي يُعاد ضبطه كل 7 أيام. هذا يعني أنك حتى في الخطة المجانية لست محصورًا بسقف صلب واحد — تحصل على سعة جديدة كل خمس ساعات بالإضافة إلى ميزانية أكبر تتجدد أسبوعيًا.

كيف يُحتسب الاستهلاك فعلًا؟

الجانب غير المعتاد في نموذج Ollama هو أن الاستخدام لا يُقاس بعدد التوكنات أو الطلبات، بل بالوقت الفعلي الذي تستهلكه طلباتك من وحدة معالجة الرسومات. هذا يعني أن الطلبات الأقصر، والسياق المخزّن مؤقتًا، والنماذج الأصغر، كلها تمدّد حصتك أكثر. وقد صرّحت Ollama بأن هذا التصميم يجعل سعتك الفعلية تنمو مع الوقت كلما تحسّنت العتاد ومعماريات النماذج — أنت تشتري شريحة من قوة الحوسبة، لا دلوًا ثابتًا من التوكنات.

أنت تشتري شريحة من قوة الحوسبة، لا دلوًا ثابتًا من التوكنات.

هناك بعض النقاط العملية التي يجب أن تأخذها في الحسبان: النماذج المميّزة (مثل النماذج الضخمة جدًا أو نماذج المعاينة) قد تستهلك من حصة محجوزة منفصلة بدلًا من حصتك المعتادة. كما أن التزامن (Concurrency) محدود حسب الخطة: الطلبات التي تتجاوز عدد فتحات التزامن في خطتك يتم وضعها في طابور انتظار، وإذا امتلأ الطابور نفسه يتم رفض الطلب حتى تتحرر فتحة. عند بلوغك 90٪ من حد خطتك ترسل لك Ollama تنبيهًا عبر البريد الإلكتروني، ويمكنك تعطيل ذلك من الإعدادات. كما تم الإعلان عن قدوم تسعير قائم على التوكنات قريبًا لمن يفضّل دفع رسوم التجاوز بدلًا من ترقية الخطة.

على صعيد الخصوصية، تؤكد Ollama أن بيانات الطلبات والاستجابات على النماذج السحابية لا يتم تسجيلها أو استخدامها للتدريب، وأن البنية التحتية مستضافة بشكل أساسي في الولايات المتحدة، مع استخدام أوروبا وسنغافورة لطاقة استيعابية إضافية.

محلي مقابل سحابي — المفاضلة

إذا شغّلت Ollama على نموذج محلي فالاستخدام غير محدود فعلًا — إنه عتادك أنت في النهاية. لكن العقبة هي أن النماذج البرمجية الجادة (Qwen3-Coder بحجم 480B، و Kimi K2.5، و GLM-5) تتطلب ذاكرة VRAM أكبر بكثير مما يحتويه أي حاسوب محمول عادي. السحابة تسد هذه الفجوة: تحصل على سرعة استدلال بمواصفات مراكز البيانات على نماذج لا يمكن فيزيائيًا أن تعمل على جهازك، مقابل نظام الحصص الذي شرحناه أعلاه. كثير من المطورين يعتمدون نهجًا هجينًا: نموذج محلي صغير للعمل دون اتصال أو للأكواد الحساسة، ونماذج :cloud للأعمال الثقيلة.

مشكلات شائعة قد تواجهها

إذا أعاد لك أمر ollama launch رسالة تقول إن الأمر غير معروف، فقم بتحديث Ollama. وإذا بدأ Claude Code لكنه لم يتمكن من قراءة الملفات في مشروعك، تحقق من /permissions داخل Claude Code — كثير من الأدوات مرفوضة افتراضيًا وتحتاج إلى السماح صراحةً بـ Bash والوصول للملفات. وإذا ظهرت لك رسائل خطأ خاصة بالنموذج تشير إلى أنه يتطلب ذاكرة نظام أكبر من المتاحة، فأنت غالبًا تحاول تشغيل نسخة محلية بدلًا من الوسم :cloud — راجع اسم النموذج بدقة.

خلاصة الموضوع

المسار الكامل من الصفر إلى تشغيل Claude Code فوق Kimi K2.5 سحابيًا هو: ثبّت Ollama، سجّل دخولك، ثبّت Claude Code عبر npm، ثم نفّذ ollama launch claude --model kimi-k2.5:cloud. التكامل فعليًا عبارة عن سطر واحد بمجرد أن تصبح الأداتان مثبّتتين، والخطة المجانية كافية تمامًا لتقييم ما إذا كان هذا الأسلوب يناسب طريقة عملك. لكل من كان يتردد في الالتزام باشتراك Anthropic، أو يريد تحكمًا أكبر في النموذج الذي يقوم بالعمل، يُعتبر هذا واحدًا من أنظف الإعدادات المتاحة في الوقت الحالي.

شارك المقال
شبّك

أعجبك المقال؟ اكتشف المزيد!

تصفح مكتبتنا الشاملة من الأوامر الجاهزة والمقالات المتخصصة في الذكاء الاصطناعي