لماذا هذا الدمج تحديدًا؟
النماذج السحابية هي نقطة التوازن المثالية لمعظم المطورين. النماذج المحلية في Ollama تمنحك الخصوصية الكاملة وصفر تكلفة مستمرة، لكن نموذجًا برمجيًا بحجم 480 مليار معامل لن يعمل أبدًا على حاسوبك المحمول. هنا يأتي دور Ollama Cloud الذي ينقل عملية الاستدلال إلى وحدات معالجة رسومية بمواصفات مراكز البيانات، بينما تستخدم أنت نفس أمر ollama الذي تستخدمه للنماذج المحلية تمامًا — كل ما عليك هو إضافة الوسم :cloud في نهاية اسم النموذج.
يعمل النموذج فعليًا على بنية Ollama التحتية، لكنه يظهر من منظور طرفيتك كأنه نموذج محلي عادي. ثم يتحدث Claude Code إلى ذلك النموذج عبر نقطة النهاية المتوافقة مع Anthropic على العنوان http://localhost:11434.
الخطوة الأولى: تثبيت Ollama
حمّل Ollama من الموقع الرسمي ollama.com/download لنظام macOS أو Windows أو Linux. على لينكس يمكنك التثبيت بأمر واحد:
curl -fsSL https://ollama.com/install.sh | sh
بعد الانتهاء، تحقق من أن كل شيء يعمل عبر الأمر التالي:
ollama --version
يجب أن يكون لديك إصدار حديث — كحد أدنى v0.14، ويُفضّل أن يكون أحدث إصدار مستقر، لأن أمر ollama launch والتوافق مع Anthropic API كلاهما من الإضافات الحديثة. إذا ظهر لك خطأ يقول إن الأمر launch غير معروف، فهذا يعني أن نسختك قديمة جدًا ويجب تحديثها فورًا.
الخطوة الثانية: تسجيل الدخول للوصول للنماذج السحابية
النماذج السحابية تتطلب حسابًا في Ollama. أنشئ حسابك من ollama.com، ثم اربط واجهة الأوامر المحلية بحسابك عبر تنفيذ:
ollama signin
هذه الخطوة تربط جلستك المحلية بحسابك السحابي حتى يتم احتساب طلبات النماذج السحابية ضمن حصة خطتك.
الخطوة الثالثة: تثبيت Claude Code
يتم توزيع Claude Code عبر npm، لذا تحتاج إلى Node.js إصدار 18 أو أحدث على جهازك. ثم نفّذ الأمر التالي:
npm install -g @anthropic-ai/claude-code
للتأكد من نجاح التثبيت شغّل الأمر التالي:
claude --version
في الوضع الافتراضي يتوقع Claude Code وجود مفتاح API من Anthropic، لكننا في هذا الإعداد سنوجّهه إلى Ollama بدلًا من ذلك، وبالتالي لست بحاجة إلى أي تسجيل دخول لدى Anthropic إطلاقًا.
الخطوة الرابعة: سحب نموذج سحابي
النماذج السحابية في Ollama يتم تمييزها بالوسم :cloud. أنت لا تُحمّل أوزان النموذج فعليًا — فهي تعيش على خوادم Ollama — لكن يمكنك الإشارة إليها تمامًا كما تفعل مع النماذج المحلية:
ollama pull kimi-k2.5:cloud
من النماذج السحابية الشائعة الأخرى: qwen3-coder:480b-cloud و glm-5:cloud و gpt-oss:120b-cloud. اختر نموذجًا مناسبًا للأعمال البرمجية — Kimi K2.5 و Qwen3-Coder كلاهما خيار قوي للمبرمجين.
الخطوة الخامسة: إطلاق Claude Code من خلال Ollama
هنا يصبح الدمج في غاية البساطة. أمر ollama launch يقوم بضبط متغيرات البيئة اللازمة وتشغيل Claude Code في خطوة واحدة:
ollama launch claude --model kimi-k2.5:cloud
هذا هو كل التكامل المطلوب. خلف الكواليس، هذا الأمر مكافئ تمامًا لتنفيذ الأسطر التالية يدويًا:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL=http://localhost:11434
claude --model kimi-k2.5:cloud
إذا احتجت لاحقًا لتشغيل Claude Code يدويًا — مثلًا داخل سكربت أو بيئة CI — فهذه الأسطر الأربعة هي كل ما تحتاجه. الآلية الفعلية هي تجاوز عنوان ANTHROPIC_BASE_URL: يقوم Claude Code بإرسال نفس استدعاءات الـ API كالمعتاد، لكنها تذهب الآن إلى نسختك المحلية من Ollama، التي تترجمها إلى النموذج المحدد، وفي حالة النماذج السحابية تمررها إلى مركز بيانات Ollama.
عند بدء تشغيل Claude Code سيطلب منك الإذن لقراءة وتعديل الملفات في المجلد الحالي. وافق على ذلك، وستحصل على مساعد برمجة وكيلي كامل يعمل فوق Kimi K2.5 — تحرير الملفات، استدعاء الأدوات، التفكير متعدد الخطوات، كل شيء.
ملاحظة مهمة: يتطلب Claude Code نافذة سياق كبيرة. توصي وثائق Ollama بـ 64 ألف توكن على الأقل، والنماذج السحابية تعمل دائمًا بحجم نافذة السياق الكامل الخاص بها، فلا تحتاج إلى ضبط أي شيء في الحالة السحابية. إذا انتقلت لاحقًا إلى نموذج محلي فستحتاج إلى رفع حجم النافذة الافتراضي البالغ 4 آلاف توكن يدويًا.
حدود الاستخدام في Ollama Cloud
هذا الجزء تتجاوزه معظم الأدلة بسرعة، لذلك يستحق أن نكون فيه دقيقين. تستخدم Ollama Cloud نموذج اشتراكات متدرّج بدلًا من الفوترة لكل توكن، وهو أمر غير مألوف في عالم البنى التحتية للذكاء الاصطناعي.
الخطط الحالية هي:
Free وهي مجانية ومتاحة لأي حساب، مناسبة للتجربة والاستخدام اليومي الخفيف. ثم
Pro بحوالي 20 دولارًا شهريًا، وهي موجهة للمطور الفرد المنتظم. ثم
Max بحوالي 100 دولار شهريًا للأحمال الأثقل. أما خطط Team و Enterprise فمدرجة على صفحة الأسعار باعتبارها قادمة قريبًا.
كل خطة تأتي بنافذتي إعادة تعيين: حد جلسة يُعاد ضبطه كل 5 ساعات، وحد أسبوعي يُعاد ضبطه كل 7 أيام. هذا يعني أنك حتى في الخطة المجانية لست محصورًا بسقف صلب واحد — تحصل على سعة جديدة كل خمس ساعات بالإضافة إلى ميزانية أكبر تتجدد أسبوعيًا.
كيف يُحتسب الاستهلاك فعلًا؟
الجانب غير المعتاد في نموذج Ollama هو أن الاستخدام لا يُقاس بعدد التوكنات أو الطلبات، بل بالوقت الفعلي الذي تستهلكه طلباتك من وحدة معالجة الرسومات. هذا يعني أن الطلبات الأقصر، والسياق المخزّن مؤقتًا، والنماذج الأصغر، كلها تمدّد حصتك أكثر. وقد صرّحت Ollama بأن هذا التصميم يجعل سعتك الفعلية تنمو مع الوقت كلما تحسّنت العتاد ومعماريات النماذج — أنت تشتري شريحة من قوة الحوسبة، لا دلوًا ثابتًا من التوكنات.
أنت تشتري شريحة من قوة الحوسبة، لا دلوًا ثابتًا من التوكنات.
هناك بعض النقاط العملية التي يجب أن تأخذها في الحسبان: النماذج المميّزة (مثل النماذج الضخمة جدًا أو نماذج المعاينة) قد تستهلك من حصة محجوزة منفصلة بدلًا من حصتك المعتادة. كما أن التزامن (Concurrency) محدود حسب الخطة: الطلبات التي تتجاوز عدد فتحات التزامن في خطتك يتم وضعها في طابور انتظار، وإذا امتلأ الطابور نفسه يتم رفض الطلب حتى تتحرر فتحة. عند بلوغك 90٪ من حد خطتك ترسل لك Ollama تنبيهًا عبر البريد الإلكتروني، ويمكنك تعطيل ذلك من الإعدادات. كما تم الإعلان عن قدوم تسعير قائم على التوكنات قريبًا لمن يفضّل دفع رسوم التجاوز بدلًا من ترقية الخطة.
على صعيد الخصوصية، تؤكد Ollama أن بيانات الطلبات والاستجابات على النماذج السحابية لا يتم تسجيلها أو استخدامها للتدريب، وأن البنية التحتية مستضافة بشكل أساسي في الولايات المتحدة، مع استخدام أوروبا وسنغافورة لطاقة استيعابية إضافية.
محلي مقابل سحابي — المفاضلة
إذا شغّلت Ollama على نموذج محلي فالاستخدام غير محدود فعلًا — إنه عتادك أنت في النهاية. لكن العقبة هي أن النماذج البرمجية الجادة (Qwen3-Coder بحجم 480B، و Kimi K2.5، و GLM-5) تتطلب ذاكرة VRAM أكبر بكثير مما يحتويه أي حاسوب محمول عادي. السحابة تسد هذه الفجوة: تحصل على سرعة استدلال بمواصفات مراكز البيانات على نماذج لا يمكن فيزيائيًا أن تعمل على جهازك، مقابل نظام الحصص الذي شرحناه أعلاه. كثير من المطورين يعتمدون نهجًا هجينًا: نموذج محلي صغير للعمل دون اتصال أو للأكواد الحساسة، ونماذج :cloud للأعمال الثقيلة.
مشكلات شائعة قد تواجهها
إذا أعاد لك أمر ollama launch رسالة تقول إن الأمر غير معروف، فقم بتحديث Ollama. وإذا بدأ Claude Code لكنه لم يتمكن من قراءة الملفات في مشروعك، تحقق من /permissions داخل Claude Code — كثير من الأدوات مرفوضة افتراضيًا وتحتاج إلى السماح صراحةً بـ Bash والوصول للملفات. وإذا ظهرت لك رسائل خطأ خاصة بالنموذج تشير إلى أنه يتطلب ذاكرة نظام أكبر من المتاحة، فأنت غالبًا تحاول تشغيل نسخة محلية بدلًا من الوسم :cloud — راجع اسم النموذج بدقة.
خلاصة الموضوع
المسار الكامل من الصفر إلى تشغيل Claude Code فوق Kimi K2.5 سحابيًا هو: ثبّت Ollama، سجّل دخولك، ثبّت Claude Code عبر npm، ثم نفّذ ollama launch claude --model kimi-k2.5:cloud. التكامل فعليًا عبارة عن سطر واحد بمجرد أن تصبح الأداتان مثبّتتين، والخطة المجانية كافية تمامًا لتقييم ما إذا كان هذا الأسلوب يناسب طريقة عملك. لكل من كان يتردد في الالتزام باشتراك Anthropic، أو يريد تحكمًا أكبر في النموذج الذي يقوم بالعمل، يُعتبر هذا واحدًا من أنظف الإعدادات المتاحة في الوقت الحالي.