لماذا Ollama داخل VS Code؟
أدوات البرمجة المدعومة بالذكاء الاصطناعي مثل GitHub Copilot أصبحت جزءاً أساسياً من حياة المطور. لكن كثيراً من المطورين يترددون في استخدامها بسبب ثلاث مخاوف رئيسية: الخصوصية، والتكلفة، والاعتماد على الإنترنت. هنا يأتي دور Ollama كحل مثالي.
Ollama أداة مفتوحة المصدر تتيح لك تحميل وتشغيل نماذج لغوية ضخمة مثل Llama 3 وPhi-4 وMistral وDeepSeek محلياً على جهازك تماماً. والآن بفضل ميزة تخصيص نماذج اللغة المدمجة في VS Code، يمكنك توصيل هذه النماذج مباشرةً بـ Copilot Chat واستخدامها تماماً كأي نموذج سحابي.
المزايا الرئيسية لهذا التكامل
الخصوصية الكاملة: لا يُرسَل أي كود أو استعلام إلى خوادم خارجية عند استخدام النماذج المحلية — مثالي للمشاريع الحساسة والأكواد الخاصة.
التحكم في التكلفة: نماذج Ollama المحلية لا تستهلك أي رصيد من طلبات Copilot المميزة، مما يوفر عليك التكاليف الشهرية.
حرية التجريب: مكتبة Ollama تضم عشرات النماذج المفتوحة التي يمكنك التجريب بينها بحرية دون أي التزام.
العمل دون إنترنت: بعد تحميل النموذج، يمكنك الاستمرار في العمل حتى بدون اتصال بالشبكة.
خطوات الإعداد من الصفر
الخطوة الأولى: تثبيت Ollama. حمّل Ollama من الموقع الرسمي ollama.com وثبّته على نظامك (متاح لـ macOS وLinux وWindows). بعد التثبيت، شغّل نموذجاً بأمر بسيط في الطرفية، مثلاً: ollama pull phi4. يمكنك التحقق من تشغيل الخادم بزيارة العنوان http://localhost:11434 في المتصفح.
الخطوة الثانية: إضافة Ollama إلى VS Code. افتح VS Code وانتقل إلى نافذة Copilot Chat. انقر على قائمة اختيار النموذج (Model Picker) ثم Manage Models ثم Add Models ثم اختر Ollama، وأدخل العنوان http://localhost:11434/ ثم اضغط Enter. سيقوم VS Code تلقائياً باكتشاف جميع النماذج المثبتة على جهازك وإضافتها إلى القائمة.
الخطوة الثالثة: البدء بالمحادثة. افتح لوحة Copilot Chat، انقر على قائمة النماذج، واختر نموذج Ollama الذي تريده. من الآن فصاعداً، كل سؤال أو مهمة ترسلها ستُعالَج كاملاً على جهازك المحلي. يمكنك التبديل بين نماذج Ollama والنماذج السحابية في أي وقت من نفس القائمة.
ميزة BYOK: اختر نموذجك من مئات الخيارات
في مارس 2025، أطلق فريق VS Code ميزة Bring Your Own Key (BYOK) التي تتيح لك الاختيار من مئات النماذج عبر مزودين متعددين منهم Ollama وOpenRouter وGoogle وOpenAI. وفي الإصدار v1.104، تطورت هذه الميزة أكثر مع إطلاق Language Model Chat Provider API، وهي واجهة برمجية تتيح لأي مزود نماذج المساهمة بنماذجه مباشرةً عبر امتدادات VS Code. هذا يعني أن منظومة نماذج الذكاء الاصطناعي في VS Code أصبحت نظاماً مفتوحاً وقابلاً للتوسع بشكل غير محدود.
نصائح لأفضل تجربة
للإكمال التلقائي (Autocomplete): استخدم نماذج أصغر وأسرع مثل Codestral أو Phi-4-mini لأنها تستجيب بسرعة أثناء الكتابة.
للوضع الوكيل (Agent Mode): ليس كل نموذج يدعم استدعاء الأدوات (Tool Calling). تحقق من صفحة النموذج في مكتبة Ollama لمعرفة إذا كان يدعم Function Calling قبل استخدامه في وضع Agent.
للمشاريع الكبيرة: استخدم نماذج بسياق طويل مثل Llama 3.3 70B للحصول على فهم أعمق للكودبيس.
امتدادات إضافية تستحق التجربة
Continue.dev: امتداد شهير يوصّل Ollama بـ VS Code مع دعم للإكمال التلقائي والمحادثة وإعادة الهيكلة. مناسب لمن لا يملكون اشتراك Copilot.
Opilot: امتداد متقدم يتيح استخدام نماذج Ollama المحلية والسحابية داخل Copilot Chat مع دعم كامل لاستدعاء الأدوات والرؤية البصرية والنماذج التفكيرية.
Ollama Agent: يحوّل نموذجك المحلي إلى وكيل برمجي قادر على قراءة الملفات وتشغيل الأوامر وتعديل الكود تلقائياً — بخصوصية 100%.
هل تحتاج إلى قوة حوسبة خاصة؟
الحد الأدنى للأجهزة يعتمد على حجم النموذج: نماذج 3B تحتاج 8GB RAM، ونماذج 7B تحتاج 16GB. وجود GPU يُحسّن الأداء بشكل ملحوظ، لكن Ollama يعمل أيضاً على المعالج المركزي CPU. إذا لم تكن أجهزتك كافية، يمكنك دائماً توصيل VS Code بخادم Ollama بعيد على شبكتك الداخلية أو السحابة الخاصة.
ابدأ اليوم واستمتع ببيئة برمجة ذكية خاصة بك
تكامل Ollama مع VS Code يمثل نقلة نوعية للمطورين الذين يرغبون في الاستفادة من قوة الذكاء الاصطناعي دون التنازل عن الخصوصية أو تحمّل التكاليف المتصاعدة. سواء كنت تعمل على مشاريع شخصية أو كود تجاري حساس، هذا التكامل يضعك في مقعد القيادة.