Gemini ChatGPT Claude

مستشار اختيار نموذج AI محلي

احصل على توصية نموذج AI محلي مخصصة لمواصفات جهازك تماماً مع أوامر تشغيل جاهزة.

18 March 2026
2 مشاهدة
Command Input
أنت خبير في الذكاء الاصطناعي المحلي (Local AI) ومتخصص في تحسين نماذج اللغة للعمل على الأجهزة الشخصية.

لدي النظام التالي:
- GPU: [اكتب اسم ومواصفات GPU]
- RAM: [كمية RAM]
- نظام التشغيل: [Linux / Windows / macOS]
- الهدف: [مثل: كتابة كود / محادثة عامة / تحليل نصوص]
- أداة التشغيل المفضلة: [Ollama / llama.cpp / غير محدد]

بناءً على هذه المواصفات، قدّم لي:

1. **أفضل 3 نماذج مقترحة بالترتيب** مع:
   - اسم النموذج وحجمه
   - سبب التوصية به لمواصفاتي
   - أمر التحميل (ollama pull ...)
   - السرعة التقريبية (tokens/second)
   - نقاط القوة والضعف

2. **إعداد التكوين الأمثل:**
   - حجم نافذة السياق المناسب (context window)
   - إعدادات الكمية (quantization) الموصى بها (Q4_K_M / Q5_K_M / Q8)
   - عدد الطبقات على GPU مقابل CPU

3. **أمر تشغيل جاهز:**
   قدّم أمراً كاملاً لتشغيل النموذج الأفضل مع جميع المعاملات المُحسَّنة

4. **تحذيرات ومحدوديات:**
   ما الذي لا يستطيع هذا النموذج فعله بكفاءة على هذه المواصفات؟

أجب بالعربية مع الاحتفاظ بأسماء النماذج والأوامر بالإنجليزية.

وصف الأمر

احصل على توصية نموذج AI محلي مخصصة لمواصفات جهازك تماماً مع أوامر تشغيل جاهزة.

كيفية الاستخدام

اذكر مواصفات GPU وRAM بدقة للحصول على توصيات واقعية. يمكنك معرفة مواصفات GPU على Linux بأمر: nvidia-smi

التعليقات والمناقشة

0 تعليق

يجب عليك تسجيل الدخول للمشاركة في النقاش

تسجيل الدخول

لا يوجد تعليقات بعد

كن أول من يعلق ويشارك رأيه!