الذكاء الاصطناعي Feb. 28, 2026 6 مشاهدة

Anthropic ضد البنتاغون: كيف رفضت شركة AI أمريكية الرضوخ لأقوى جيش في العالم

في واحدة من أخطر المواجهات بين شركة تكنولوجيا والحكومة الأمريكية، رفضت Anthropic رفع حواجز الأمان عن نموذجها Claude رغم تهديدات البنتاغون. القصة الكاملة وأبعادها الأخلاقية.

ما الذي حدث بالضبط؟

في 26 فبراير 2026، نشر داريو أموداي — المدير التنفيذي لشركة Anthropic — بياناً رسمياً يرفض فيه إنذار وزارة الحرب الأمريكية (البنتاغون بعد إعادة التسمية). الوزارة أعطت الشركة مهلة حتى الساعة 5:01 مساء يوم الجمعة 27 فبراير لإزالة جميع حواجز الأمان عن نموذج Claude، أو مواجهة عواقب وخيمة.

Anthropic رفضت. لم تتراجع. وقالت بوضوح: "لا يمكننا بضمير حي أن نقبل طلبهم."

خلفية العلاقة: Anthropic لم تكن معارضة للجيش

هنا النقطة المهمة التي يغفلها كثيرون: Anthropic لم ترفض العمل مع الجيش. بالعكس تماماً — كانت أول شركة AI متقدمة تنشر نماذجها في الشبكات المصنفة (classified) للحكومة الأمريكية، وأول من نشرها في المختبرات الوطنية، وأول من قدم نماذج مخصصة لعملاء الأمن القومي.

Claude يُستخدم فعلياً في عمليات تحليل الاستخبارات، النمذجة والمحاكاة، التخطيط العملياتي، والعمليات السيبرانية. الشركة أيضاً تنازلت عن مئات ملايين الدولارات من الإيرادات عندما قطعت خدماتها عن شركات مرتبطة بالحزب الشيوعي الصيني.

بمعنى آخر: هذه ليست شركة "مناهضة للحرب". هذه شركة تعمل مع الجيش لكنها وضعت خطين أحمرين واضحين.

الخطان الأحمران: لماذا قالت Anthropic "لا"؟

Anthropic رفضت رفع القيود في حالتين فقط — ليس أكثر:

1. المراقبة الجماعية المحلية: الشركة تدعم استخدام AI في مهام الاستخبارات الخارجية. لكن توجيه هذه القدرات لمراقبة المواطنين الأمريكيين جماعياً يتناقض — حسب أموداي — مع القيم الديمقراطية. التحذير الأخطر: التكنولوجيا الحالية قادرة على تجميع بيانات متفرقة وعامة (تحركات، تصفح، علاقات) في صورة شاملة عن حياة أي شخص — تلقائياً وعلى نطاق هائل. القانون لم يلحق بعد بهذه القدرات.

2. الأسلحة ذاتية التحكم الكامل: Anthropic لا تعارض الأسلحة شبه المستقلة (مثل المستخدمة في أوكرانيا). لكنها ترى أن نماذج AI الحالية ببساطة ليست موثوقة بما يكفي لإخراج الإنسان تماماً من حلقة اتخاذ القرار في القتل. عرضت الشركة العمل مع الوزارة على البحث والتطوير لتحسين موثوقية هذه الأنظمة — لكن الوزارة رفضت العرض.

رد الحكومة: التصعيد السريع

الرد جاء عنيفاً وسريعاً. وزير الحرب بيت هيغسيث هدد بثلاثة إجراءات:

أولاً: إزالة Anthropic من أنظمة الوزارة.

ثانياً: تصنيف الشركة كـ "خطر على سلسلة التوريد" — تصنيف لم يُستخدم قبلاً إلا مع خصوم أمريكا الأجانب، ولم يُطبق أبداً على شركة أمريكية.

ثالثاً: استخدام قانون الإنتاج الدفاعي (من حقبة الحرب الكورية) لإجبار الشركة على الامتثال.

أموداي لاحظ التناقض الصارخ: "أحد التهديدين يصنفنا كخطر أمني، والآخر يصنف Claude كضرورة للأمن القومي. الأمران لا يجتمعان."

الجمعة السوداء: ماذا حدث عند انتهاء المهلة؟

يوم الجمعة 27 فبراير — قبل ساعة من انتهاء المهلة — نشر الرئيس ترامب على Truth Social أمراً لجميع الوكالات الفيدرالية بالتوقف فوراً عن استخدام تكنولوجيا Anthropic. بعد الساعة الخامسة مباشرة، نفّذ هيغسيث تهديده وأعلن تصنيف Anthropic رسمياً كـ "خطر على سلسلة التوريد للأمن القومي".

هيغسيث وصف الشركة بأنها تمارس "الغطرسة والخيانة" وأنها "تحاول السيطرة على قرارات الجيش الأمريكي". ترامب هدد بـ "استخدام كامل صلاحيات الرئاسة" لإجبار الشركة على الامتثال.

Anthropic ردت بأنها ستطعن في التصنيف أمام المحاكم، وأكدت أن هيغسيث لا يملك الصلاحية القانونية لمنع مقاولي الدفاع من التعامل مع الشركة خارج نطاق عقود الوزارة.

المفاجأة: OpenAI تملأ الفراغ

في نفس الليلة، أعلن سام ألتمان أن OpenAI وقّعت اتفاقية مع البنتاغون لنشر نماذجها على الشبكات المصنفة. ألتمان قال إن الوزارة "أظهرت احتراماً عميقاً للسلامة." لكن التفاصيل حول ما إذا كانت الاتفاقية تتضمن نفس الحواجز التي طالبت بها Anthropic لا تزال غير واضحة.

المفارقة: إيليا سوتسكيفر — المؤسس المشارك السابق لـ OpenAI الذي انفصل عنها — علّق قائلاً: "من الممتاز أن Anthropic لم تتراجع، ومن المهم أن OpenAI اتخذت موقفاً مماثلاً."

تحالف العمال: 700,000 موظف يدعمون الموقف

في تطور لم يتوقعه أحد، تحالف عمالي يمثل أكثر من 700,000 عامل من Amazon وGoogle وMicrosoft وOpenAI أرسل رسالة رسمية يطالب شركاتهم بالانضمام إلى Anthropic في رفض مطالب البنتاغون.

الرسالة حذرت: "إذا رضخت أي شركة تقنية لمطالب البنتاغون، سيحصل وزير الحرب على القدرة لمراقبة مجتمعاتنا جماعياً بمستوى غير مسبوق... وسيمتلك صلاحية بناء ونشر طائرات مسيّرة بالذكاء الاصطناعي تقتل أشخاصاً بدون موافقة أي إنسان."

لماذا هذا مهم لكل من يعمل في مجال AI؟

هذه ليست مجرد قصة خلاف تجاري — هذه لحظة تأسيسية في تاريخ أخلاقيات الذكاء الاصطناعي. لأول مرة نرى اختباراً حقيقياً لما يحدث عندما تتصادم القيم المعلنة لشركة AI مع أقوى مؤسسة عسكرية في العالم.

الأسئلة التي يطرحها هذا الصراع تمس كل مطور ومهندس وباحث في المجال:

من يقرر حدود استخدام AI؟ الشركة التي بنته؟ الحكومة التي تشتريه؟ أم المجتمع الذي يتأثر به؟

هل "أي استخدام قانوني" يعني "أي استخدام أخلاقي"؟ القانون يتخلف دائماً عن التكنولوجيا. المراقبة الجماعية عبر AI قانونية حالياً — لكن هل هذا يعني أنها مقبولة؟

ما ثمن الموقف الأخلاقي؟ Anthropic تواجه خسارة عقود بمئات الملايين، تصنيفاً كتهديد أمني، وأمراً رئاسياً بمقاطعتها. هل يمكن لشركة أن تتحمل هذا الثمن وتبقى؟

الدرس الأهم: الأمان ليس ميزة تسويقية

قبل هذا الأسبوع، كان كثيرون يتعاملون مع حديث شركات AI عن "الأخلاقيات" و"الاستخدام المسؤول" كمجرد شعارات تسويقية. ما فعلته Anthropic يُظهر أن هناك فرقاً بين من يكتب سياسة استخدام جميلة ومن يخاطر بكل شيء للالتزام بها.

داريو أموداي قالها بوضوح في مقابلة مع CBS: "نحن أمريكيون وطنيون... كل ما فعلناه كان من أجل هذا البلد ومن أجل دعم الأمن القومي الأمريكي."

المعركة لم تنتهِ. Anthropic ستطعن قضائياً، والكونغرس بدأ يتحرك، وعمال التكنولوجيا يضغطون. لكن بغض النظر عن النتيجة، هذا الأسبوع أثبت أن أخلاقيات AI ليست ترفاً أكاديمياً — بل ساحة معركة حقيقية بين أقوى القوى في العالم.

المرجع

هذا المقال مبني على البيان الرسمي لداريو أموداي: Statement from Dario Amodei on our discussions with the Department of War — Anthropic

مع تغطية إضافية من: CBS News · TechCrunch · Axios · NPR · Futurism

شارك المقال
شبّك

أعجبك المقال؟ اكتشف المزيد!

تصفح مكتبتنا الشاملة من الأوامر الجاهزة والمقالات المتخصصة في الذكاء الاصطناعي