لماذا هذا الموضوع مهم الآن؟
الذكاء الاصطناعي لم يعد مجرد أداة تقنية — بل أصبح يشارك في قرارات تحدد حرية الناس وعقوباتهم ومستقبلهم القانوني. من أنظمة التنبؤ بالجريمة إلى أدوات البحث القانوني إلى التعرف على الوجه، تتغلغل هذه التقنيات في منظومة العدالة بسرعة تفوق قدرتنا على فهم عواقبها. في هذا المقال، نستعرض أبرز الحالات الحقيقية وتبعاتها، مع مراجع أكاديمية وقانونية موثقة.
1. قضية COMPAS: عندما يتحيز الخوارزم عرقياً
ربما تكون قضية COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) الأكثر شهرة في مجال التحيز الخوارزمي. هذا النظام يُستخدم في محاكم عدة ولايات أمريكية لتقييم احتمالية عودة المتهم للجريمة (معدل العود)، ويؤثر مباشرة على قرارات الكفالة والأحكام والإفراج المشروط.
في عام 2016، نشرت مؤسسة ProPublica تحقيقاً صحفياً بعنوان Machine Bias حلّلت فيه نتائج أكثر من 10,000 متهم في مقاطعة Broward بولاية فلوريدا. كشف التحقيق أن المتهمين من ذوي البشرة السوداء كانوا أكثر عرضة بنسبة 77% لتصنيفهم خطأً كمرتفعي الخطورة مقارنة بالبيض، رغم أنهم لم يرتكبوا جرائم لاحقاً. في المقابل، كان البيض أكثر عرضة لتصنيفهم خطأً كمنخفضي الخطورة رغم عودتهم للجريمة.
القضية وصلت إلى المحكمة العليا في ولاية ويسكونسن في قضية State v. Loomis (2016)، حيث قضت المحكمة بأن استخدام COMPAS لا ينتهك حقوق الإجراءات القانونية الواجبة بشرط ألا يكون العامل الوحيد في تحديد الحكم. لكن هذا الحكم لم يعالج جوهر المشكلة: كيف يمكن للمتهم الطعن في خوارزم لا يمكنه فهمه أو الاطلاع على كيفية عمله الداخلية؟
المراجع:
— Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine Bias. ProPublica.
— Dressel, J. & Farid, H. (2018). The accuracy, fairness, and limits of predicting recidivism. Science Advances, 4(1).
— State v. Loomis, 881 N.W.2d 749 (Wis. 2016).
— Chouldechova, A. (2017). Fair prediction with disparate impact: A study of bias in recidivism prediction instruments. Big Data, 5(2).
2. قضية Mata v. Avianca: عندما يختلق الذكاء الاصطناعي قضايا وهمية
في عام 2023، وقعت حادثة غير مسبوقة هزّت المجتمع القانوني الأمريكي. المحامي Steven Schwartz من مكتب Levidow, Levidow & Oberman استخدم ChatGPT كأداة بحث قانوني في قضية إصابة شخصية ضد شركة طيران Avianca. قدم مذكرة قانونية تتضمن 6 سوابق قضائية لا وجود لها — اختلقها ChatGPT بالكامل، مع أرقام صحيحة الشكل واقتباسات مفبركة ومحاكم وهمية.
عندما طلب القاضي P. Kevin Castel من المحكمة الجزئية الفيدرالية في نيويورك نسخاً من هذه القضايا، لم يتمكن المحامي من إيجادها. والأسوأ أنه سأل ChatGPT نفسه عن حقيقة هذه القضايا، فأكد له أنها حقيقية ومتوفرة على Westlaw وLexisNexis — وهو كذب آخر من النموذج اللغوي.
النتيجة: فرض القاضي غرامة 5,000 دولار على المحامين بموجب القاعدة 11 من قواعد الإجراءات المدنية الفيدرالية، ورُفضت القضية نهائياً. وصف القاضي المذكرات بأنها تحتوي على تحليل قانوني "لا معنى له". هذه القضية أصبحت المرجع الأساسي لعواقب الاستخدام غير المسؤول للذكاء الاصطناعي التوليدي في المحاكم.
المراجع:
— Mata v. Avianca, Inc., 678 F. Supp. 3d 443 (S.D.N.Y. 2023).
— American Bar Association, Formal Opinion 512 (2024): Generative AI Tools.
— Magesh, V. et al. (2024). Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools. Journal of Empirical Legal Studies.
3. قضية Johnson v. Dunn: تصعيد العقوبات
في يوليو 2025، أصدرت المحكمة الجزئية الفيدرالية في ألاباما حكماً بارزاً في قضية Johnson v. Dunn (No. 2:21-cv-1701). مكتب محاماة كبير ومعروف قدم مذكرة تتضمن اقتباسات قانونية مُختلقة بواسطة الذكاء الاصطناعي. الفارق هذه المرة: القاضي أعلن صراحةً أن الغرامات المالية وحدها لم تعد كافية لردع هذا السلوك.
هذا القرار يمثل تحولاً في موقف القضاء الأمريكي — من التحذير إلى المطالبة بعقوبات أشد قد تشمل تعليق ممارسة المهنة. دراسة من جامعة ستانفورد (RegLab) وجدت أن أدوات الذكاء الاصطناعي التوليدي تنتج معلومات مفبركة في واحد من كل ثلاث استعلامات قانونية.
المراجع:
— Johnson v. Dunn, No. 2:21-cv-1701 (N.D. Ala., July 23, 2025).
— Stanford RegLab (2024). AI Hallucination Rates in Legal Research.
4. أول استخدام للذكاء الاصطناعي في بيان تأثير الضحية
في عام 2025 في ولاية أريزونا، حدثت سابقة غير مسبوقة: استخدمت شقيقة ضحية قتل أدوات الذكاء الاصطناعي لإنشاء فيديو يُحاكي صوت وصورة شقيقها المتوفى Christopher Pelkey ليقدم بيان تأثير الضحية أثناء جلسة الحكم. القاضي بعد مشاهدة الفيديو حكم على الجاني بعشر سنوات ونصف — أكثر بسنة كاملة مما طلبه الادعاء.
هذه الحالة تطرح أسئلة أخلاقية عميقة: هل يجب السماح لنسخة AI من شخص متوفى بالتأثير على أحكام المحاكم؟ دراسة من يونيو 2024 وجدت أن المناظرين المدعومين بالذكاء الاصطناعي كانوا أكثر إقناعاً من البشر في 64.4% من المناظرات — مما يعني أن تأثير هذه التقنية على القضاة وهيئات المحلفين قد يكون أكبر مما نظن.
المراجع:
— ABC15 Phoenix (2025). First AI-generated victim impact statement used in Arizona court.
— Anthropic/MIT Study (2024). AI-Enhanced Debaters: Persuasion and Influence.
5. تجارب إيجابية: الذكاء الاصطناعي يسرّع العدالة
ليس كل الأخبار سلبية. هناك تجارب ناجحة تثبت أن الذكاء الاصطناعي يمكن أن يحسّن منظومة العدالة عند استخدامه بمسؤولية:
البرازيل — نظام VICTOR: المحكمة العليا البرازيلية تستخدم نظام VICTOR لفحص الاستئنافات تلقائياً وتحديد القضايا ذات الأثر العام. ما يستغرق 44 دقيقة من كاتب المحكمة يُنجزه VICTOR في ثوانٍ معدودة. كما أطلق مجلس العدالة العمالية أداة Chat-JT في فبراير 2025 لمساعدة القضاة في البحث القانوني وتحليل الوثائق.
الأرجنتين — نظام Prometea: طورته النيابة العامة في بوينس آيرس بالتعاون مع جامعة بوينس آيرس منذ 2017. يقوم بأتمتة إدارة المواعيد، تحليل الأوراق، التنبؤ بالنتائج باستخدام السوابق، وصياغة الآراء القانونية — وتطور من أداة مساعدة إلى مساهم فعّال في القرارات القضائية.
ألمانيا — نظام OLGA: طورته IBM لوزارة العدل في ولاية بادن-فورتمبرغ. يستخدم معالجة اللغة الطبيعية لتصنيف القضايا واستخراج البيانات ومساعدة القضاة في البحث عبر آلاف الوثائق بسرعة فائقة.
الصين — محكمة شينزن: في يونيو 2024، أصبحت محكمة شينزن المتوسطة أول محكمة تدمج نموذج لغوي كبير في الاستدلال القضائي بشكل منهجي. النظام المدرب على تريليوني حرف من النصوص القانونية الصينية يساعد القضاة في تلخيص الوقائع وتحديد نقاط الخلاف وصياغة الأحكام.
المراجع:
— OECD (2025). Governing with Artificial Intelligence: AI in Justice Administration.
— Supreme Court of Brazil (2024). VICTOR AI System Report.
— CNJ Brazil (2025). Chat-JT Launch.
— IBM (2025). OLGA: AI for Baden-Württemberg Courts.
— Stimson Center (2026). AI in Global Majority Judicial Systems.
المخاطر الجوهرية
بناءً على الحالات أعلاه والأبحاث المتاحة، يمكن تلخيص المخاطر الرئيسية في عدة نقاط:
التحيز المنهجي (Systematic Bias): قضية COMPAS أثبتت أن الخوارزميات يمكن أن تكرّس التمييز العنصري الموجود في البيانات التاريخية. باحثة من جامعة كارنيجي ميلون (Alexandra Chouldechova) أثبتت رياضياً أنه من المستحيل تحقيق العدالة بجميع تعريفاتها في نفس الوقت عندما تختلف معدلات الجريمة الأساسية بين المجموعات.
الهلوسة والمعلومات المفبركة (Hallucination): قضايا Mata v. Avianca وJohnson v. Dunn وأكثر من 600 حالة موثقة في الولايات المتحدة تثبت أن الاعتماد على AI التوليدي في البحث القانوني بدون تحقق بشري يمكن أن يدمر قضايا ويضر بأبرياء.
الصندوق الأسود (Black Box): أنظمة مثل COMPAS تعتمد على خوارزميات مملوكة لشركات خاصة ترفض الكشف عن آليات عملها. كيف يمكن للمتهم ممارسة حقه في الدفاع إذا لم يستطع فهم كيف وصل النظام إلى تقييمه؟
تآكل الاستقلالية القضائية: الاعتماد المتزايد على توصيات AI قد يُضعف تدريجياً قدرة القضاة على ممارسة حكمهم الشخصي وتعاطفهم ومنطقهم الأخلاقي — وهي صفات إنسانية جوهرية لا يمكن استبدالها بالخوارزميات.
التوصيات والضمانات المطلوبة
بناءً على الدروس المستفادة من هذه الحالات والأبحاث، هناك عدة ضمانات ضرورية لاستخدام مسؤول:
الشفافية الإلزامية: يجب أن تكون الخوارزميات المستخدمة في القرارات القضائية مفتوحة للفحص المستقل. نقابة المحامين الأمريكية (ABA) أصدرت الرأي الرسمي 512 (2024) الذي يُلزم المحامين بالإفصاح عن استخدام AI التوليدي والتحقق من مخرجاته.
الرقابة البشرية الدائمة: AI يجب أن يكون أداة مساعدة للقاضي — لا بديلاً عنه. التجربة البرازيلية مع VICTOR ناجحة تحديداً لأن القضاة يراجعون كل توصية ويتخذون القرار النهائي.
التدقيق الدوري: يجب فحص أنظمة AI القضائية بانتظام للكشف عن التحيزات الناشئة، مع نشر نتائج التدقيق للعموم. كما يجب تحديث بيانات التدريب لتعكس التغييرات في القوانين والسياسات.
التدريب الإلزامي: كل قاضٍ ومحامٍ وموظف محكمة يستخدم أدوات AI يجب أن يتلقى تدريباً مكثفاً على قدراتها وحدودها — وهذا ما بدأت الأكاديميات القضائية في عدة دول بتنفيذه.
الخلاصة
الذكاء الاصطناعي في قطاع العدالة ليس شراً مطلقاً ولا خيراً مطلقاً — إنه أداة قوية تعتمد نتائجها كلياً على كيفية تصميمها ونشرها ومراقبتها. التجارب الإيجابية في البرازيل وألمانيا والأرجنتين تثبت أنه يمكن تسريع العدالة وتحسين الوصول إليها. لكن قضايا COMPAS وMata v. Avianca تذكرنا بأن الاستخدام غير المسؤول يمكن أن يدمر حيوات ويقوّض الثقة بالمنظومة القضائية.
السؤال الحقيقي ليس "هل نستخدم AI في المحاكم؟" — فهذا يحدث بالفعل. السؤال هو: كيف نضمن أن يكون استخدامه عادلاً وشفافاً وخاضعاً للمساءلة؟
المراجع الكاملة
1. Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine Bias. ProPublica. propublica.org
2. Dressel, J. & Farid, H. (2018). The accuracy, fairness, and limits of predicting recidivism. Science Advances, 4(1).
3. Chouldechova, A. (2017). Fair prediction with disparate impact. Big Data, 5(2), 153–163.
4. State v. Loomis, 881 N.W.2d 749 (Wis. 2016).
5. Mata v. Avianca, Inc., 678 F. Supp. 3d 443 (S.D.N.Y. 2023).
6. Johnson v. Dunn, No. 2:21-cv-1701 (N.D. Ala. 2025).
7. American Bar Association, Formal Opinion 512 (2024).
8. Magesh, V. et al. (2024). Hallucination-Free? Journal of Empirical Legal Studies.
9. OECD (2025). Governing with Artificial Intelligence. OECD Publishing.
10. Stimson Center (2026). AI in Global Majority Judicial Systems.
11. IBM (2025). OLGA: AI for Baden-Württemberg Courts. Case Study.
12. Grossman, M., Grimm, P., & Coglianese, C. (2024). AI in the Courts: How Worried Should We Be? Judicature, 107(3).
13. Corbett-Davies, S. et al. (2017). Algorithmic Decision Making and the Cost of Fairness. ACM SIGKDD.
14. Socol de la Osa, D. & Remolina, N. (2024). Artificial Intelligence at the Bench. Data & Policy, 6:e59.