نشرت شركة Freshfields للمحاماة الدولية الجزء الأول من مقال تحليلي بعنوان “AI in Arbitration, Part I: Principles Guiding the Use of AI in Arbitral Proceedings”، يتناول المبادئ التي بدأت المحاكم ومؤسسات التحكيم في تبنيها لتنظيم استخدام أدوات الذكاء الاصطناعي في تسوية المنازعات، في ظل الطفرة التقنية التي شهدها هذا المجال خلال عام 2025.
ويشير المقال إلى أن الإرشادات القضائية والمؤسسية تتقارب حول خمسة مبادئ رئيسية تحكم استخدام الذكاء الاصطناعي في التحكيم:
1️⃣ المبدأ الأول: الاستخدام المسؤول والمساءلة، ويقوم على بقاء الأطراف ومحاميهم مسؤولين عن المخرجات الناتجة عن أدوات الذكاء الاصطناعي، مع ضرورة التحقق من دقتها والالتزام بالمعايير المهنية، إلى جانب حظر استخدام هذه الأدوات في فبركة الأدلة أو تحريف الوقائع. وتؤيد ذلك إرشادات مركز سيليكون فالي للتحكيم والوساطة SVAMC، ومذكرة مركز فيينا للتحكيم الدولي VIAC لاستخدام الذكاء الاصطناعي في التحكيم.
2️⃣ المبدأ الثاني: الإشراف البشري، إذ يؤكد المقال أن الذكاء الاصطناعي لا يمكن أن يحل محل التقدير القانوني للمحكمين، بل يظل أداة مساعدة في البحث أو معالجة المعلومات، مع احتفاظ المحكمين بالمسؤولية الكاملة عن الفصل في الوقائع والقانون وتقييم الأدلة. وتتقاطع عدة إرشادات مؤسسية في هذا الاتجاه، مثل إرشادات CIArb لاستخدام الذكاء الاصطناعي ومذكرة VIAC.
3️⃣ المبدأ الثالث: الشفافية والإفصاح، حيث تتباين الممارسات بين المحاكم والهيئات التحكيمية بشأن مدى وجوب الإفصاح عن استخدام أدوات الذكاء الاصطناعي في الإجراءات. ومع ذلك، تميل الإرشادات الصادرة عن مؤسسات التحكيم إلى تشجيع قدر أكبر من الشفافية، سواء من خلال الإفصاح عن استخدام الأدوات أو توضيح كيفية توظيفها في التحليل القانوني أو إنتاج الأدلة، كما يظهر في إرشادات مركز التحكيم التابع لغرفة تجارة ستوكهولم وإرشادات SVAMC.
4️⃣ المبدأ الرابع: تعزيز العدالة في الأنظمة المعتمدة على البيانات، إذ قد تعكس أنظمة الذكاء الاصطناعي تحيزات مرتبطة بالبيانات التي تم تدريبها عليها، وهو ما يستدعي تقييم هذه المخاطر لضمان المساواة بين الأطراف، واختيار أدوات ذكاء اصطناعي تتضمن آليات للكشف عن هذه الانحرافات وإدارتها، لا سيما في سياقات مثل اختيار المحكمين أو الخبراء.
5️⃣ المبدأ الخامس: حماية البيانات والسرية، مؤكدًا ضرورة فهم كيفية معالجة أنظمة الذكاء الاصطناعي للبيانات وتخزينها والاحتفاظ بها، وعدم إدخال المعلومات السرية في هذه الأدوات إلا بعد التأكد من اعتمادها واستخدام وسائل مثل الحجب أو إخفاء الهوية، كما تشير قواعد JAMS إلى إمكانية تمكين المحكمين من تعيين خبراء لمراجعة أنظمة الذكاء الاصطناعي بناءً على طلب الأطراف.
وتُعد هذه المبادئ أساسًا أوليًا لتنظيم استخدام الذكاء الاصطناعي في التحكيم الدولي، بما يسمح بالاستفادة من قدراته مع الحفاظ في الوقت ذاته على الثقة في عدالة الإجراءات التحكيمية وسلامة الأحكام الصادرة عنها.
#مستجدات_التحكيم


No comment