ثغرات الإطار القانوني المغربي في مواجهة تحديات العقود الذكية

كشفت دراسة علمية حديثة عن وجود عدد من الثغرات في الإطار القانوني المغربي المتعلق بالعقود وحماية المستهلك، خصوصاً عند التعامل مع العقود التي تتضمن استخدام تقنيات الذكاء الاصطناعي، مشيرة إلى غياب نصوص قانونية واضحة لمواجهة التحديات التي تفرضها هذه التكنولوجيا الناشئة.

الدراسة التي نُشرت في العدد الأخير من مجلة "المؤتمرات العلمية الدولية"، الصادرة عن "المركز الديمقراطي العربي الألماني"، والتي جاءت بعنوان "الحماية القانونية للمستهلك في مواجهة تقنيات الذكاء الاصطناعي: إشكالية كفاية النصوص التشريعية المغربية في ظل التعاقد مع الوكيل الذكي وتحديات المسؤولية عن الأضرار"، أكدت أن مسألة المسؤولية القانونية في المغرب بشأن الأضرار الناتجة عن استخدام الذكاء الاصطناعي لا تزال غامضة وغير محددة.

وانطلقت الباحثة سمية المطيطي، طالبة الدكتوراه ومعدة الدراسة، من فرضية أن استعمال أنظمة الذكاء الاصطناعي في إبرام العقود يطرح إشكالات قانونية جدية، لا سيما فيما يتعلق بحماية المستهلك، موضحة أن التفاعل المباشر بين المستهلكين وهذه الأنظمة يخلق تحديات قانونية معقدة مع تزايد استخدام هذه التقنيات في مختلف القطاعات.

وأشارت الدراسة إلى أن القانون رقم 31.08 المتعلق بحماية المستهلك لا يتضمن أحكاماً واضحة بخصوص المسؤولية الناجمة عن القرارات أو الأفعال التي تصدر عن أنظمة الذكاء الاصطناعي، مما يستدعي تطوير اجتهادات قضائية ومبادئ قانونية تُحدد بوضوح من يتحمّل المسؤولية في حال حدوث أضرار ناجمة عن هذه الأنظمة.

ورغم هذه التحديات، شددت الدراسة على أن المنظومة القانونية الحالية في المغرب لا تزال توفر بعض آليات الحماية للمستهلك، مثل إمكانية اللجوء إلى مبادئ حسن النية في التعاقد والمسؤولية المدنية بموجب القواعد العامة لحل النزاعات المرتبطة باستخدام الذكاء الاصطناعي. كما يمكن تطبيق المبادئ الأساسية لحماية المستهلك المنصوص عليها في القانون رقم 31.08 في هذا السياق.

وأكدت الدراسة على الحاجة إلى تكييف الإطار القانوني المغربي لمواكبة الواقع الجديد الذي تفرضه تقنيات الذكاء الاصطناعي، وذلك من خلال مراجعة شاملة للنصوص القائمة، واعتماد تدابير استباقية تضمن حماية فعالة للمستهلكين.

وشددت الباحثة على أهمية إنشاء إطار قانوني مرن وشامل يأخذ بعين الاعتبار الخصائص الفريدة للعقود التي تبرم مع وكلاء ذكيين، وذلك لضمان الأمن القانوني وتعزيز الابتكار المسؤول في العصر الرقمي.

وأوضحت أن مسألة تحديد المسؤولية في حال وقوع ضرر بسبب تصرفات "الوكلاء الأذكياء" ما تزال معقدة، نظراً لأن هؤلاء الوكلاء يتصرفون بناءً على خوارزميات، وقد يملكون استقلالية نسبية في اتخاذ القرارات، ما يجعل من الصعب نسب المسؤولية إلى جهة معينة على غرار العقود التقليدية التي تُبنى المسؤولية فيها على أفعال أشخاص طبيعيين أو اعتباريين.

وأضافت أن التعويض عن الأضرار الناتجة عن أنظمة الذكاء الاصطناعي يمثل تحدياً آخر، في ظل غياب نصوص واضحة وسوابق قضائية تُحدد طرق التعويض والجهات المسؤولة عنه. لذا تقترح الدراسة وضع آليات فعالة، مثل إنشاء صناديق تعويض خاصة بتمويل من الشركات العاملة في مجال الذكاء الاصطناعي، أو توفير حلول تأمينية مخصصة لمثل هذه الحالات.

واختتمت الدراسة بالتأكيد على ضرورة التعاون بين الجهات التنظيمية، والمصنّعين، والمستهلكين من أجل تطوير بيئة قانونية تواكب التطور السريع للذكاء الاصطناعي وتضمن حماية المستهلك بشكل فعال.


شاهد أيضا

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.