المسؤولية المدنية عن أضرار الروبوت في العراق

المحامي: ايوب حميد/متخصص بالقضايا التجارية.

في ظل التطور السريع لتقنيات الذكاء الاصطناعي والروبوتات صار من الضروري ان يعيد الفقه القانوني النظر في مفاهيم المسؤولية المدنية التقليدية ومدى قدرتها على استيعاب الاضرار التي قد تنشأ عن هذه الانظمة الذكية ورغم تعاظم حضور الروبوت في الحياة اليومية فان ابرز التحديات القانونية لا تزال تتمثل في غياب تعريف موحد للروبوت في التشريعات والفقه فضلا عن رفض منحه الشخصية القانونية حتى في التوجه الاوروبي لسنة ٢٠١٧ الذي وان لمح الى امكانية الاعتراف بالروبوت كفاعل قانوني الا انه لم يمنحه صفة الشخص القانوني الكامل لعدم استقلاله في اتخاذ القرار وافتقاره للاهلية القانونية.

ولمعالجة هذا الفراغ تبنت مسودة القانون المدني الاوروبي لعام 2017 ما يعرف بنظرية النائب الانساني وهي تقضي بتحميل المسؤولية لمجموعة من الاشخاص الطبيعيين المرتبطين بالروبوت مثل المصنع او المبرمج او المستخدم بحسب دورهم في تشغيل او مراقبة الروبوت دون حاجة لاثبات الخطأ ودون اعتبار الروبوت شيئا ماديا فحسب، وهي مقاربة تنتمي الى مفهوم المسؤولية الموضوعية التي لا تشترط وجود خطأ بل تعتمد على قاعدة الغرم بالغنم التي تقول ان من ينتفع من الشيء يجب ان يتحمل تبعة مخاطره.

وقد تبنى القانون المدني العراقي هذا المفهوم في عدة حالات اذ اقام المسؤولية على عنصر الضرر دون اشتراط الخطأ وهي احدى صور المسؤولية الموضوعية التي تتناسب مع طبيعة الاضرار الناتجة عن استخدام الانظمة الذكية.

لكن نظرية المسؤولية عن الاشياء التي نصت عليها المادة ٢٣١ من القانون المدني لا تكفي لمواجهة تعقيدات الاضرار الناتجة عن الذكاء الاصطناعي لانها تقوم على فرض الخطأ القابل لاثبات العكس بينما معظم تلك الاضرار لا يكون فيها الخطأ راجعا الى شخص بعينه بل الى تعقيد تقني او برمجي لا يمكن نسبته الى جهة واحدة.

من هنا تبرز الحاجة الى حلول بديلة مثل انظمة تأمين الزامي على مستخدمي هذه التقنية او صناديق تعويض خاصة او تشريعات مستقلة تنظم العلاقة القانونية بين الانسان والروبوت وتحدد الجهات المسؤولة عن اضراره بشكل دقيق.

وعلى المستوى العراقي يمكن مؤقتا الاستناد الى المواد ٢٢١ الى ٢٢٦ من القانون المدني التي نظمت المسؤولية عن فعل الحيوان لانها تتعامل مع كائن غير عاقل وتسند الفعل الى من يملكه او يسيطر عليه وهي فكرة قريبة من مسؤولية مالك او مشغل الروبوت كما يمكن ايضا تطبيق المادة ٢٣١ التي تحمل حارس الشيء تبعة الضرر ما لم يثبت السبب الاجنبي كالقوة القاهرة او خطأ المضرور او الغير.

لكن السؤال يبقى الى متى يبقى هذا الاجتهاد قائما على القياس وهل يكفي حين تتعدد الجهات المحتملة للمسؤولية مثل المبرمج او المصنع او المستخدم وهل تفي هذه النصوص بالغرض عندما نتعامل مع انظمة تتعلم وتقرر ذاتيا وتتفاعل مع بيئتها باستقلال متزايد.

ان مستقبل الروبوت في العراق لن ينتظر والنصوص التقليدية لن تصمد طويلا امام هذا الواقع الجديد فالروبوت ليس حيوانا وقد تبدأ المقارنة من هنا لكن لا ينبغي ان تبقى هناك الى الأبد.