أوروبا تجدد الإطار القانوني لمسؤولية الذكاء الاصطناعي

بدء تنفيذ تنظيمات جديدة للذكاء الاصطناعي في أوروبا

تواصل التطورات في مجال الذكاء الاصطناعي بوتيرة سريعة، إلا أنه لا يوجد نظام متخصص للمسؤولية مصممة خصيصًا للأضرار المتعلقة بالذكاء الاصطناعي. تمتلك تكنولوجيا الذكاء الاصطناعي القدرة على تسبب أضرار متنوعة تتراوح بين التمييز ونشر المعلومات الخاطئة إلى انتهاك الخصوصية وانتهاك حقوق الملكية الفكرية وحتى أعمال الإرهاب السيبراني.

لجعل مصممي الذكاء الاصطناعي مسؤولين، يجب على الأطراف المتضررة تقديم دليل على فعل ضار أو إغفال أدى إلى الضرر. كانت المشكلة الأساسية التي تم التعرف عليها من قبل البرلمان الأوروبي في قراره المؤرخ 3 مايو 2022 هي عدم كفاية المعايير الوطنية للمسؤولية، وبخاصة الأنظمة المعتمدة على الخطأ، عندما يتعلق الأمر بتحمل المسؤولية عن الأضرار الناجمة عن منتجات وخدمات الذكاء الاصطناعي.

استجابة أوروبا لتحدي الذكاء الاصطناعي

استجابةً لهذه الفجوات القانونية، أصدرت المفوضية الأوروبية اقتراحين لتوجيه في 28 سبتمبر 2022، بهدف تنقيح وتحديث قواعد المسؤولية المتعلقة بالذكاء الاصطناعي. الاقتراح الأول زارت توسيع توجيه مسؤولية المنتجات لعام 1985 ليشمل الذكاء الاصطناعي، بينما اقترح الثاني إنشاء فئة جديدة للمسؤولية التي تتعلق بالذكاء الاصطناعي خارج عقود الشراء. يعكس اعتماد قانون الذكاء الاصطناعي—التشريع الرائد في أوروبا الذي يدير الذكاء الاصطناعي—هذا الموقف النشط.

يحسن هذا الإجراء الجريء من قبل المشرع الأوروبي التوجيه الذي تم اعتماده في عام 1985 عن طريق تضمين الذكاء الاصطناعي كمنتج معيب بشكل محتمل. ومع ذلك، ليس دائمًا واضحًا ما إذا كان الذكاء الاصطناعي معيبًا عند حدوث الضرر، كما أوضحه جيرار هاس، محام ومؤسس محامي هاس المتخصص في قانون التكنولوجيا الجديدة وحماية البيانات.

يعرض قانون الذكاء الاصطناعي نهجًا مستندًا إلى المخاطر، يلزم الشركات المستخدمة لتكنولوجيا الذكاء الاصطناعي بالالتزام بمعايير صراحة وموثوقية صارمة. تتناسب الفروق في هذه المعايير مباشرة مع المستوى المقرر للمخاطر. وفقًا لجيرار هاس، تتحمل الشركات التي تستخدم تكنولوجيا الذكاء الاصطناعي الآن عبء الشفافية، مما يؤدي بدوره إلى تقليل التحدي في إثبات الخطأ للضحايا المحتملين.

The source of the article is from the blog zaman.co.at

Privacy policy
Contact