تبنت مجلس أوروبا المؤتمر الدولي الرائد للذكاء الاصطناعي

المسار نحو توحيد الذكاء الاصطناعي مع حقوق الإنسان والديمقراطية وسيادة القانون قد حقق مرحلة مهمة. أكمل مجلس أوروبا المفاوضات ووافق على اتفاقية دولية رائدة – الأولى من نوعها – تهدف إلى ضمان احترام تقنيات الذكاء الاصطاعي لهذه المبادئ الأساسية.

لعبت سويسرا دورًا حاسمًا طوال عملية المفاوضات وأعربت عن دعم قوي لإنجازات الحوار. وتعتبر المبادرة خطوة استراتيجية إلى الأمام في التعامل مع التحديات التي يطرحها الذكاء الاصطناعي على المستوى العالمي، تتجاوز الحدود الأوروبية، مما يميّزها عن تشريعات الذكاء الاصطناعي للاتحاد الأوروبي. وتشمل أيضًا مجموعة واسعة من الأصوات الدولية، بما في ذلك الدول الراصدة غير الأوروبية، وتنويع منظمات المجتمع المدني، مما يعكس طموحها لتحقيق تأثير واسع الانتشار.

تحدد هذه الموافقة القاعدة الأساسية لتشغيل الذكاء الاصطناعي عبر دورة حياته. إنها تقوم بإنشاء إطار لتبيان الشكاوى وتقييم المخاطر والتخفيف من النتائج الضارة المحتملة، مما يضمن أن تكون لديها أنظمة صارمة لمراقبة والتعاون لضمان التزام وتنفيذ الاتفاق.

وبتحقيق توازن بين المصالح العامة والخاصة يسمح الاتفاق للدول امتيازات كبيرة في تنفيذ أهدافه. بينما تندرج الأنشطة العامة ضمن صلاحياته دون قيد أو شرط، يتمتع أنشطة القطاع الخاص بدرجة من المرونة، مما يستدعي من الدول تنظيمها وفقًا لطبيعة ونية الاتفاق.

على الرغم من الجدول الزمني المضغوط لمدة عامين ونصف للمفاوضات، تحت إشراف السفير توماس شنايدر للامم المتحدة، تم التوصل إلى توافق. يعكس الاتفاق وجهة نظر دقيقة حول مسؤولية الجهات العامة والخاصة في ميدان الذكاء الاصطناعي، معترفًا بالقدرات المتنوعة للدول على إلزام الجهات الخاصة.

كان استقبال الاتفاقية متباينًا : بينما كانت بعض القطاعات المدنية تأمل في إجراءات أكثر صرامة، رحب العديد من ممثلي الدول والأكاديميين بوصول أداة قانونية عالمية شاملة في جو تتراجع فيه التفاهمات الدولية عادة.

سترى عملية التصديق المحتملة لسويسرا الاتفاق يصبح قانونيًا ملزمًا، مما يتطلب من الحكومة السويسرية تكييف قوانينها الوطنية وفقًا لذلك. وقد تم تكليف وزارة البيئة الفدرالية السويسرية للنقل والطاقة والاتصالات بتقييم التعديلات القانونية الضرورية بحلول نهاية عام 2024. تحقق الاتفاقية توازنًا حساسًا، مهدفة لتكون معيارًا للتطور الأخلاقي وتطبيق تقنيات الذكاء الاصطناعي على المستوى العالمي.

الأسئلة المهمة والأجوبة:

1. ما الذي يجعل اتفاقية الذكاء الاصطناعي التي اعتمدها مجلس أوروبا مبتكرة؟
تعتبر الاتفاقية مبتكرة لأنها الإطار القانوني الدولي الأول المصمم خصيصًا لضمان احترام تقنيات الذكاء الاصطناعي لحقوق الإنسان والديمقراطية وسيادة القانون. إنها جهد رائد للتعامل مع التحديات المعقدة التي يطرحها الذكاء الاصطناعي على المستوى الدولي.

2. كيف تختلف اتفاقية الذكاء الاصطناعي عن تشريعات الاتحاد الأوروبي للذكاء الاصطناعي؟
بينما تركز تشريعات الاتحاد الأوروبي للذكاء الاصطناعي على الدول الأعضاء والامتثال داخل الاتحاد الأوروبي، تهدف اتفاقية مجلس أوروبا إلى تحقيق تأثير عالمي وتضم مجموعة أوسع من أصحاب المصلحة، بما في ذلك الدول الراصدة غير الأوروبية ومنظمات المجتمع المدني.

3. ما التحديات التي قد تنشأ من هذه الاتفاقية حول الذكاء الاصطناعي؟
تشمل التحديات الرئيسية مواءمة أنظمة القانون الدولية المتنوعة والقدرات التكنولوجية للامتثال للاتفاق، وضمان التزام القطاعين العام والخاص بفعالية بالغة بمبادئ الاتفاق، وأن تواكب التشريعات التقدم السريع في مجال تكنولوجيا الذكاء الاصطناعي.

4. ما هي الجدليات المرتبطة بهذا الموضوع؟
تشمل بعض الجدليات الدرجة من المرونة التنظيمية الممنوحة للقطاع الخاص، واحتمال وجود اختلافات في التنفيذ عبر البلدان المختلفة، وما إذا كانت التدابير صارمة بما فيه الكفاية للحفاظ على الاختبارات من مخاطر الذكاء الاصطناعي.

المزايا والعيوب:

المزايا:
– يوفر إطارًا شاملا لتوجيه التطور الأخلاقي والنشر لتقنيات الذكاء الاصطناعي.
– يهدف إلى حماية الحقوق الأساسية للإنسان والقيم الديمقراطية في عصر الذكاء الاصطناعي.
– يشجع على التعاون الدولي ووضع المعايير مما قد يؤدي إلى مزيد من الممارسات العالمية الموحدة.
– يمكن أن تكون الاتفاقية نموذجًا لمناطق أخرى أو جهود عالمية لتنظيم الذكاء الاصطناعي.

العيوب:
– قد يكون من الصعب تنفيذه بشكل موحد عبر البلدان المختلفة بتعدد المناظر القانونية والتكنولوجية.
– قد تؤدي النهج المرن للقطاع الخاص إلى تضاربات وإمكانية استغلال.
– قد يتجاوز التقدم السريع في مجال الذكاء الاصطناعي الإرشادات واللوائح المعدة في الاتفاقية، مما يستدعي تحديثات أو تنقيحات متكررة.

لمن يرغب في معرفة المزيد عن مبادرات مجلس أوروبا، يمكنك زيارة موقعهم الرئيسي هنا: مجلس أوروبا.

Privacy policy
Contact