تم تنفيذ تشريعات رائدة حديثًا مؤخَّرًا من قبل الاتحاد الأوروبي بخصوص تنظيم تكنولوجيا الذكاء الاصطناعي (AI)، مما يشكل خطوة مهمة نحو حماية حقوق الإنسان وضمان موثوقية التكنولوجيا الذكية التي تم تطويرها والتي تستخدم داخل الاتحاد الأوروبي. القوانين الجديدة تُصنف تطبيقات الذكاء الاصطناعي إلى أربعة مستويات مختلفة من المخاطر، حيث تتطلب قطاعات عالية المخاطر مثل الرعاية الصحية والتعليم والانتخابات والبنية التحتية الحرجة وُجود إشراف صارم وأنظمة إدارة المخاطر عند استخدام تكنولوجيا الذكاء الاصطناعي. يتم حظر أي تطبيقات AI قد تنتهك بشكل محتمل حقوق الإنسان الأساسية بصورة صارمة بموجب القانون الجديد.
بالإضافة إلى ذلك، تقضي التشريعات بوجود التزامات شفافية للتطوير والاستخدام لتكنولوجيا AI العامة مثل AGI، مما يتطلب تحديدًا واضحًا لمصادر المحتوى المستخدمة في عمليات التعلم الذكي. سيكون تنفيذ القوانين تدريجيًا، مع بدء حيز النفاذ لعدم جواز بعض تكنولوجيا AI بعد مرور ستة أشهر، والتزامات تتعلق بالذكاء الاصطناعي العام تدخل حيز التنفيذ بعد مضي 12 شهرًا، مع جدول زمني كامل مقرر في أغسطس 2026. العقوبات عن تقديم معلومات غير دقيقة فيما يتعلق بتكنولوجيا AI قد تصل إلى 1.5% من صافي الدوران، في حين أن انتهاكات التشريعات الإلزامية يمكن أن تؤدي إلى غرامات تصل إلى 3%. قد تؤدي سوء استخدام التطبيقات المحظورة AI إلى عقوبات تصل إلى 7%.
تسلط هذه التشريعات الجديدة الضوء على التزام الاتحاد الأوروبي بضمان تطوير واستخدام مسؤول لتكنولوجيا الذكاء الاصطناعي داخل حدوده، وتحدد معيارًا للقوانين العالمية في تنظيم وإدارة التكنولوجيا الذكية.