برلمان اروپا قانون رسمی اولین قانون گسترده برای هوش مصنوعی را به رسمیت شناخته است، که گام مهمی نزدیکتر به تنظیم فناوریهای هوش مصنوعی میباشد. این اقدام به تحولات سریع فناوریهای دیجیتال و مخاطرات و عدم قطعیتهای ممکن توجه دارد.
مسیر این چارچوب هوش مصنوعی در بهار ۲۰۲۱ آغاز شد وقتی که کمیسیون اروپا چارچوب حقوقی ابتدایی خود را برای هوش مصنوعی معرفی کرد. در طول زمان، این پیشنهاد تحول کرد و تحت تأثیر گسترش روزافزون استفادههای هوش مصنوعی مانند چتباتهای محبوب از OpenAI و گوگل، تأکید زیاد بر پتانسیل هوش مصنوعی در کاربردهای عملی شد. همچنین نگرانیها در مورد ایجاد و توزیع رسانههای مصنوعی، از جمله فیلمهای عمیقا جعلی، نیز وجود داشت.
پیشرفتها حین ریاست اتحادیه اروپا توسط اسپانیا، که این مسئله را در اولویت قرار داد، سرعت یافت و منجر به یک توافق سیاسی اولیه در دسامبر ۲۰۲۳ شد. مذاکرات سهجانبی پس از آن شمول نظرات مختلف را دارند، به ویژه در مورد استفاده از ابزارهای هوش مصنوعی توسط نیروهای انتظامی، با تأکیدهای مختلف بر امنیت در مقابل حریم خصوصی.
اولویت برلمان اروپا، همانطور که در وبسایت آن اعلام شد، اطمینان از اینکه سامانههای هوش مصنوعی در اتحادیه اروپا ایمن، شفاف، مسئولیتپذیر، غیرتبعیضی و دوستدار محیط زیست باشند بوده است. فرآیند تنظیمی تأکید داشت که هوش مصنوعی باید قابل اعتماد باشد و قوانین مربوط به انسانمحوری باید از سوءاستفادههای توسط ارگانهای دولتی و شرکتهای خصوصی محافظت کند.
در فوریه ۲۰۲۴، این توافق توسط کمیته نمایندگان دائمی اعضای کشورها تصویب شد و سپس در مارس تأیید قاطعی از طرف برلمان اروپا دریافت کرد، که یک مقرره باید تا ۲۰ روز پس از انتشار رسمی آن به اجرا درآید. با این حال، این مقرره تنها ۲۴ ماه بعدا تماماً اعمال میشود.
این مقرره بر اساس تعریف هوش مصنوعی ارایه شده توسط OECD خواهد بود که به منظور سازگاری با سیستمهای هوش مصنوعی آینده، به هویت فناورانه میپردازد. گستردگی تعریف هم قوت و هم ضعفی دارد، بهدلیل بودن زمانندایی احتمالی آن و نگرانیها در مورد اینکه آیا نرمافزارهای خاصی که بهطور مرتبط با هوش مصنوعی هستند شامل آن هستند یا خیر.
نگرانیهای مربوط به توضیحات جزئی نیز بوجود میآید، بهویژه در مورد سیستمهای ریسک بالا و حقوق شهروندان برای درک مکانیزمهایشان.
در مورد مجازاتها، این مقرره پیشنهاد میدهد که هرچه بیشتر ریسک خطر اجتماعی باشد، اجبارات و مجازاتها باید سنگینتر باشند. تنبیهات میتواند از ۱.۵٪ از سود تراکنش شرکت یا ۷.۵ میلیون یورو تا ۷٪ یا ۳۵ میلیون یورو باشد.
سرانجام، عمل کرد هوش مصنوعی اقدام به دستهبندی سامانههای هوش مصنوعی به چهار سطح خطر نموده است که اکثریت آنها به رده کمینه خطر میانجامند و احتمالاً تحت مقررات جدید اتحادیه اروپا نخواهند وارد شد. سامانههای خطر بالا، مانند آنها که بر تصمیمگیریهای انتخابی تأثیر میگذارند، فقط پس از ارائه مطابقت با معیارهای خاص وارد بازار میشوند، در حالی که سامانههای خطر نامطلوب، مانند تکنیکهای دستکاری یا شناسایی صورتهای بیانتخابی، در دستور کار اتحادیه اروپا قرار نخواهند گرفت.