قانون هوش مصنوعی نشانگر اروپا شکل می گیرد

برلمان اروپا قانون رسمی اولین قانون گسترده برای هوش مصنوعی را به رسمیت شناخته است، که گام مهمی نزدیکتر به تنظیم فناوری‌های هوش مصنوعی می‌باشد. این اقدام به تحولات سریع فناوری‌های دیجیتال و مخاطرات و عدم قطعیت‌های ممکن توجه دارد.

مسیر این چارچوب هوش مصنوعی در بهار ۲۰۲۱ آغاز شد وقتی که کمیسیون اروپا چارچوب حقوقی ابتدایی خود را برای هوش مصنوعی معرفی کرد. در طول زمان، این پیشنهاد تحول کرد و تحت تأثیر گسترش روزافزون استفاده‌های هوش مصنوعی مانند چت‌بات‌های محبوب از OpenAI و گوگل، تأکید زیاد بر پتانسیل هوش مصنوعی در کاربردهای عملی شد. همچنین نگرانی‌ها در مورد ایجاد و توزیع رسانه‌های مصنوعی، از جمله فیلم‌های عمیقا جعلی، نیز وجود داشت.

پیشرفت‌ها حین ریاست اتحادیه اروپا توسط اسپانیا، که این مسئله را در اولویت قرار داد، سرعت یافت و منجر به یک توافق سیاسی اولیه در دسامبر ۲۰۲۳ شد. مذاکرات سه‌جانبی پس از آن شمول نظرات مختلف را دارند، به ویژه در مورد استفاده از ابزارهای هوش مصنوعی توسط نیروهای انتظامی، با تأکید‌های مختلف بر امنیت در مقابل حریم خصوصی.

اولویت برلمان اروپا، همان‌طور که در وب‌سایت آن اعلام شد، اطمینان از اینکه سامانه‌های هوش مصنوعی در اتحادیه اروپا ایمن، شفاف، مسئولیت‌پذیر، غیرتبعیضی و دوستدار محیط زیست باشند بوده است. فرآیند تنظیمی تأکید داشت که هوش مصنوعی باید قابل اعتماد باشد و قوانین مربوط به انسان‌محوری باید از سوءاستفاده‌های توسط ارگان‌های دولتی و شرکت‌های خصوصی محافظت کند.

در فوریه ۲۰۲۴، این توافق توسط کمیته نمایندگان دائمی اعضای کشورها تصویب شد و سپس در مارس تأیید قاطعی از طرف برلمان اروپا دریافت کرد، که یک مقرره باید تا ۲۰ روز پس از انتشار رسمی آن به اجرا درآید. با این حال، این مقرره تنها ۲۴ ماه بعدا تماماً اعمال می‌شود.

این مقرره بر اساس تعریف هوش مصنوعی ارایه شده توسط OECD خواهد بود که به منظور سازگاری با سیستم‌های هوش مصنوعی آینده، به هویت فناورانه می‌پردازد. گستردگی تعریف هم قوت و هم ضعفی دارد، به‌دلیل بودن زمان‌ندایی احتمالی آن و نگرانی‌ها در مورد اینکه آیا نرم‌افزارهای خاصی که به‌طور مرتبط با هوش مصنوعی هستند شامل آن هستند یا خیر.

نگرانی‌های مربوط به توضیحات جزئی نیز بوجود می‌آید، به‌ویژه در مورد سیستم‌های ریسک بالا و حقوق شهروندان برای درک مکانیزم‌هایشان.

در مورد مجازات‌ها، این مقرره پیشنهاد می‌دهد که هرچه بیشتر ریسک خطر اجتماعی باشد، اجبارات و مجازات‌ها باید سنگین‌تر باشند. تنبیهات می‌تواند از ۱.۵٪ از سود تراکنش شرکت یا ۷.۵ میلیون یورو تا ۷٪ یا ۳۵ میلیون یورو باشد.

سرانجام، عمل کرد هوش مصنوعی اقدام به دسته‌بندی سامانه‌های هوش مصنوعی به چهار سطح خطر نموده است که اکثریت آنها به رده کمینه خطر می‌انجامند و احتمالاً تحت مقررات جدید اتحادیه اروپا نخواهند وارد شد. سامانه‌های خطر بالا، مانند آنها که بر تصمیم‌گیری‌های انتخابی تأثیر می‌گذارند، فقط پس از ارائه مطابقت با معیارهای خاص وارد بازار می‌شوند، در حالی که سامانه‌های خطر نامطلوب، مانند تکنیک‌های دستکاری یا شناسایی صورت‌های بی‌انتخابی، در دستور کار اتحادیه اروپا قرار نخواهند گرفت.

Privacy policy
Contact