پیسا، ۱۴ سپتامبر ۲۰۲۴ – گفتوگو در مورد هوش مصنوعی در حال تکامل است و بر نیاز به تنظیمات قوی برای مقابله با اطلاعات نادرست و حفظ ارزشهای دموکراتیک تأکید میکند. در کنفرانس Epip 2024 که توسط مدرسه سانتا آنا در پیسا برگزار شد، عضو پارلمان اروپا براندو بنفی گزارش مفصلی درباره اهمیت قانون جدید هوش مصنوعی (AI-Act) ارائه داد. این قانون با هدف اطمینان از اینکه فناوریهای هوش مصنوعی به نفع جامعه باشد و خطرات اجتماعی احتمالی را به حداقل برساند، طراحی شده است.
بنفی تأکید کرد که اروپا در حال پیشگامی در ایجاد یک چارچوب جامع است و تصریح کرد که هوش مصنوعی باید با اصول دموکراتیک همخوانی داشته باشد. هدف اساسی، پرورش مدلی اجتماعی است که در آن هوش مصنوعی فرصتها را افزایش دهد و از جمعیتهای آسیبپذیر حمایت کند. در مواجهه با رقابت جهانی، به ویژه از سوی نهادهای چین و ایالات متحده، اروپا به دنبال حفاظت از خلاقیت انسانی و توانمندسازی هنرمندان با شروط مذاکره منصفانه برای آثارشان است.
خطرات بالقوه استفاده بیرویه از هوش مصنوعی نگرانیهایی را در مورد تمایز بین محتوای تولید شده توسط هوش مصنوعی و خلاقیت واقعی انسانی به وجود آورده است. بنفی بر ضرورت شفافیت به عنوان یک اصل اساسی در مقابله با اطلاعات نادرست تأکید کرد. او یک راه حل فنی را در قالب یک سیستم برچسبگذاری نامرئی برای محتوای تولید شده توسط هوش مصنوعی پیشنهاد داد که به کاربران اجازه میدهد از صحت آن از طریق دستگاههای خود آگاه شوند.
در نهایت، هدف پارلمان اروپا تقویت استانداردهای اخلاقی در استفاده از هوش مصنوعی است تا اطمینان حاصل شود که تنظیمات به طور پیشگیرانه به نابرابریها میپردازند و در عین حال همبستگی اجتماعی را تقویت میکنند. با اولویت دادن به اقدامات تنظیمی به جای کدهای اخلاقی ذهنی، اروپا aims to create a sustainable framework that champions the common good in the age of artificial intelligence.
پیسا، ۱۴ سپتامبر ۲۰۲۴ – فوریت برای تنظیم جامع هوش مصنوعی در اروپا تحت تأثیر عوامل متعددی از جمله اخلاقی، اجتماعی و اقتصادی قرار دارد. در حالی که قانونگذاران اروپایی در حال جمعآوری برای تقویت قانون هوش مصنوعی (AI-Act) هستند، پرسش مهمی پیش میآید: چگونه میتواند اروپا اطمینان حاصل کند که فناوریهای هوش مصنوعی نه تنها درخشش دارند بلکه با رعایت ارزشهای دموکراتیک و حقوق بشر نیز این کار را انجام دهند؟
یکی از چالشهای اصلی در تعریف «سیستمهای هوش مصنوعی با ریسک بالا» نهفته است. قانون هوش مصنوعی، برنامههای هوش مصنوعی را بر اساس تأثیر بالقوه آنها طبقهبندی میکند اما تعیین معیارهای طبقهبندی همچنان موضوع بحث است. این شامل بحثهای مربوط به فناوریهای شناسایی چهره، پلیس پیشبینیکننده و الگوریتمهایی است که بر تصمیمات استخدام تأثیر میگذارند. منتقدان استدلال میکنند که تعاریف فعلی ممکن است به تفسیرهای یا بسیار گسترده یا بسیار محدود منجر شود و بر کارایی تنظیمات تأثیر بگذارد.
علاوه بر این، قانون هوش مصنوعی نه تنها بر شفافیت تأکید دارد بلکه بر مسئولیتپذیری نیز تمرکز دارد. الزامات قانونی برای توسعهدهندگان و کاربران هوش مصنوعی پیشنهاد میشود تا اطمینان حاصل شود که تعصبات به صورت فعال کاهش مییابند و راههایی برای جبران خسارت در صورت وقوع آسیب وجود دارد. این باعث مطرح شدن سوالات بنیادی در مورد این میشود که آیا mecanismos enforcement به اندازه کافی قوی هستند تا عدم انطباق را منع کنند و چگونه میتوان به طور مؤثر سیستمهای هوش مصنوعی را پس از استقرار نظارت کرد.
همچنین جنجالهایی در مورد رقابت بینالمللی وجود دارد. در حالی که اروپا قوانین سختگیرانهای برای هوش مصنوعی وضع میکند، نگرانیهایی ایجاد میشود که چنین اقداماتی ممکن است نوآوری را سرکوب کند یا توسعه هوش مصنوعی را به مناطق کمتر تنظیمشده منتقل کند. نگرانی این است که در حالی که اروپا استانداردهای اخلاقی را در اولویت قرار میدهد، ممکن است در فناوریهای پیشرفته و فرصتهای سرمایهگذاری از ایالات متحده و چین عقب بیفتد.
از طرف مثبت، قانون هوش مصنوعی اعتماد عمومی به فناوری را تقویت میکند. با اولویت دادن به حقوق شهروندان و ملاحظات اخلاقی، اروپا میتواند خود را به عنوان رهبر توسعه مسئول هوش مصنوعی معرفی کند. این رویکرد ممکن است مشاغل را به پذیرش بهترین شیوهها و سرمایهگذاری در تحقیقاتی که به راهحلهای اخلاقی هوش مصنوعی منجر میشود، تشویق کند و در نهایت موقعیت جهانی اروپا را تقویت نماید.
با این حال، یکی از معایب عمده شامل بار سنگین بر دوش استارتاپها و شرکتهای کوچک است. انطباق با قوانین پیچیده ممکن است منابع را از نوآوری منحرف کند. شرکتهای کوچک ممکن است در تأمین هزینههای انطباق مشکل داشته باشند که این میتواند بازار را در میان بازیگران بزرگتر که توانایی جذب این هزینهها را دارند، متمرکز کند.
خلاصه کلام، مسیر اروپا برای تنظیم هوش مصنوعی با سوالات و چالشهای مهمی مواجه است. مهم است که نظارت اخلاقی را با پیشرفت فناوری متعادل کنیم و اطمینان حاصل کنیم که تنظیمات باعث سرکوب خلاقیت نشوند در حالی که محیط دیجیتالی ایمن و دموکراتیک را ترویج میدهند. چالشهای کلیدی شامل تعریف دستههای ریسک، اجرای مسئولیتپذیری، حفظ رقابتپذیری در مقیاس جهانی و حمایت از شرکتهای کوچک در انطباق است.
به جلو نگاه میکنیم، موفقیت قانون هوش مصنوعی به اینکه این چالشها چگونه به طور مؤثر مدیریت میشوند بستگی دارد. در حالی که اروپا در آستانه نوآوری فناوری و حکومتداری اخلاقی ایستاده است، سفر به سوی یک چارچوب دموکراتیک برای تنظیم هوش مصنوعی نه تنها برای اروپاییها بلکه به عنوان الگویی برای جهان حائز اهمیت باقی میماند.
برای اطلاعات بیشتر در مورد طرحهای اروپایی در مورد تنظیم هوش مصنوعی، به کمیسیون اروپا مراجعه کنید.