شرکتهای فناوری بزرگ در حال حاضر در حال لابی کردن با اتحادیه اروپا برای اتخاذ رویکردی ملایمتر در مورد مقررات هوش مصنوعی هستند، با نگرانیهایی درباره جریمههای سنگین. در ماه مه، اتحادیه اروپا به توافقی تاریخی دست یافت که مقررات کاملی در زمینه هوش مصنوعی را پس از مذاکرات طولانی میان احزاب سیاسی مختلف برقرار کرد.
با این حال، تا زمانی که کدهای عملی مرتبط نهایی نشود، عدم اطمینان بر اجرای قوانین مربوط به سیستمهای هوش مصنوعی مانند ChatGPT اپنایای سایه افکنده است، که میتواند شرکتها را در معرض دعاوی قضایی و جریمههای قابل توجه قرار دهد. اتحادیه اروپا از کسبوکارها، دانشگاهیان و سایر ذینفعان درخواست کمک کرده است تا این کدها را تدوین کنند، و نزدیک به ۱۰۰۰ پیشنهاد دریافت کرده است که یک نرخ پاسخگویی قابل توجه محسوب میشود.
در حالی که کد هوش مصنوعی زمانی که سال آینده اجرایی شود، الزامآور نخواهد بود، اما یک فهرست چک برای رعایت قوانین برای شرکتها فراهم خواهد کرد. نادیده گرفتن این کد میتواند منجر به پیچیدگیهای حقوقی برای کسانی شود که ادعا میکنند به قوانین پایبند هستند، اما در پیروی از شیوههای مشخصشده شکست میخورند. نگرانیها در مورد نقض حق نسخهبرداری ادامه دارد، به ویژه در مورد اینکه چگونه شرکتهایی مانند اپنایای از کتابها و تصاویر پرفروش برای آموزش مدلهای خود بدون مجوز استفاده میکنند.
بر اساس قانون جدید، شرکتها باید بهطور شفاف دادههای استفادهشده برای آموزش مدلهای هوش مصنوعی خود را افشا کنند، که به خالقان محتوا این امکان را میدهد که در صورت سوءاستفاده از آثارشان درخواست غرامت کنند. رهبران صنعتی، از جمله کسانی از گوگل و آمازون، مشتاق به مشارکت هستند در حالی که از اجرای موفقیتآمیز چارچوب مقرراتی حمایت میکنند. تعادل بین تضمین شفافیت و ترویج نوآوری همچنان یک نقطه بحثبرانگیز در حلقههای نظارتی اتحادیه اروپا باقی مانده است.
غولهای فناوری خواهان مقررات انعطافپذیر هوش مصنوعی در میان نظارت اتحادیه اروپا
با تشدید گفتگوها درباره هوش مصنوعی (AI) و تأثیرات آن بر جامعه، شرکتهای فناوری بزرگ تلاشهای لابی خود را در اتحادیه اروپا افزایش دادهاند. هدف آنها شکلدهی به یک چشمانداز نظارتی است که از نوآوری حمایت کرده و در عین حال راهنماییهای کافی برای شیوههای اخلاقی ارائه دهد. این تغییر در حالی رخ میدهد که بررسیهای فزایندهای بر روی سیستمهای هوش مصنوعی مانند ChatGPT اپنایای وجود دارد که بحثهایی در مورد ایمنی، مسئولیتپذیری و انصاف به راه انداخته است.
سوالات کلیدی و پاسخها
1. شرکتهای فناوری در مقررات هوش مصنوعی چه اقداماتی را خواهان هستند؟
– غولهای فناوری به دنبال مواردی هستند که بر خودتنظیمی و چارچوبهای مبتنی بر ریسک تأکید دارند. این شامل تشویق اتحادیه اروپا به دستهبندی سیستمهای هوش مصنوعی بر اساس سطوح ریسک بالقوه آنها میشود که در نهایت به روشهای تطبیق طبیعی متناسب با ظرائف برنامههای مختلف دست مییابد.
2. چالشهای مرتبط با مقررات هوش مصنوعی چیست؟
– چالشهای اصلی شامل تعریف مرزهای استفاده از هوش مصنوعی، پرداختن به نگرانیها درباره سوءاستفاده از دادهها و حفاظت از حقوق مالکیت معنوی است. همچنین، نگرانیهایی در مورد وضع مقررات بسیار سخت وجود دارد که میتواند نوآوری را مختل کند یا منجر به انتقال شرکتها به حوزههای قضایی با مقررات ملایمتر شود.
3. چالشهای پیرامون هوش مصنوعی و نقض حق نسخهبرداری چیست؟
– یک چالش مهم پیرامون استفاده از مواد دارای حق نسخهبرداری در آموزش مدلهای هوش مصنوعی وجود دارد. شرکتهایی مانند اپنایای و گوگل با انتقادهایی به خاطر پتانسیل نقض قوانین حق نسخهبرداری به دلیل استفاده از دادههای گستردهای که ممکن است شامل آثار اختصاصی بدون اخذ مجوزهای لازم باشد، مواجهاند.
مزایای تلاش غولهای فناوری برای مقررات نرم
1. تشویق نوآوری:
– یک چارچوب مقرراتی انعطافپذیر ممکن است استفادههای نوآورانه از فناوری هوش مصنوعی را تحریک کند و به کسبوکارها اجازه دهد تا بدون ترس بیش از حد از جریمهها با ایدههای جدید آزمایش کنند.
2. سرعت اجرا:
– مقررات شلتر میتواند منجر به سازگاری و ادغام سریعتر فناوریهای هوش مصنوعی در بخشهای مختلف شود و در نهایت به نفع مصرفکنندگان و شرکتها باشد.
3. رقابت جهانی:
– با ایجاد محیطی که برای رشد فناوری مناسب است، اتحادیه اروپا میتواند استعدادهای برتر را حفظ کند و استارتاپها را تقویت کند و بدین ترتیب جایگاه خود را به عنوان یک رقیب در سطح جهانی حفظ کند.
معایب رویکردهای مقررات نرم
1. ریسک برای ایمنی عمومی:
– مقررات سست ممکن است سرعت را بر ایمنی اولویت دهند، که منجر به بهکارگیری سیستمهای هوش مصنوعی میشود که بهطور کامل برای مشکلات بالقوه، شامل تعصبات یا پیامدهای مضر بررسی نشدهاند.
2. کاهش مسئولیتپذیری:
– یک چشمانداز مقرراتی که فاقد شدت باشد میتواند اجرای مسئولیت را در میان شرکتها دشوار کند و منجر به چالشهایی در پاسخگویی سازمانها به پیامدهای منفی ناشی از بهکارگیری هوش مصنوعی شود.
3. پتانسیل سوءاستفاده از خالقان محتوا:
– بدون قوانین واضح در مورد حق نسخهبرداری و استفاده از دادهها، چنین ریسکی وجود دارد که خالقان محتوا، هنرمندان و نویسندگان همچنان بدون جبران کافی یا شناسایی مورد سوءاستفاده قرار گیرند.
نتیجهگیری
با نهایی شدن مقررات جامع هوش مصنوعی اتحادیه اروپا، تعادلی که بین ترویج نوآوری و تضمین ایمنی عمومی وجود دارد به طور فزایندهای پیچیده میشود. تلاش غولهای فناوری برای مقررات نرم نشاندهنده مباحثات مداوم در مورد بهترین راه برای ناوبری در چشمانداز در حال تکامل سریع هوش مصنوعی است. ذینفعان باید در پاسخ به فرصتها و خطرات ناشی از توسعه هوش مصنوعی هوشیار باقی بمانند.
برای اطلاعات بیشتر در این موضوع، به سایت رسمی اتحادیه اروپا و TechCrunch مراجعه کنید.