غول‌های فناوری برای مقررات نرم هوش مصنوعی تحت بررسی اتحادیه اروپا لابی می‌کنند

شرکت‌های فناوری بزرگ در حال حاضر در حال لابی کردن با اتحادیه اروپا برای اتخاذ رویکردی ملایم‌تر در مورد مقررات هوش مصنوعی هستند، با نگرانی‌هایی درباره جریمه‌های سنگین. در ماه مه، اتحادیه اروپا به توافقی تاریخی دست یافت که مقررات کاملی در زمینه هوش مصنوعی را پس از مذاکرات طولانی میان احزاب سیاسی مختلف برقرار کرد.

با این حال، تا زمانی که کدهای عملی مرتبط نهایی نشود، عدم اطمینان بر اجرای قوانین مربوط به سیستم‌های هوش مصنوعی مانند ChatGPT اپن‌ای‌ای سایه افکنده است، که می‌تواند شرکت‌ها را در معرض دعاوی قضایی و جریمه‌های قابل توجه قرار دهد. اتحادیه اروپا از کسب‌وکارها، دانشگاهیان و سایر ذینفعان درخواست کمک کرده است تا این کدها را تدوین کنند، و نزدیک به ۱۰۰۰ پیشنهاد دریافت کرده است که یک نرخ پاسخ‌گویی قابل توجه محسوب می‌شود.

در حالی که کد هوش مصنوعی زمانی که سال آینده اجرایی شود، الزام‌آور نخواهد بود، اما یک فهرست چک برای رعایت قوانین برای شرکت‌ها فراهم خواهد کرد. نادیده گرفتن این کد می‌تواند منجر به پیچیدگی‌های حقوقی برای کسانی شود که ادعا می‌کنند به قوانین پایبند هستند، اما در پیروی از شیوه‌های مشخص‌شده شکست می‌خورند. نگرانی‌ها در مورد نقض حق نسخه‌برداری ادامه دارد، به ویژه در مورد اینکه چگونه شرکت‌هایی مانند اپن‌ای‌ای از کتاب‌ها و تصاویر پرفروش برای آموزش مدل‌های خود بدون مجوز استفاده می‌کنند.

بر اساس قانون جدید، شرکت‌ها باید به‌طور شفاف داده‌های استفاده‌شده برای آموزش مدل‌های هوش مصنوعی خود را افشا کنند، که به خالقان محتوا این امکان را می‌دهد که در صورت سوءاستفاده از آثارشان درخواست غرامت کنند. رهبران صنعتی، از جمله کسانی از گوگل و آمازون، مشتاق به مشارکت هستند در حالی که از اجرای موفقیت‌آمیز چارچوب مقرراتی حمایت می‌کنند. تعادل بین تضمین شفافیت و ترویج نوآوری همچنان یک نقطه بحث‌برانگیز در حلقه‌های نظارتی اتحادیه اروپا باقی مانده است.

غول‌های فناوری خواهان مقررات انعطاف‌پذیر هوش مصنوعی در میان نظارت اتحادیه اروپا

با تشدید گفتگوها درباره هوش مصنوعی (AI) و تأثیرات آن بر جامعه، شرکت‌های فناوری بزرگ تلاش‌های لابی خود را در اتحادیه اروپا افزایش داده‌اند. هدف آن‌ها شکل‌دهی به یک چشم‌انداز نظارتی است که از نوآوری حمایت کرده و در عین حال راهنمایی‌های کافی برای شیوه‌های اخلاقی ارائه دهد. این تغییر در حالی رخ می‌دهد که بررسی‌های فزاینده‌ای بر روی سیستم‌های هوش مصنوعی مانند ChatGPT اپن‌ای‌ای وجود دارد که بحث‌هایی در مورد ایمنی، مسئولیت‌پذیری و انصاف به راه انداخته است.

سوالات کلیدی و پاسخ‌ها

1. **شرکت‌های فناوری در مقررات هوش مصنوعی چه اقداماتی را خواهان هستند؟**
– غول‌های فناوری به دنبال مواردی هستند که بر خودتنظیمی و چارچوب‌های مبتنی بر ریسک تأکید دارند. این شامل تشویق اتحادیه اروپا به دسته‌بندی سیستم‌های هوش مصنوعی بر اساس سطوح ریسک بالقوه آن‌ها می‌شود که در نهایت به روش‌های تطبیق طبیعی متناسب با ظرائف برنامه‌های مختلف دست می‌یابد.

2. **چالش‌های مرتبط با مقررات هوش مصنوعی چیست؟**
– چالش‌های اصلی شامل تعریف مرزهای استفاده از هوش مصنوعی، پرداختن به نگرانی‌ها درباره سوءاستفاده از داده‌ها و حفاظت از حقوق مالکیت معنوی است. همچنین، نگرانی‌هایی در مورد وضع مقررات بسیار سخت وجود دارد که می‌تواند نوآوری را مختل کند یا منجر به انتقال شرکت‌ها به حوزه‌های قضایی با مقررات ملایم‌تر شود.

3. **چالش‌های پیرامون هوش مصنوعی و نقض حق نسخه‌برداری چیست؟**
– یک چالش مهم پیرامون استفاده از مواد دارای حق نسخه‌برداری در آموزش مدل‌های هوش مصنوعی وجود دارد. شرکت‌هایی مانند اپن‌ای‌ای و گوگل با انتقادهایی به خاطر پتانسیل نقض قوانین حق نسخه‌برداری به دلیل استفاده از داده‌های گسترده‌ای که ممکن است شامل آثار اختصاصی بدون اخذ مجوزهای لازم باشد، مواجه‌اند.

مزایای تلاش غول‌های فناوری برای مقررات نرم

1. **تشویق نوآوری:**
– یک چارچوب مقرراتی انعطاف‌پذیر ممکن است استفاده‌های نوآورانه از فناوری هوش مصنوعی را تحریک کند و به کسب‌وکارها اجازه دهد تا بدون ترس بیش از حد از جریمه‌ها با ایده‌های جدید آزمایش کنند.

2. **سرعت اجرا:**
– مقررات شل‌تر می‌تواند منجر به سازگاری و ادغام سریع‌تر فناوری‌های هوش مصنوعی در بخش‌های مختلف شود و در نهایت به نفع مصرف‌کنندگان و شرکت‌ها باشد.

3. **رقابت جهانی:**
– با ایجاد محیطی که برای رشد فناوری مناسب است، اتحادیه اروپا می‌تواند استعدادهای برتر را حفظ کند و استارتاپ‌ها را تقویت کند و بدین ترتیب جایگاه خود را به عنوان یک رقیب در سطح جهانی حفظ کند.

معایب رویکردهای مقررات نرم

1. **ریسک برای ایمنی عمومی:**
– مقررات سست ممکن است سرعت را بر ایمنی اولویت دهند، که منجر به به‌کارگیری سیستم‌های هوش مصنوعی می‌شود که به‌طور کامل برای مشکلات بالقوه، شامل تعصبات یا پیامدهای مضر بررسی نشده‌اند.

2. **کاهش مسئولیت‌پذیری:**
– یک چشم‌انداز مقرراتی که فاقد شدت باشد می‌تواند اجرای مسئولیت را در میان شرکت‌ها دشوار کند و منجر به چالش‌هایی در پاسخگویی سازمان‌ها به پیامدهای منفی ناشی از به‌کارگیری هوش مصنوعی شود.

3. **پتانسیل سوءاستفاده از خالقان محتوا:**
– بدون قوانین واضح در مورد حق نسخه‌برداری و استفاده از داده‌ها، چنین ریسکی وجود دارد که خالقان محتوا، هنرمندان و نویسندگان همچنان بدون جبران کافی یا شناسایی مورد سوءاستفاده قرار گیرند.

نتیجه‌گیری

با نهایی شدن مقررات جامع هوش مصنوعی اتحادیه اروپا، تعادلی که بین ترویج نوآوری و تضمین ایمنی عمومی وجود دارد به طور فزاینده‌ای پیچیده می‌شود. تلاش غول‌های فناوری برای مقررات نرم نشان‌دهنده مباحثات مداوم در مورد بهترین راه برای ناوبری در چشم‌انداز در حال تکامل سریع هوش مصنوعی است. ذینفعان باید در پاسخ به فرصت‌ها و خطرات ناشی از توسعه هوش مصنوعی هوشیار باقی بمانند.

برای اطلاعات بیشتر در این موضوع، به سایت رسمی اتحادیه اروپا و TechCrunch مراجعه کنید.

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact