آینده مقررات هوش مصنوعی: پارلمان اروپا لایحه‌ی قانونگذاری نوین را تأیید کرد

با توجه به تأیید پارلمان اروپا از لایحه‌ی AI پیشنهادی اتحادیه اروپا، گام مهمی برای تنظیم فناوری هوش مصنوعی (AI) برداشته شده است. این رای علامت خوبی برای معرفی یک قوانین جامع است که بر آن است تا به رفع نگرانی‌ها پرداخته و اعتماد به فناوری AI را برقرار کند. این اقدام می‌تواند در مدت سه ساله‌ای که اجرای این قانون به طول میانجی می‌کشد، باعث اطمینان از مراقبت دقیق و ایمنی ابزارهای AI شود.

طبق گفته Guillaume Couneson، یکی از شرکای شرکت وکالتی Linklaters، تأیید لایحه‌ی AI به معنای این است که کاربران می‌توانند در ابزارهایی که استفاده می‌کنند اعتماد کنند، به همان صورت که کاربران اپلیکیشن‌های بانکی به تدابیر امنیتی پیاده‌شده توسط بانک‌هایشان اعتماد می‌کنند. این تأکید بر اعتماد و امنیت برای پذیرش گسترده‌ی فناوری AI بسیار حائز اهمیت است.

فراتر از اتحادیه اروپا، انتظار می‌رود تأثیر این قوانین به صورت جهانی احساس شود. اتحادیه اروپا خود را به مثابه یک ناظر تاثیرگذار در حوزه تکنولوژی معرفی کرده است، همانطور که اثرات رابطه‌ی عمومی داده‌ها (GDPR) بر روی روش‌های مدیریت داده‌ها نشان می‌دهد. پذیرش لایحه‌ی AI احتمالاً شیوه‌ی دیگر کشورها را تعیین می‌کند، تا زمانی که اثربخشی آن اثبات شود.

پرسش و پاسخ در مورد لایحه‌ی پیشنهادی AI اتحادیه اروپا:

1. چه تعریفی از AI در لایحه‌ی AI وجود دارد؟
لایحه‌ی AI فناوری هوش مصنوعی را به عنوان “سیستم‌های مبتنی بر ماشین طراحی شده برای عمل با سطوح مختلفی از خودکاری” تعریف می‌کند. این تعریف ابزارهایی مانند ChatGPT را برمی‌گیرد و توانایی یادگیری تطبیقی و تولید خروجی‌هایی که هم محیط‌های فیزیکی و هم مجازی را تحت تأثیر قرار می‌دهند را ارزیابی می‌کند. اسکرینینگ برنامه‌های کاربردی و چت‌بات‌ها فقط چند نمونه از ابزارهای AI هستند که توسط این تعریف پوشش داده می‌شوند.

2. چه چیزهایی از مقررات لایحه‌ی AI مستثنی شده‌اند؟
ابزارهای AI طراحی شده برای مقاصد نظامی، دفاعی یا امنیت ملی از مقررات لایحه‌ی AI مستثنی شده‌اند. این مستثنی موجب نگرانی‌ها در میان دفاعندگان از استفاده مسئولانه از هوش مصنوعی شده است.

3. چه خطراتی لایحه‌ی AI به رسمیت می‌شود که بخواهد آن‌ها را مدیریت کند؟
لایحه‌ی AI سیستم‌های معلومی را که آسیب می‌رسانند، سیستم‌های امتیازدهی اجتماعی، پلیس‌گذاری پیش‌بینی‌کننده مشابه فیلم حداقل گزاری، سیستم‌های دسترسی که احساسات را نظارت می‌کنند و همچنین سیستم‌های زیست‌سنجی مرتبع‌نوع که اطلاعات حساس را از داده‌های زیست‌سنجی استنتاج می‌کند و ترکیب پایگاه‌های داده‌ی شناسایی چهره از طریق جمع‌آوری غیرمجاز را منع می‌کند. همچنین، این قوانین شامل مفادی برای سیستم‌های “بالاریسک” عمدتاً در بخش‌های زیرساخت اساسی و بخش‌های ضروری مانند آموزش، بهداشت و درمان و بانکداری است. این سیستم‌ها نیازمند دقت، ارزیابی خطر، نظارت انسانی و تاریخچه استفاده هستند. شهروندان اتحادیه اروپا همچنین حق دارند که توضیحات راجع به تصمیماتی که توسط سیستم‌های هوش مصنوعی که برای آن‌ها تأثیر گذاشته‌اند، درخواست کنند.

4. چگونه لایحه‌ی AI بر علیه هوش تحولی و دیپفیکس مقررات تنظیم می‌کند؟
سیستم‌های هوش تحولی AI که متن، تصویر، ویدیوها، یا صدا ایجاد می‌کنند، مورد تنظیم قرار می‌گیرند. توسعه‌دهندگان مدل‌ها باید با قانون حق تکثیر اتحادیه اروپا سازگاری داشته باشند و خلاصه دقیقی از محتوای استفاده شده برای آموزش را ارائه کنند. با این حال، مدل‌های منبع‌باز موجود برای عموم، مانند GPT-4 ChatGPT، از این الزامات حق تکثیر مستثنی می‌شوند.

طبقه‌بندی سختگیرانه‌تری از مدل‌ها با ریسک “سیستمی” به دلیل هوش پیشرفته‌ی خود اعمال می‌شود. این دسته‌بندی نیازمند گزارش دادن از حوادث جدی با این مدل‌ها و آزمون‌های دشمنانه برای ارزیابی تصاویر ایمنی آنان است.

Deepfakes، محتوای تصویری که ممکن است بینندگان را فریب دهد، نیز تحت تنظیم قرار می‌گیرند. افراد مسئول از پایه مصنوعی آن‌ها باید اعتراف کنند. با این حال، اثار هنری، خلاقانه یا طنزی ممکن است بدون مانع منع نمایش یا لذت بردن باشند. متن‌های تولیدشده از AI via عمومی در باره مسائل مورد علاقه‌ی عمومی باید مشخص شوند، مگر اینکه مورد بررسی انسانی یا کنترل سردبینی قرار گرفته باشند.

در خلاصه، با تأیید پارلمان اروپا از لایحه‌ی AI، اتحادیه اروپا یک گام نوین برای تنظیم فناوری هوش مصنوعی برداشته است. با آدرس دادن به نگرانی‌ها و ایجاد اطمینان و پیاده‌سازی تدابیر ایمنی، این قوانین قسمتاً الگویی ترازویی برای دیگر کشورها قرار می‌دهد که احتمالاً به دقت آن را ملاحظه می‌کنند. نحوه تنظیم اتحادیه اروپا از هوش مصنوعی پتانسیل این را دارد که آینده سپرده‌گذاری مسئولانه و استفاده از هوش مصنوعی را تعیین کند.

The source of the article is from the blog trebujena.net

Privacy policy
Contact