با توجه به تأیید پارلمان اروپا از لایحهی AI پیشنهادی اتحادیه اروپا، گام مهمی برای تنظیم فناوری هوش مصنوعی (AI) برداشته شده است. این رای علامت خوبی برای معرفی یک قوانین جامع است که بر آن است تا به رفع نگرانیها پرداخته و اعتماد به فناوری AI را برقرار کند. این اقدام میتواند در مدت سه سالهای که اجرای این قانون به طول میانجی میکشد، باعث اطمینان از مراقبت دقیق و ایمنی ابزارهای AI شود.
طبق گفته Guillaume Couneson، یکی از شرکای شرکت وکالتی Linklaters، تأیید لایحهی AI به معنای این است که کاربران میتوانند در ابزارهایی که استفاده میکنند اعتماد کنند، به همان صورت که کاربران اپلیکیشنهای بانکی به تدابیر امنیتی پیادهشده توسط بانکهایشان اعتماد میکنند. این تأکید بر اعتماد و امنیت برای پذیرش گستردهی فناوری AI بسیار حائز اهمیت است.
فراتر از اتحادیه اروپا، انتظار میرود تأثیر این قوانین به صورت جهانی احساس شود. اتحادیه اروپا خود را به مثابه یک ناظر تاثیرگذار در حوزه تکنولوژی معرفی کرده است، همانطور که اثرات رابطهی عمومی دادهها (GDPR) بر روی روشهای مدیریت دادهها نشان میدهد. پذیرش لایحهی AI احتمالاً شیوهی دیگر کشورها را تعیین میکند، تا زمانی که اثربخشی آن اثبات شود.
پرسش و پاسخ در مورد لایحهی پیشنهادی AI اتحادیه اروپا:
1. چه تعریفی از AI در لایحهی AI وجود دارد؟
لایحهی AI فناوری هوش مصنوعی را به عنوان “سیستمهای مبتنی بر ماشین طراحی شده برای عمل با سطوح مختلفی از خودکاری” تعریف میکند. این تعریف ابزارهایی مانند ChatGPT را برمیگیرد و توانایی یادگیری تطبیقی و تولید خروجیهایی که هم محیطهای فیزیکی و هم مجازی را تحت تأثیر قرار میدهند را ارزیابی میکند. اسکرینینگ برنامههای کاربردی و چتباتها فقط چند نمونه از ابزارهای AI هستند که توسط این تعریف پوشش داده میشوند.
2. چه چیزهایی از مقررات لایحهی AI مستثنی شدهاند؟
ابزارهای AI طراحی شده برای مقاصد نظامی، دفاعی یا امنیت ملی از مقررات لایحهی AI مستثنی شدهاند. این مستثنی موجب نگرانیها در میان دفاعندگان از استفاده مسئولانه از هوش مصنوعی شده است.
3. چه خطراتی لایحهی AI به رسمیت میشود که بخواهد آنها را مدیریت کند؟
لایحهی AI سیستمهای معلومی را که آسیب میرسانند، سیستمهای امتیازدهی اجتماعی، پلیسگذاری پیشبینیکننده مشابه فیلم حداقل گزاری، سیستمهای دسترسی که احساسات را نظارت میکنند و همچنین سیستمهای زیستسنجی مرتبعنوع که اطلاعات حساس را از دادههای زیستسنجی استنتاج میکند و ترکیب پایگاههای دادهی شناسایی چهره از طریق جمعآوری غیرمجاز را منع میکند. همچنین، این قوانین شامل مفادی برای سیستمهای “بالاریسک” عمدتاً در بخشهای زیرساخت اساسی و بخشهای ضروری مانند آموزش، بهداشت و درمان و بانکداری است. این سیستمها نیازمند دقت، ارزیابی خطر، نظارت انسانی و تاریخچه استفاده هستند. شهروندان اتحادیه اروپا همچنین حق دارند که توضیحات راجع به تصمیماتی که توسط سیستمهای هوش مصنوعی که برای آنها تأثیر گذاشتهاند، درخواست کنند.
4. چگونه لایحهی AI بر علیه هوش تحولی و دیپفیکس مقررات تنظیم میکند؟
سیستمهای هوش تحولی AI که متن، تصویر، ویدیوها، یا صدا ایجاد میکنند، مورد تنظیم قرار میگیرند. توسعهدهندگان مدلها باید با قانون حق تکثیر اتحادیه اروپا سازگاری داشته باشند و خلاصه دقیقی از محتوای استفاده شده برای آموزش را ارائه کنند. با این حال، مدلهای منبعباز موجود برای عموم، مانند GPT-4 ChatGPT، از این الزامات حق تکثیر مستثنی میشوند.
طبقهبندی سختگیرانهتری از مدلها با ریسک “سیستمی” به دلیل هوش پیشرفتهی خود اعمال میشود. این دستهبندی نیازمند گزارش دادن از حوادث جدی با این مدلها و آزمونهای دشمنانه برای ارزیابی تصاویر ایمنی آنان است.
Deepfakes، محتوای تصویری که ممکن است بینندگان را فریب دهد، نیز تحت تنظیم قرار میگیرند. افراد مسئول از پایه مصنوعی آنها باید اعتراف کنند. با این حال، اثار هنری، خلاقانه یا طنزی ممکن است بدون مانع منع نمایش یا لذت بردن باشند. متنهای تولیدشده از AI via عمومی در باره مسائل مورد علاقهی عمومی باید مشخص شوند، مگر اینکه مورد بررسی انسانی یا کنترل سردبینی قرار گرفته باشند.
در خلاصه، با تأیید پارلمان اروپا از لایحهی AI، اتحادیه اروپا یک گام نوین برای تنظیم فناوری هوش مصنوعی برداشته است. با آدرس دادن به نگرانیها و ایجاد اطمینان و پیادهسازی تدابیر ایمنی، این قوانین قسمتاً الگویی ترازویی برای دیگر کشورها قرار میدهد که احتمالاً به دقت آن را ملاحظه میکنند. نحوه تنظیم اتحادیه اروپا از هوش مصنوعی پتانسیل این را دارد که آینده سپردهگذاری مسئولانه و استفاده از هوش مصنوعی را تعیین کند.
The source of the article is from the blog trebujena.net