گام‌های تازه کالیفرنیا در تنظیمات هوش مصنوعی و حریم شخصی داده‌ای

کالیفرنیا، با نامی که به عنوان مرکز گیانت‌های فناوری شناخته می‌شود، به تازگی یک حرکت قابل توجه برای تنظیم استفاده از هوش مصنوعی (AI) و داده‌های شخصی توسط کسب و کارها انجام داده است. با افزایش نگرانی‌ها درباره خطرات مرتبط با این فناوری‌ها در فراوانی قوانین فدرال، ایالت پیشتاز در رسیدگی به این موارد است.

گروه نظارت بر حفاظت از حریم خصوصی کالیفرنیا (CPPA) نقش حیاتی را در تدوین دستورالعمل‌هایی برای کسب و کارها در استفاده از AI و جمع‌آوری داده‌های شخصی در نظر گرفته است. در یک رأی نزدیک به ۳ به ۲ در اکلند برگزار شد، قوانین جدیدی که هدفش حفاظت از مصرف‌کنندگان، کارگران و دانشجویان کالیفرنیایی است، تصویب شد.

مقررات به تازگی اجرا شده تمرکز خود را بر روی جنبه‌های مختلف زندگی‌های کالیفرنیاییان، از جمله شغل‌ها، مسکن، بیمه، بهداشت و درمان و آموزش می‌گذارند. به عنوان مثال، اگر یک شرکت قصد داشته باشد با استفاده از AI وضعیت عاطفی یا شخصیت فردی را در مصاحبه کاری ارزیابی کند، فرد حق دارد انتخاب کند که شرکت نکند بدون اینکه به هر نوع تبعیضی برخورد کند.

تحت این قوانین، کسب و کارها باید پیش از استفاده از AI به افراد اطلاع دهند و نمی‌توانند در برابر کسانی که تصمیم می‌گیرند با AI همکاری نکنند، تبعیض کنند. علاوه بر این، اگر کسی با استفاده از یک سرویس یا ابزار AI موافقت کند، کسب و کارها موظف به شفافیت در پاسخ دادن به سوالات در مورد چگونگی استفاده از داده‌های شخصی برای پیش‌بینی‌ها هستند. کارفرمایان و پیمانکاران شخص ثالث همچنین موظف به ارزیابی عملکرد فناوری AI خود هستند.

دامنه این مقررات بسیار گسترده است و حوزه کسب‌وکارهایی را شامل می‌شود که بیش از ۲۵ میلیون دلار درآمد سالیانه تولید می‌کنند و یا داده‌های شخصی بیش از ۱۰۰ هزار نفر از کالیفرنیاییان را در دست دارند. از جمله مهمترین ۵۰ شرکت AI در سطح جهان، ۳۵ شرکت در کالیفرنیا مستقر هستند که باعث می‌شود مقررات این ایالت اهمیت زیادی داشته باشد.

“این یکی است که باید تماشا شود زیرا کالیفرنیا خانه شرکت‌های فناوری بزرگ است و یک مرکز جمعیتی است.” گفت باب راجرز، مدیر عامل شرکت داده‌های Oii.ai در سانفرانسیسکو. “اشاره کردن به قضیه این است که چه اتفاقی در آنجا می‌افتد می‌تواند الگو را برای بسیاری از کشور ایجاد کند.”

راجرز برجسته کرد که این بیل به لزوم آزمون ایمنی قبل از ارائه و حفاظت‌های سایبری برای توسعه‌دهندگان مدل‌های AI بزرگ تاکید دارد. علاوه بر این، دادستان عمومی کالیفرنیا اختیاری برای تعقیب توسعه‌دهندگان به مسئولیت گرفتن اگر یک مدل AI بیش از حد قوی آسیبی وارد کند.

هرچند کالیفرنیا یک گام فعال در تنظیم هوش مصنوعی برده است، عدم وجود قوانین جامع فدرال چالشی را ایجاد می‌کند. ایالت‌های دیگری هم

The source of the article is from the blog regiozottegem.be

Privacy policy
Contact