تیتان‌های فناوری جهانی در مورد استراتژی توقف فوری هوش مصنوعی توافق می‌کنند

شرکت‌های فناوری پیشگام و دولت‌ها برای تأسیس تدابیر حفاظتی هوش مصنوعی به توافق رسیده‌اند. غول‌های صنعت فناوری اطلاعات شامل مایکروسافت، OpenAI، Anthropic و سیزده شرکت دیگر به یک توافق تاریخی درباره چارچوب سیاستی دست پیدا کرده‌اند. اگر موقعیتی فراری در طی توسعه مدل‌های هوش مصنوعی جدید پدید آید، آن‌ها با یکدیگر توافق کرده‌اند که برای جلوگیری از سناریوهای بالقوه ناگواری مانند واقعه “ترمیناتور” در واقعیت، پیشرفت را متوقف نمایند.

تلاش‌های مشترک برای کاهش ریسک‌های هوش مصنوعی. این توافق در سئول به‌دست آمده است که سازمان‌ها و نمایندگان دولتی در آنجا گردهم‌آیی کرده‌اند تا مسیر خود را درباره توسعه‌های هوش مصنوعی تعیین نمایند. این توافق بر پایه “دکمه قطع” است که یک تعهد به قطع پیشرفت مدل‌های پرتوانتر هوش مصنوعی خود است اگر گفتگوی ریسک مرزهای تعریف شده را عبور کند.

عدم انجام عمل ملموس و وضوح هنوز هم برقرار است. با وجود توافق حاضر، عدم وجود عمل ملموس یا تعریف مشخصی از مرز “خطرناک” که اجرای دکمه قطع را فعال می‌کند، قابل توجه است. این مسئله تماس با اجرایی بودن و کارایی این سیاست را مشکل می‌سازد.

براساس گزارش‌های جمع‌آوری‌شده توسط یاهو نیوز، موارد فوق العاده می‌توانند سبب شود که سازمان‌ها اگر اقدامات کنترلی کافی نباشد، مدل‌های هوش مصنوعی جدید را منتشر نکنند. بازیگران اصلی مانند آمازون، گوگل و سامسونگ نیز پشتیبانی خود را از این اقدام اعلام کرده‌اند که نشانگر یک توافق جامع صنعتی گسترده است.

بحث‌ها با کارشناسان هوش مصنوعی، همچون آن‌هایی که توسط Unboxholics گزارش شده‌اند، بر مخاطرات مهم تأکید می‌کنند که این تصمیم یکپارچه شده را فرا می‌خواند. این نهاد تصمیم خود را با پیش‌بینی‌های مشهور آکادمیک Geoffrey Hinton ترکیب کرده‌است که از قابلیت هوش مصنوعی برای جایگزین‌کردن انسان‌ها در بخش‌های مختلف شغلی هشدار داده بود که نشان از آیندهٔ عمیق در دینامیک‌های نیروی کار می‌دهد.

نگرانی‌ها و چالش‌های مهم در مورد راهبردهای اضطراری توقف هوش مصنوعی:

1. تعیین مرزهای “خطرناک”: چالش اصلی برقراری پارامترهای دقیقی است که مشخص کنند هنگامی که یک هوش مصنوعی خطرناک می‌شود و توسعه ادامه پیدا کند. بدون تعریف‌های واضح، هر توافقی برای متوقف‌کردن مشترک ممکن است نسبی و موضوعی باشد.

2. اجرایی بودن: اطمینان از این که همه طرف‌ها به توافق توقف عمل می‌نمایند، مشکل است، به ویژه با توجه به عدم وجود چارچوب‌های تنظیمی جهانی مخصوصاً برای هوش مصنوعی.

3. توانایی تکنولوژی: امکان‌پذیری خود دکمه قطع، یک مسأله فنی است که نیاز به مکانیسم‌های اعتماد‌بخش برای وارد کردن آنها به سیستم‌های هوش مصنوعی دارد که یک وظیفه پیچیده است.

4. فشارهای رقابتی: شرکت‌ها ممکن است نسبت به متوقف کردن یا کاهش سرعت تحقیقات هراسان باشند اگر رقبا این کار را نکنند، که می‌تواند به رقابتی برای توسعه هوش مصنوعی منجر شود.

5. حریم خصوصی و امنیت اطلاعات: سیستم‌های پیشرفته هوش مصنوعی ممکن است حجم زیادی از داده‌ها را پردازش کنند و قطع ناگهانی آنها می‌تواند خطرات حفظ حریم خصوصی و امنیت اطلاعات را ایجاد کند.

مزایای یک توافق توقف هوش مصنوعی:
افزایش ایمنی: این یک شبکه ایمنی را در برابر پیامدهای غیر منتظره سیستم‌های پیشرفته هوش مصنوعی فراهم می‌نماید.
اعتماد عمومی: چنین توافقاتی می‌توانند اعتماد عمومی را به فناوری‌های هوش مصنوعی و نهادهایی که آنها را توسعه می‌دهند، افزایش دهند.
به اشتراک‌گذاری مسئولیت: این فرهنگ مسئولیت و همکاری در بین شرکت‌های فناوری را تشویق می‌کند.

معایب یک توافق توقف هوش مصنوعی:
جلوگیری از نوآوری: دستورالعمل‌های بیش‌اندازه هراسان یا مبهم می‌تواند نوآوری را بخفه کند.
مزایای رقابتی: نهادهایی که به توافق پایبند باشند ممکن است در زمینه‌های مبتنی بر تفاوت قوانین یا سطوح اجرا، پشت‌سر هم بمانند.
اجرا کردن با سختی: جنبه‌های عملی از اجرای و مدیریت دکمه قطع ممکن است چالش‌برانگیز و منابع-گیر باشد.

با وجود مزایاهای پیشنهادی و چالش‌های چشمگیر، این توسعه نشان می‌دهد که صنعت فناوری نحوه مسئولیت پذیری خود در شکل‌دهی به آینده هوش مصنوعی را چگونه می‌بیند. حتمیت پیشرفت‌های هوش مصنوعی، اندیشیدن راجع به تدابیر حفاظتی برای محافظت از نتایج غیر مطلوب را ضروری می‌نماید. برای علاقه‌مندان به زمینه گسترده‌تر این توافق، منابع معتبر و بحث‌ها درباره سیاست‌گذاری و ایمنی هوش مصنوعی را می‌توان در وب‌گاه‌های اصلی سازمان‌هایی همچون انجمن پیشرفت مصنوعی از هوش (AAAI) در AAAI و موسسه آینده زندگی در Future of Life Institute پیدا کنید. بررسی منابع به عنوان یک موضوع ضروری برای آگاهی از توسعه‌های جدید هوش مصنوعی، سیاست‌ها و بحث‌هاست.

The source of the article is from the blog motopaddock.nl

Privacy policy
Contact