شرکتهای فناوری پیشگام و دولتها برای تأسیس تدابیر حفاظتی هوش مصنوعی به توافق رسیدهاند. غولهای صنعت فناوری اطلاعات شامل مایکروسافت، OpenAI، Anthropic و سیزده شرکت دیگر به یک توافق تاریخی درباره چارچوب سیاستی دست پیدا کردهاند. اگر موقعیتی فراری در طی توسعه مدلهای هوش مصنوعی جدید پدید آید، آنها با یکدیگر توافق کردهاند که برای جلوگیری از سناریوهای بالقوه ناگواری مانند واقعه “ترمیناتور” در واقعیت، پیشرفت را متوقف نمایند.
تلاشهای مشترک برای کاهش ریسکهای هوش مصنوعی. این توافق در سئول بهدست آمده است که سازمانها و نمایندگان دولتی در آنجا گردهمآیی کردهاند تا مسیر خود را درباره توسعههای هوش مصنوعی تعیین نمایند. این توافق بر پایه “دکمه قطع” است که یک تعهد به قطع پیشرفت مدلهای پرتوانتر هوش مصنوعی خود است اگر گفتگوی ریسک مرزهای تعریف شده را عبور کند.
عدم انجام عمل ملموس و وضوح هنوز هم برقرار است. با وجود توافق حاضر، عدم وجود عمل ملموس یا تعریف مشخصی از مرز “خطرناک” که اجرای دکمه قطع را فعال میکند، قابل توجه است. این مسئله تماس با اجرایی بودن و کارایی این سیاست را مشکل میسازد.
براساس گزارشهای جمعآوریشده توسط یاهو نیوز، موارد فوق العاده میتوانند سبب شود که سازمانها اگر اقدامات کنترلی کافی نباشد، مدلهای هوش مصنوعی جدید را منتشر نکنند. بازیگران اصلی مانند آمازون، گوگل و سامسونگ نیز پشتیبانی خود را از این اقدام اعلام کردهاند که نشانگر یک توافق جامع صنعتی گسترده است.
بحثها با کارشناسان هوش مصنوعی، همچون آنهایی که توسط Unboxholics گزارش شدهاند، بر مخاطرات مهم تأکید میکنند که این تصمیم یکپارچه شده را فرا میخواند. این نهاد تصمیم خود را با پیشبینیهای مشهور آکادمیک Geoffrey Hinton ترکیب کردهاست که از قابلیت هوش مصنوعی برای جایگزینکردن انسانها در بخشهای مختلف شغلی هشدار داده بود که نشان از آیندهٔ عمیق در دینامیکهای نیروی کار میدهد.
نگرانیها و چالشهای مهم در مورد راهبردهای اضطراری توقف هوش مصنوعی:
1. تعیین مرزهای “خطرناک”: چالش اصلی برقراری پارامترهای دقیقی است که مشخص کنند هنگامی که یک هوش مصنوعی خطرناک میشود و توسعه ادامه پیدا کند. بدون تعریفهای واضح، هر توافقی برای متوقفکردن مشترک ممکن است نسبی و موضوعی باشد.
2. اجرایی بودن: اطمینان از این که همه طرفها به توافق توقف عمل مینمایند، مشکل است، به ویژه با توجه به عدم وجود چارچوبهای تنظیمی جهانی مخصوصاً برای هوش مصنوعی.
3. توانایی تکنولوژی: امکانپذیری خود دکمه قطع، یک مسأله فنی است که نیاز به مکانیسمهای اعتمادبخش برای وارد کردن آنها به سیستمهای هوش مصنوعی دارد که یک وظیفه پیچیده است.
4. فشارهای رقابتی: شرکتها ممکن است نسبت به متوقف کردن یا کاهش سرعت تحقیقات هراسان باشند اگر رقبا این کار را نکنند، که میتواند به رقابتی برای توسعه هوش مصنوعی منجر شود.
5. حریم خصوصی و امنیت اطلاعات: سیستمهای پیشرفته هوش مصنوعی ممکن است حجم زیادی از دادهها را پردازش کنند و قطع ناگهانی آنها میتواند خطرات حفظ حریم خصوصی و امنیت اطلاعات را ایجاد کند.
مزایای یک توافق توقف هوش مصنوعی:
– افزایش ایمنی: این یک شبکه ایمنی را در برابر پیامدهای غیر منتظره سیستمهای پیشرفته هوش مصنوعی فراهم مینماید.
– اعتماد عمومی: چنین توافقاتی میتوانند اعتماد عمومی را به فناوریهای هوش مصنوعی و نهادهایی که آنها را توسعه میدهند، افزایش دهند.
– به اشتراکگذاری مسئولیت: این فرهنگ مسئولیت و همکاری در بین شرکتهای فناوری را تشویق میکند.
معایب یک توافق توقف هوش مصنوعی:
– جلوگیری از نوآوری: دستورالعملهای بیشاندازه هراسان یا مبهم میتواند نوآوری را بخفه کند.
– مزایای رقابتی: نهادهایی که به توافق پایبند باشند ممکن است در زمینههای مبتنی بر تفاوت قوانین یا سطوح اجرا، پشتسر هم بمانند.
– اجرا کردن با سختی: جنبههای عملی از اجرای و مدیریت دکمه قطع ممکن است چالشبرانگیز و منابع-گیر باشد.
با وجود مزایاهای پیشنهادی و چالشهای چشمگیر، این توسعه نشان میدهد که صنعت فناوری نحوه مسئولیت پذیری خود در شکلدهی به آینده هوش مصنوعی را چگونه میبیند. حتمیت پیشرفتهای هوش مصنوعی، اندیشیدن راجع به تدابیر حفاظتی برای محافظت از نتایج غیر مطلوب را ضروری مینماید. برای علاقهمندان به زمینه گستردهتر این توافق، منابع معتبر و بحثها درباره سیاستگذاری و ایمنی هوش مصنوعی را میتوان در وبگاههای اصلی سازمانهایی همچون انجمن پیشرفت مصنوعی از هوش (AAAI) در AAAI و موسسه آینده زندگی در Future of Life Institute پیدا کنید. بررسی منابع به عنوان یک موضوع ضروری برای آگاهی از توسعههای جدید هوش مصنوعی، سیاستها و بحثهاست.
The source of the article is from the blog motopaddock.nl