تشکیلات بزرگ فناوری و دولت ها برای ایجاد ضوابط ایمنی هوش مصنوعی. غول های صنعت فناوری، شامل شرکتهای مایکروسافت، OpenAI، Anthropic و سیزده شرکت دیگر، به توافقی در مورد چهارچوب سیاستی نخستآفرین رسیدهاند. اگر وضعیتی فراری در فرایند توسعه مدلهای جدید هوش مصنوعی رخ دهد، آنها توافق کردهاند تا پیشرفت را متوقف کنند تا از وقوع سناریوهای پتانسیلی مرگبار مانند واقعیتی مانند واقعه ‘ترمیناتور’ جلوگیری کنند.
تلاش هماهنگ برای کاهش خطرات هوش مصنوعی. این تفاهم در سئول به عنوان محلی برگزار شد که سازمانها و نمایندگان دولتی با هم جلسهای داشتند تا مسیرشان در مورد توسعه هوش مصنوعی تعیین کنند. این توافق بر مبنای “کلید خاموش” است – تعهد به قطع پیشرفت مدلهای پیشرو هوش مصنوعی خود اگر از حدود خطری که پیشتعیین شده خارج شوند.
عدم عمل محکم و وضوح ادامه دارد. با وجود این توافق، نکته خاصی از عمل محکم یا تعریف مشخص از حداکثر “خطرناک” وجود ندارد که باعث فعالشدن کلید خاموش شود. این موضوع موجب شک شدن در مورد قابلیت اجرایی و اثربخشی این سیاست میشود.
از گزارشهای جمعآوری شده توسط Yahoo News، وضعیتهای بسیار بحرانی باعث شده تا سازمانها این مدلهای هوش مصنوعی جدید را منتشر نکنند اگر اقدامات کنترلی کافی نباشد. بازیکنان اصلی مانند آمازون، گوگل و سامسونگ همچنین تأییدیه خود را برای این مبادرت اعلام کردهاند و سیگنالی از توافق گستردهای در صنعت است.
بحثها با کارشناسان هوش مصنوعی، مانند آنچه توسط Unboxholics گزارش شده است، بر خطرات قابل توجه متمرکز هستند که این تصمیم یکپارچه را فراهم کرده است. این حرکت توقعات مشهور اکادمیکی ژئوفری هینتون را که از قدرت هوش مصنوعی برای جایگزینی انسانها در صنایع مختلف هشدار دادهبود، بازتاب میدهد.
مسائل و چالشهای مهم اطراف استراتژیهای تعطیلی اضطراری هوش مصنوعی:
1. تعیین حداکثر “خطرناک”: یک چالش اساسی تعیین پارامترهای دقیقی است که تعیین میکنند هنگامی که یک هوش مصنوعی تا حدی خطرناک میشود توسعه آن را ادامه داد. بدون تعاریف واضح، هر توافق برای تعطیلی میتواند انتزاعی و مستقیم به تفسیر باشد.
2. قابل اجرا بودن: اطمینان از اینکه همه طرفها به توافق تعطیلی پایبند باشند، مشکل است، به خصوص با توجه به نبود چارچوبهای تنظیمی جهانی مخصوصاً برای هوش مصنوعی.
3. توانایی فناوری: امکانپذیری یک کلید خاموش به خودش مسأله فنی است که نیازمند مکانیسمهای قابل اعتمادی است که در سیستمهای هوش مصنوعی به کار برده شوند که امری پیچیده است.
4. فشارهای رقابتی: شرکتها ممکن است نسبت به توقف یا کاهش سرعت تحقیقات غیرمنطقی شوند اگر رقبایشان اینطور نکنند که منجر به یک رقابت داخلی در توسعه هوش مصنوعی شود.
5. حفاظت از داده و امنیت: سیستمهای پیشرفته هوش مصنوعی ممکن است حجم بزرگی از دادهها را پردازش کنند و قطع ناگهانی آنها میتواند خطرات حفظ حریم خصوصی و امنیت دادهها را به همراه داشته باشد.
مزایای یک توافق توقف هوش مصنوعی:
– افزایش ایمنی: این یک شبکه ایمنی را در برابر نتایج غیرقابل پیشبینی سیستمهای هوش مصنوعی پیشرفته فراهم میکند.
– اعتماد عمومی: چنین توافقی میتواند اعتماد عمومی به فناوری هوش مصنوعی و نهادهای توسعه دهندگان آن را افزایش دهد.
– مسئولیت مشترک: این یک فرهنگ از مسئولیت و همکاری بین شرکتهای فناوری را تشویق میکند.
معایب توافق توقف هوش مصنوعی:
– مانع از نوآوری: رهنمودهای بیهوش یا مبهم ممکن است انقلاب را پیچیده کند.
– ضررهای رقابتی: نهادهایی که به توافق پایبند باشند، ممکن است در عقب بمانند نسبت به افرادی که اینکار را نمیکنند، به ویژه در مناطقی که دارای آییننامهها یا سطوح اجرای متفاوت هستند.
– پیادهسازی دشوار: جنبههای عملیاتی اجرایی و مدیریت یک کلید خاموش ممکن است چالش برانگیز و منابعگیر باشد.
گرچه مزایا و چالشهای قابل توجهی ارائه شده اند، این توسعه نشان میدهد که چگونه صنعت فناوری مسئولیت خود را در شکل گیری آینده هوش مصنوعی در نظر میگیرد. ناگزیری از هوش مصنوعی پیشرفته ما را مضطرب کند تا ضوابطی را برای محافظت از نتایج مضر بررسی کنیم. ادامه تحقیقات و گفتوگو با نهادهای ذینفع برای بهبود و اجرای موثر چنین چارچوبهایی ضروری است.
برای کسانی که به زمینه گستردهتر این توافق علاقهمند هستند، منابع معتبر و بحثهای درباره سیاستها و ایمنی هوش مصنوعی را میتوان در سایتهای اصلی سازمانهایی مانند انجمن پیشرفت هوش مصنوعی (AAAI) به آدرسی AAAI و موسسه آینده زندگی در آدرسی Future of Life Institute پیدا کرد. بررسی این منابع برای اطلاع از توسعههای جدید هوش مصنوعی، سیاستها و بحثها بسیار حیاتی است.
The source of the article is from the blog foodnext.nl