تکنولوژی‌های جهانی موافقت کرده‌اند تاکتیک توقف اضطراری هوش مصنوعی (AI) را تصویب کنند

تشکیلات بزرگ فناوری و دولت ها برای ایجاد ضوابط ایمنی هوش مصنوعی. غول های صنعت فناوری، شامل شرکت‌های مایکروسافت، OpenAI، Anthropic و سیزده شرکت دیگر، به توافقی در مورد چهارچوب سیاستی نخست‌آفرین رسیده‌اند. اگر وضعیتی فراری در فرایند توسعه مدل‌های جدید هوش مصنوعی رخ دهد، آن‌ها توافق کرده‌اند تا پیشرفت را متوقف کنند تا از وقوع سناریوهای پتانسیلی مرگبار مانند واقعیتی مانند واقعه ‘ترمیناتور’ جلوگیری کنند.

تلاش هماهنگ برای کاهش خطرات هوش مصنوعی. این تفاهم در سئول به عنوان محلی برگزار شد که سازمان‌ها و نمایندگان دولتی با هم جلسه‌ای داشتند تا مسیرشان در مورد توسعه هوش مصنوعی تعیین کنند. این توافق بر مبنای “کلید خاموش” است – تعهد به قطع پیشرفت مدل‌های پیشرو هوش مصنوعی خود اگر از حدود خطری که پیش‌تعیین شده خارج شوند.

عدم عمل محکم و وضوح ادامه دارد. با وجود این توافق، نکته خاصی از عمل محکم یا تعریف مشخص از حداکثر “خطرناک” وجود ندارد که باعث فعال‌شدن کلید خاموش شود. این موضوع موجب شک شدن در مورد قابلیت اجرایی و اثربخشی این سیاست می‌شود.

از گزارش‌های جمع‌آوری شده توسط Yahoo News، وضعیت‌های بسیار بحرانی باعث شده تا سازمان‌ها این مدل‌های هوش مصنوعی جدید را منتشر نکنند اگر اقدامات کنترلی کافی نباشد. بازیکنان اصلی مانند آمازون، گوگل و سامسونگ همچنین تأییدیه خود را برای این مبادرت اعلام کرده‌اند و سیگنالی از توافق گسترده‌ای در صنعت است.

بحث‌ها با کارشناسان هوش مصنوعی، مانند آنچه توسط Unboxholics گزارش شده است، بر خطرات قابل توجه متمرکز هستند که این تصمیم یکپارچه را فراهم کرده است. این حرکت توقعات مشهور اکادمیکی ژئوفری هینتون را که از قدرت هوش مصنوعی برای جایگزینی انسان‌ها در صنایع مختلف هشدار داده‌بود، بازتاب می‌دهد.

مسائل و چالش‌های مهم اطراف استراتژی‌های تعطیلی اضطراری هوش مصنوعی:

1. تعیین حداکثر “خطرناک”: یک چالش اساسی تعیین پارامترهای دقیقی است که تعیین می‌کنند هنگامی که یک هوش مصنوعی تا حدی خطرناک می‌شود توسعه آن را ادامه داد. بدون تعاریف واضح، هر توافق برای تعطیلی می‌تواند انتزاعی و مستقیم به تفسیر باشد.

2. قابل اجرا بودن: اطمینان از اینکه همه طرف‌ها به توافق تعطیلی پایبند باشند، مشکل است، به خصوص با توجه به نبود چارچوب‌های تنظیمی جهانی مخصوصاً برای هوش مصنوعی.

3. توانایی فناوری: امکان‌پذیری یک کلید خاموش به خودش مسأله فنی است که نیازمند مکانیسم‌های قابل اعتمادی است که در سیستم‌های هوش مصنوعی به کار برده شوند که امری پیچیده است.

4. فشارهای رقابتی: شرکت‌ها ممکن است نسبت به توقف یا کاهش سرعت تحقیقات غیرمنطقی شوند اگر رقبایشان اینطور نکنند که منجر به یک رقابت داخلی در توسعه هوش مصنوعی شود.

5. حفاظت از داده و امنیت: سیستم‌های پیشرفته هوش مصنوعی ممکن است حجم بزرگی از داده‌ها را پردازش کنند و قطع ناگهانی آن‌ها می‌تواند خطرات حفظ حریم خصوصی و امنیت داده‌ها را به همراه داشته باشد.

مزایای یک توافق توقف هوش مصنوعی:
افزایش ایمنی: این یک شبکه ایمنی را در برابر نتایج غیرقابل پیش‌بینی سیستم‌های هوش مصنوعی پیشرفته فراهم می‌کند.
اعتماد عمومی: چنین توافقی می‌تواند اعتماد عمومی به فناوری هوش مصنوعی و نهادهای توسعه دهندگان آن را افزایش دهد.
مسئولیت مشترک: این یک فرهنگ از مسئولیت و همکاری بین شرکت‌های فناوری را تشویق می‌کند.

معایب توافق توقف هوش مصنوعی:
مانع از نوآوری: رهنمودهای بی‌هوش یا مبهم ممکن است انقلاب را پیچیده کند.
ضررهای رقابتی: نهادهایی که به توافق پایبند باشند، ممکن است در عقب بمانند نسبت به افرادی که اینکار را نمی‌کنند، به ویژه در مناطقی که دارای آیین‌نامه‌ها یا سطوح اجرای متفاوت هستند.
پیاده‌سازی دشوار: جنبه‌های عملیاتی اجرایی و مدیریت یک کلید خاموش ممکن است چالش برانگیز و منابع‌گیر باشد.

گرچه مزایا و چالش‌های قابل توجهی ارائه شده اند، این توسعه نشان می‌دهد که چگونه صنعت فناوری مسئولیت خود را در شکل گیری آینده هوش مصنوعی در نظر می‌گیرد. ناگزیری از هوش مصنوعی پیشرفته ما را مضطرب کند تا ضوابطی را برای محافظت از نتایج مضر بررسی کنیم. ادامه تحقیقات و گفت‌وگو با نهادهای ذینفع برای بهبود و اجرای موثر چنین چارچوب‌هایی ضروری است.

برای کسانی که به زمینه گسترده‌تر این توافق علاقه‌مند هستند، منابع معتبر و بحث‌های درباره سیاست‌ها و ایمنی هوش مصنوعی را می‌توان در سایت‌های اصلی سازمان‌هایی مانند انجمن پیشرفت هوش مصنوعی (AAAI) به آدرسی AAAI و موسسه آینده زندگی در آدرسی Future of Life Institute پیدا کرد. بررسی این منابع برای اطلاع از توسعه‌های جدید هوش مصنوعی، سیاست‌ها و بحث‌ها بسیار حیاتی است.

The source of the article is from the blog foodnext.nl

Privacy policy
Contact