تکنولوژی اهالی کهکشانی موافقت کرده‌اند در استراتژی توقف اضطراری هوش مصنوعی به همدستی کنند.

شرکت‌های فناوری پیشتاز و دولت‌ها با هم همکاری می‌کنند تا تدابیر مربوط به هوش مصنوعی را توسعه دهند. غول‌های صنعت فناوری از جمله مایکروسافت، OpenAI، Anthropic، و سیزده شرکت اضافی دیگر توافقی رویه‌ای نوآورانه را تصویب کرده‌اند. اگر شرایط نامطلوبی هنگام توسعه مدل‌های جدید هوش مصنوعی بوجود آمد، از آنجا که این شرکت‌ها توافق کرده‌اند تا به جلوی وقوع سناریوهای ناگواری مانند واقعی شدن یک رویداد ‘ترمیناتور’ بروند، به توقف توسعه مزاحم نما بپردازند.

تلاش‌های هماهنگ برای کاهش خطرات مربوط به هوش مصنوعی. این توافق در سئول به انجام رسید، جایی که سازمان‌ها و نمایندگان دولتی جهت تعیین مسیر توسعه هوش مصنوعی به دور از پیش با یکدیگر جمع آمدند. توافق در خصوص “دکمه خاموش” مرکز این توافق است – تعهد بر این است که توسعه مدل‌های پیشرفته‌ترین هوش مصنوعی خود را متوقف کنند اگر این مدل‌ها حداقل‌های مشخصی از خطرات را براه بخورند.

عدم اقدام قاطع و وضوح مسائل همچنان ادامه دارد. با وجود این توافق، نکته قابل توجهی عدم اقدام و عدم تعریف واضح از ضرایب “خطرناک” وجود دارد که مدیونی به فعال‌سازی دکمه خاموش می‌شود. این موضوع قابل دوبینی فراموش می‌شود و تاثیربخشی این سیاست را مورد سوال قرار می‌دهد.

از گزارش‌های یاهو نیوز، موارد بیشتر از حد می‌تواند منجر به عدم عرضه مدل‌های جدید هوش مصنوعی شود اگر اقدامات کنترلی محدودیت‌ها نداشته باشند. بازیگران اصلی مانند آمازون، گوگل، و سامسونگ نیز حمایت خود را ازاین ابتکار اعلام کرده‌اند که نشانگر یک توافق صنعتی گسترده است.

گفت‌وگوهای با نخبگان هوش مصنوعی همچون آنچه در گزارش‌های Unboxholics به ثبوت سرایت پیدا کرد، بر خطرات مهم تاکید می‌کنند که منجر به این تصمیم یکپارچه شده است. این حرکت با توجه به پیش‌بینی‌های جرج هینتون، محقق مشهور، که خطر پنهان از جایگزینی انسان‌ها در صنایع مختلف شغلی را هشدار داده، نشانه تغییر عمیقی در دینامیک‌های نیروی کار است

نگرانی‌ها و چالش‌های مهم احاطه کننده دستورات اضطراری هوش مصنوعی:

1. مشخص کردن ضریب‌های “خطرناک”: یکی از چالش‌های اساسی به وجود آوردن پارامترهای دقیقی است که تعیین کنند که هوش مصنوعی چه زمانی خیلی خطرناک می‌شود که باید توسعه آن متوقف شود. بدون تعریف‌های واضح، هر توافقی برای توقف ممکن است مبهم و موضوعی به نظر برسد.

2. پیاده سازی: اطمینان حاصل کردن از اینکه تمام اطرافیان به توافق توقف پایبند باشند چالش برانگیز است، به ویژه با توجه به عدم وجود چارچوب‌های تنظیمی جهانی به خصوص برای هوش مصنوعی.

3. قابلیت فناوری: قابلیت مطلوب دکمه خاموش خود، یک مسئله فنی است که نیازمند مکانیسم‌های قابل اعتمادی می‌باشد که در سیستم‌های هوش مصنوعی مهندسی شود که یک وظیفه پیچیده‌ای است.

4. فشارهای رقابتی: شرکت‌ها ممکن است مایل به توقف یا کاهش تحقیقات باشند اگر به نظر نرسد که رقبا این کاررا انجام دهند که می‌تواند به رقابتی در توسعه هوش مصنوعی منجر شود.

5. حفظ امنیت و حریم خصوصی اطلاعات: سیستم‌های پیشرفته هوش مصنوعی ممکن است حجم بزرگی از داده‌ها را پردازش کنند و متوقف شدن ناگهانی آن‌ها می‌تواند خطراتی برای حفظ حریم خصوصی و امنیت داده‌ها ایجاد کند.

مزایای یک توافق توقف هوش مصنوعی:
افزایش امنیت: این امکان را فراهم می‌کند که در برابر پیامدهای ناخواسته‌ی سیستم‌های پیشرفته هوش مصنوعی محافظت شود.
اعتماد عمومی: چنین توافقی می‌تواند اعتماد عمومی به فناوری‌های هوش مصنوعی و شرکت‌ها واحدهای ایجاد کند.
مسئولیت مشترک: این باعث تشویق یک فرهنگ مسئولیت و همکاری در میان شرکت‌های فناوری می‌شود.

معایب یک توافق توقف هوش مصنوعی:
کاهش نوآوری: رهنمودهای بسیار محتاط یا ابهام‌زدایی ممکن است نوآورانه پرورش دهند.
معایب رقابتی: افرادی که از توافق بهره‌مند می‌شوند ممکن است عقب افتند نسبت به کسانی که این‌طور نیستند، به طور خاص در مناطقی که مقررات یا سطوح اجرا متفاوت هستند.
پیاده‌سازی دشوار: موارد عملی پیاده کردن و مدیریت یک دکمه خاموش ممکن است چالش برانگیز و منابع مصرفی باشد.

اگرچه مزایا و چالش‌های ملحوظی وجود دارد، این توسعه به روشی نشان‌دهنده تغییری است که صنعت فناوری به این مسئولیت خود برای شکل‌دهی به آینده‌ی هوش مصنوعی نگاه می‌دارد. پیش‌رفت پیشرفته هوش مصنوعی باعث مطالعه و گفت‌وگو های ادامه‌دار میان ذینفعان برای بهبود و اجرای موفق این چهارچوب‌ها ضروری است.

برای کسانی که به سراسری‌ترین شرایط این توافقتعهد علاقه‌مند هستند، می‌توانند منابع معتبر و گفتگوهایی درباره‌ی سیاست‌ها و ایمنی هوش مصنوعی را در وب‌سایت‌های اصلی موسساتی مانند انجمن پیشبرد هوش مصنوعی (AAAI) در AAAI و موسسه آینده‌ی زندگی در Future of Life Institute پیدا کنند. اینک (essential) پیوند‌های مناسب برای آگاهی از جدیدترین توسعه‌های هوش مصنوعی، سیاست‌ها و گفتگوها هستند.

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact