شرکتهای فناوری پیشتاز و دولتها با هم همکاری میکنند تا تدابیر مربوط به هوش مصنوعی را توسعه دهند. غولهای صنعت فناوری از جمله مایکروسافت، OpenAI، Anthropic، و سیزده شرکت اضافی دیگر توافقی رویهای نوآورانه را تصویب کردهاند. اگر شرایط نامطلوبی هنگام توسعه مدلهای جدید هوش مصنوعی بوجود آمد، از آنجا که این شرکتها توافق کردهاند تا به جلوی وقوع سناریوهای ناگواری مانند واقعی شدن یک رویداد ‘ترمیناتور’ بروند، به توقف توسعه مزاحم نما بپردازند.
تلاشهای هماهنگ برای کاهش خطرات مربوط به هوش مصنوعی. این توافق در سئول به انجام رسید، جایی که سازمانها و نمایندگان دولتی جهت تعیین مسیر توسعه هوش مصنوعی به دور از پیش با یکدیگر جمع آمدند. توافق در خصوص “دکمه خاموش” مرکز این توافق است – تعهد بر این است که توسعه مدلهای پیشرفتهترین هوش مصنوعی خود را متوقف کنند اگر این مدلها حداقلهای مشخصی از خطرات را براه بخورند.
عدم اقدام قاطع و وضوح مسائل همچنان ادامه دارد. با وجود این توافق، نکته قابل توجهی عدم اقدام و عدم تعریف واضح از ضرایب “خطرناک” وجود دارد که مدیونی به فعالسازی دکمه خاموش میشود. این موضوع قابل دوبینی فراموش میشود و تاثیربخشی این سیاست را مورد سوال قرار میدهد.
از گزارشهای یاهو نیوز، موارد بیشتر از حد میتواند منجر به عدم عرضه مدلهای جدید هوش مصنوعی شود اگر اقدامات کنترلی محدودیتها نداشته باشند. بازیگران اصلی مانند آمازون، گوگل، و سامسونگ نیز حمایت خود را ازاین ابتکار اعلام کردهاند که نشانگر یک توافق صنعتی گسترده است.
گفتوگوهای با نخبگان هوش مصنوعی همچون آنچه در گزارشهای Unboxholics به ثبوت سرایت پیدا کرد، بر خطرات مهم تاکید میکنند که منجر به این تصمیم یکپارچه شده است. این حرکت با توجه به پیشبینیهای جرج هینتون، محقق مشهور، که خطر پنهان از جایگزینی انسانها در صنایع مختلف شغلی را هشدار داده، نشانه تغییر عمیقی در دینامیکهای نیروی کار است
نگرانیها و چالشهای مهم احاطه کننده دستورات اضطراری هوش مصنوعی:
1. مشخص کردن ضریبهای “خطرناک”: یکی از چالشهای اساسی به وجود آوردن پارامترهای دقیقی است که تعیین کنند که هوش مصنوعی چه زمانی خیلی خطرناک میشود که باید توسعه آن متوقف شود. بدون تعریفهای واضح، هر توافقی برای توقف ممکن است مبهم و موضوعی به نظر برسد.
2. پیاده سازی: اطمینان حاصل کردن از اینکه تمام اطرافیان به توافق توقف پایبند باشند چالش برانگیز است، به ویژه با توجه به عدم وجود چارچوبهای تنظیمی جهانی به خصوص برای هوش مصنوعی.
3. قابلیت فناوری: قابلیت مطلوب دکمه خاموش خود، یک مسئله فنی است که نیازمند مکانیسمهای قابل اعتمادی میباشد که در سیستمهای هوش مصنوعی مهندسی شود که یک وظیفه پیچیدهای است.
4. فشارهای رقابتی: شرکتها ممکن است مایل به توقف یا کاهش تحقیقات باشند اگر به نظر نرسد که رقبا این کاررا انجام دهند که میتواند به رقابتی در توسعه هوش مصنوعی منجر شود.
5. حفظ امنیت و حریم خصوصی اطلاعات: سیستمهای پیشرفته هوش مصنوعی ممکن است حجم بزرگی از دادهها را پردازش کنند و متوقف شدن ناگهانی آنها میتواند خطراتی برای حفظ حریم خصوصی و امنیت دادهها ایجاد کند.
مزایای یک توافق توقف هوش مصنوعی:
– افزایش امنیت: این امکان را فراهم میکند که در برابر پیامدهای ناخواستهی سیستمهای پیشرفته هوش مصنوعی محافظت شود.
– اعتماد عمومی: چنین توافقی میتواند اعتماد عمومی به فناوریهای هوش مصنوعی و شرکتها واحدهای ایجاد کند.
– مسئولیت مشترک: این باعث تشویق یک فرهنگ مسئولیت و همکاری در میان شرکتهای فناوری میشود.
معایب یک توافق توقف هوش مصنوعی:
– کاهش نوآوری: رهنمودهای بسیار محتاط یا ابهامزدایی ممکن است نوآورانه پرورش دهند.
– معایب رقابتی: افرادی که از توافق بهرهمند میشوند ممکن است عقب افتند نسبت به کسانی که اینطور نیستند، به طور خاص در مناطقی که مقررات یا سطوح اجرا متفاوت هستند.
– پیادهسازی دشوار: موارد عملی پیاده کردن و مدیریت یک دکمه خاموش ممکن است چالش برانگیز و منابع مصرفی باشد.
اگرچه مزایا و چالشهای ملحوظی وجود دارد، این توسعه به روشی نشاندهنده تغییری است که صنعت فناوری به این مسئولیت خود برای شکلدهی به آیندهی هوش مصنوعی نگاه میدارد. پیشرفت پیشرفته هوش مصنوعی باعث مطالعه و گفتوگو های ادامهدار میان ذینفعان برای بهبود و اجرای موفق این چهارچوبها ضروری است.
برای کسانی که به سراسریترین شرایط این توافقتعهد علاقهمند هستند، میتوانند منابع معتبر و گفتگوهایی دربارهی سیاستها و ایمنی هوش مصنوعی را در وبسایتهای اصلی موسساتی مانند انجمن پیشبرد هوش مصنوعی (AAAI) در AAAI و موسسه آیندهی زندگی در Future of Life Institute پیدا کنند. اینک (essential) پیوندهای مناسب برای آگاهی از جدیدترین توسعههای هوش مصنوعی، سیاستها و گفتگوها هستند.
The source of the article is from the blog xn--campiahoy-p6a.es