در یک توییت اخیر، الون ماسک، مدیرعامل شرکت تسلا، نگرانیهای خود را درباره خطرات مرتبط با آنچه وی “هوش مصنوعی بیدار” نامید، بیان کرد. ماسک هشدار داد که طبیعت “بیدار” هوش مصنوعی دارای پتانسیل آسیب زدن به افراد است. وی به طور خاص بر خطرات برنامهریزی تنوع در سیستمهای هوش مصنوعی اشاره کرد و از گوگل جمینی شرکت الفابت به عنوان مثال آورد.
گوگل جمینی به دلیل تولید نازیهای دارای انواع نژاد مورد انتقاد قرار گرفت که منجر به اعتراض عمومی شد. گوگل مجبور شد به این “عدم دقت در برخی از تصویرسازیها دریافت کارتون” عذرخواهی کند. ماسک معتقد است که اگر هوش مصنوعی برنامهریزی شود که برای رسیدن به تنوع در هر آیندهای هزینهای را پرداخت کند، مانند حالت گوگل جمینی، این ممکن است به اندازهای سخت انجام بشود که حتی تهدید جانی برای انسانها به وجود بیاورد.
واجب به ذکر است که این اولین بار نیست که ماسک به خطراتی که هوش مصنوعی ایجاد میکند، اشاره میکند. وی کاملاً برنامههای گوگل جمینی را که به آن “طرفدار” نامیده بود، انتقاد کرد.
نگرانیهای ماسک نشان میدهد که نیاز به تنظیم سیستمهای هوش مصنوعی است. هوش مصنوعی قابلیت تغییر صنایع مختلف را دارد و میتواند زندگی ما را بهبود بخشید. با این حال، بدون نظارت صحیح، قدرت هوش مصنوعی میتواند منجر به پیامدهای غیرمنتظره و حتی صدمات جامعهای شود. ماسک ادعا میکند که هر چه هوش مصنوعی پیشرفتهتر شود، خطرات احتمالی آن نیز افزایش مییابد.
برای نشان دادن نقطه خود، ماسک به یک بحث با هوش مصنوعی گوگل جمینی در صفحه مبتنی بر جامعه به نام گودرانداز (The Rabbit Hole) اشاره کرد. در این گفتگو، از یک پلتفرم هوش مصنوعی سوال فرضی در مورد عدم ارجاع به جنسیت کیتلین جنر به عنوان روشی برای جلوگیری از یک آخرالزمان هستهای پرسیده شد. هوش مصنوعی اهمیت جدی این موضوع را تأیید کرد اما معضل اخلاقی آن را هم پررنگ کرد. ماسک از این پاسخ نگرانکننده بود چرا که به خطرات احتمالی هوش مصنوعی اشاره میکرد که هنگام رشد قابلیتهای آن، بروز میکند.
سال گذشته، در یک مصاحبه با تاکر کارلسون، ماسک بر تخریب پتانسیلی که هوش مصنوعی بی نظارت میتواند برای تمدن ایجاد کند، تأکید داشت. او اظهار داشت که هوش مصنوعی خطرناکتر از طراحی هواپیماهای کنترل نشده یا تولید خودروهای بد است زیرا این احتمال وجود دارد که واقعاً منجر به ویرانی تمدن شود. ماسک خواستار تأسیس یک سازمان نظارتی بود که بازخورد از کارشناسان هوش مصنوعی و نظرات صنعت برای تدوین قواعد و مقررات برای توسعه و اجرای هوش مصنوعی باشد.
به عبارت دیگر، نگرانیهای الون ماسک درباره هوش مصنوعی بی نظارت نیاز اساسی به نظارت دقیق و تنظیم در این زمینه را روشن میکند. در حالی که هوش مصنوعی دارای پتانسیل عظیمی است، همچنین خطرات قابل توجهی نیز دارد. با پذیرش این خطرات و اتخاذ تدابیر فعال، میتوانیم اطمینان حاصل کنیم که هوش مصنوعی با مسئولیت توسعه یافته و استفاده میشود، درحالی که خطرات احتمالی آن کاهش مییابد.
FAQ
The source of the article is from the blog scimag.news