تأملات برخوردار از خطرات احتمالی هوش مصنوعی بی نظارت

در یک توییت اخیر، الون ماسک، مدیرعامل شرکت تسلا، نگرانی‌های خود را درباره خطرات مرتبط با آنچه وی “هوش مصنوعی بیدار” نامید، بیان کرد. ماسک هشدار داد که طبیعت “بیدار” هوش مصنوعی دارای پتانسیل آسیب زدن به افراد است. وی به طور خاص بر خطرات برنامه‌ریزی تنوع در سیستم‌های هوش مصنوعی اشاره کرد و از گوگل جمینی شرکت الفابت به عنوان مثال آورد.

گوگل جمینی به دلیل تولید نازی‌های دارای انواع نژاد مورد انتقاد قرار گرفت که منجر به اعتراض عمومی شد. گوگل مجبور شد به این “عدم دقت در برخی از تصویرسازی‌ها دریافت کارتون” عذرخواهی کند. ماسک معتقد است که اگر هوش مصنوعی برنامه‌ریزی شود که برای رسیدن به تنوع در هر آینده‌ای هزینه‌ای را پرداخت کند، مانند حالت گوگل جمینی، این ممکن است به اندازه‌ای سخت انجام بشود که حتی تهدید جانی برای انسان‌ها به وجود بیاورد.

واجب به ذکر است که این اولین بار نیست که ماسک به خطراتی که هوش مصنوعی ایجاد می‌کند، اشاره می‌کند. وی کاملاً برنامه‌های گوگل جمینی را که به آن “طرفدار” نامیده بود، انتقاد کرد.

نگرانی‌های ماسک نشان می‌دهد که نیاز به تنظیم سیستم‌های هوش مصنوعی است. هوش مصنوعی قابلیت تغییر صنایع مختلف را دارد و می‌تواند زندگی ما را بهبود بخشید. با این حال، بدون نظارت صحیح، قدرت هوش مصنوعی می‌تواند منجر به پیامدهای غیرمنتظره و حتی صدمات جامعه‌ای شود. ماسک ادعا می‌کند که هر چه هوش مصنوعی پیشرفته‌تر شود، خطرات احتمالی آن نیز افزایش می‌یابد.

برای نشان دادن نقطه خود، ماسک به یک بحث با هوش مصنوعی گوگل جمینی در صفحه مبتنی بر جامعه به نام گودرانداز (The Rabbit Hole) اشاره کرد. در این گفتگو، از یک پلتفرم هوش مصنوعی سوال فرضی در مورد عدم ارجاع به جنسیت کیتلین جنر به عنوان روشی برای جلوگیری از یک آخرالزمان هسته‌ای پرسیده شد. هوش مصنوعی اهمیت جدی این موضوع را تأیید کرد اما معضل اخلاقی آن را هم پررنگ کرد. ماسک از این پاسخ نگران‌کننده بود چرا که به خطرات احتمالی هوش مصنوعی اشاره می‌کرد که هنگام رشد قابلیت‌های آن، بروز می‌کند.

سال گذشته، در یک مصاحبه با تاکر کارلسون، ماسک بر تخریب پتانسیلی که هوش مصنوعی بی نظارت می‌تواند برای تمدن ایجاد کند، تأکید داشت. او اظهار داشت که هوش مصنوعی خطرناک‌تر از طراحی هواپیماهای کنترل نشده یا تولید خودروهای بد است زیرا این احتمال وجود دارد که واقعاً منجر به ویرانی تمدن شود. ماسک خواستار تأسیس یک سازمان نظارتی بود که بازخورد از کارشناسان هوش مصنوعی و نظرات صنعت برای تدوین قواعد و مقررات برای توسعه و اجرای هوش مصنوعی باشد.

به عبارت دیگر، نگرانی‌های الون ماسک درباره هوش مصنوعی بی نظارت نیاز اساسی به نظارت دقیق و تنظیم در این زمینه را روشن می‌کند. در حالی که هوش مصنوعی دارای پتانسیل عظیمی است، همچنین خطرات قابل توجهی نیز دارد. با پذیرش این خطرات و اتخاذ تدابیر فعال، می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی با مسئولیت توسعه یافته و استفاده می‌شود، درحالی که خطرات احتمالی آن کاهش می‌یابد.

FAQ

The source of the article is from the blog scimag.news

Privacy policy
Contact