کارمندان صنعت هوش مصنوعی هشدار می‌دهند: خطرات احتمالی و نیاز به نظارت بهتر

فناوری هوش مصنوعی: شمشیر دو لبه
یک گروه از کارکنان سابق و فعلی از موسسات معتبر هوش مصنوعی، شامل کسانی که همکاری دارند با OpenAI که هم اکنون شریک Microsoft است، و کارکنان DeepMind از Google، نگرانی‌های خود را درباره خطرات پیش‌آمده از کاربردهای فناوری هوش مصنوعی بیان کردند. در یک نامه‌ی عمومی که توسط ۱۳ نفر از کارکنان حمایت شد، آن‌ها بر تأثیر سایه‌افکنی پاداش‌های مالی بر نظارت مناسب تنبیهی تأکید کردند.

فراخوان برای تدابیر ایمنی تقویت شده
طرفداران این نگرش احتیاطی معتقدند که ساختارهای فعلی حاکمیتی داخل شرکت‌های هوش مصنوعی به کار نمی‌آیند. آن‌ها بر خطرات هوش مصنوعی نیازمند نظارت کمتری، که ممکن است اطلاعات غلط انتشار دهد، منازعات را تشدید دهد و فرونشانی اختلافات اجتماعی را گسترده‌تر کند، تأکید کردند. آن‌ها این خطرات را به پیامدهای افراطی مانند انقراض انسانی مرتبط کردند.

مشاهدات درباره تأثیر هوش مصنوعی بر روایت‌های جامعه‌ای
پژوهش‌گران نمونه‌هایی از تصاویر تولیدشده توسط OpenAI و Microsoft که برای اختلافات سیاسی و تضادات جاری پیامبرانه هستند را کشف کردند، با پخش آنها از طریق پلتفرم‌های آنلاین. با وجود سیاست‌های شرکت برای مدیریت چنین محتواهایی، انتشار آن در اینترنت بی‌نظارت باقی مانده است.

تضمین شفافیت و آگاهی
در نامه‌ی عمومی، “نظارت ناکافی” که این شرکت‌ها را از به اشتراک گذاری اطلاعات قابل اعتماد درباره کارایی و محدودیت‌های سیستم‌های هوش مصنوعی با مقامات دولتی می‌گیرد، برجسته شده است. اظهارات پایانی در نامه به نیاز فوری به نگرانی درباره توانایی هوش مصنوعی تولیدگرایانه برای سریع تقلید متن، تصاویر، صدا و ویدیوها اشاره کرد. گروه همچنین از توسعه‌دهندگان هوش مصنوعی خواسته است که آگاهی را در بین کارکنان خود درباره این خطرات افزایش دهند و از تعیین مقررات عدم افشای اطلاعات یا مقررات عدم توهین کننده که انتقاد را سرکوب می‌کنند، پرهیز کنند.

با وجود اینکه OpenAI و گوگل به طور عمومی نظریه کرده‌اند، اخیراً OpenAI گام‌هایی برای برخورد با گسترش “محتوای فریبنده” در اینترنت با تأسیس یک کمیته متمرکز بر امنیت و ایمنی اتخاذ کرده است، که به نشان‌های عملی برای توسعه مدل‌های هوش مصنوعی مسئولانه در آینده اشاره می‌کند.

چالش‌ها و اختلاف‌های کلیدی در حوزه تنظیمات و نظارت هوش مصنوعی
صنعت هوش مصنوعی با چندین چالش روبه‌رو می‌شود زمانی‌که به تنظیمات و نظارت می‌رسد:
– تکامل سریع فناوری بیش از چارچوب‌های تنظیمی را پیش می‌برد که برای قانونگذاران دشوار است که با آنها هماهنگ باشند.
– پیچیدگی سیستم‌های هوش مصنوعی می‌تواند باعث ناشفافی شود برای کسانی که خارج از صنعت هستند، که ایجاد تضمینات موثر راپیچیده می‌کند.
– تنشی بین تشویق نوآوری و اجرای تدابیری که ممکن است توسعه فناوری را مختل کنند، وجود دارد.
– سوءاستفاده از فناوری هوش مصنوعی در نظارت، سیستم‌های سلاح و ایجاد deepfakes مسائل اخلاقی و امنیتی را برمی‌انگیخت.

سوالات مهم با پاسخ‌ها
چه خطرات می‌تواند بر اثر نظارت کم هوش مصنوعی پیش آید؟
عدم وجود قوانین می‌تواند منجر به موضوعاتی نظیر گسترش اطلاعات غلط، افزایش نابرابری‌های اجتماعی، نفوذ حریم خصوصی و قابلیت استفاده از هوش مصنوعی به صورت خرابکارانه شود.

چطور می‌توان شفافیت داخل شرکت‌های هوش مصنوعی را بهبود بخشید؟
شرکت‌ها می‌توانند به اشتراک گذاری داده‌ها و بینش‌های خود در مورد سیستم‌های هوش مصنوعی خود را به‌صورت علنی تعهد کنند، به صورت فعال با نهادهای قانونی همکاری کنند و فرهنگ مسئولیت اخلاقی را در میان کارکنان ترویج دهند.

چه اقداماتی می‌توانند شرکت‌ها برای جلوگیری از سوءاستفاده از هوش مصنوعی انجام دهند؟
شرکت‌ها می‌توانند رهنمودهای اخلاقی و کمیته‌های نظارتی پایه‌ریزی کنند، در تحقیقات ایمنی هوش مصنوعی سرمایه‌گذاری کنند و سیاست‌ها برای مدیریت و محدود کردن انتشار محتوای تولیدشده توسط هوش مصنوعی که ممکن است خطر آفرین باشد، اجرا کنند.

مزایا و معایب فناوری هوش مصنوعی
مزایا:
– هوش مصنوعی می‌تواند به بالا بردن کارآمدی و کارایی در بسیاری از بخش‌ها کمک کند.
– سیستم‌های هوش مصنوعی ممکن است در پاسخ به موضوعات جهانی مانند تغییرات آب و هوا و بهداشت مفید باشند.
– اتوماسیون وظایف روزمره می‌تواند انسان‌ها را از مسائل پیچیده و خلاق فرأ گردد.

معایب:
– هوش مصنوعی ممکن است اگر مسئولیت پذیرانه توسعه نشود، تبعیض‌ها را تثبیت یا شدت بخشیده باشد.
– ممکن است در بخش‌هایی که تحت‌تأثیر اتوماسیون قرار دارند، از شغل‌ها جابجا شده باشد.
– سوءاستفاده از فناوری هوش مصنوعی می‌تواند تهدیدی برای حریم خصوصی، امنیت و انسجام اجتماعی باشد.

برای اطلاعات بیشتر درباره هوش مصنوعی و توسعه‌های مربوط به آن، لینک‌های عمومی به منابع قابل اعتماد زیر را مشاهده کنید:

OpenAI
DeepMind
Microsoft

این منابع می‌توانند برگردانی‌های در کار انجام شده توسط برخی از اصلی‌ترین بازیگران ذکر شده در مقاله را فراهم کنند.

The source of the article is from the blog toumai.es

Privacy policy
Contact