فناوری هوش مصنوعی: شمشیر دو لبه
یک گروه از کارکنان سابق و فعلی از موسسات معتبر هوش مصنوعی، شامل کسانی که همکاری دارند با OpenAI که هم اکنون شریک Microsoft است، و کارکنان DeepMind از Google، نگرانیهای خود را درباره خطرات پیشآمده از کاربردهای فناوری هوش مصنوعی بیان کردند. در یک نامهی عمومی که توسط ۱۳ نفر از کارکنان حمایت شد، آنها بر تأثیر سایهافکنی پاداشهای مالی بر نظارت مناسب تنبیهی تأکید کردند.
فراخوان برای تدابیر ایمنی تقویت شده
طرفداران این نگرش احتیاطی معتقدند که ساختارهای فعلی حاکمیتی داخل شرکتهای هوش مصنوعی به کار نمیآیند. آنها بر خطرات هوش مصنوعی نیازمند نظارت کمتری، که ممکن است اطلاعات غلط انتشار دهد، منازعات را تشدید دهد و فرونشانی اختلافات اجتماعی را گستردهتر کند، تأکید کردند. آنها این خطرات را به پیامدهای افراطی مانند انقراض انسانی مرتبط کردند.
مشاهدات درباره تأثیر هوش مصنوعی بر روایتهای جامعهای
پژوهشگران نمونههایی از تصاویر تولیدشده توسط OpenAI و Microsoft که برای اختلافات سیاسی و تضادات جاری پیامبرانه هستند را کشف کردند، با پخش آنها از طریق پلتفرمهای آنلاین. با وجود سیاستهای شرکت برای مدیریت چنین محتواهایی، انتشار آن در اینترنت بینظارت باقی مانده است.
تضمین شفافیت و آگاهی
در نامهی عمومی، “نظارت ناکافی” که این شرکتها را از به اشتراک گذاری اطلاعات قابل اعتماد درباره کارایی و محدودیتهای سیستمهای هوش مصنوعی با مقامات دولتی میگیرد، برجسته شده است. اظهارات پایانی در نامه به نیاز فوری به نگرانی درباره توانایی هوش مصنوعی تولیدگرایانه برای سریع تقلید متن، تصاویر، صدا و ویدیوها اشاره کرد. گروه همچنین از توسعهدهندگان هوش مصنوعی خواسته است که آگاهی را در بین کارکنان خود درباره این خطرات افزایش دهند و از تعیین مقررات عدم افشای اطلاعات یا مقررات عدم توهین کننده که انتقاد را سرکوب میکنند، پرهیز کنند.
با وجود اینکه OpenAI و گوگل به طور عمومی نظریه کردهاند، اخیراً OpenAI گامهایی برای برخورد با گسترش “محتوای فریبنده” در اینترنت با تأسیس یک کمیته متمرکز بر امنیت و ایمنی اتخاذ کرده است، که به نشانهای عملی برای توسعه مدلهای هوش مصنوعی مسئولانه در آینده اشاره میکند.
چالشها و اختلافهای کلیدی در حوزه تنظیمات و نظارت هوش مصنوعی
صنعت هوش مصنوعی با چندین چالش روبهرو میشود زمانیکه به تنظیمات و نظارت میرسد:
– تکامل سریع فناوری بیش از چارچوبهای تنظیمی را پیش میبرد که برای قانونگذاران دشوار است که با آنها هماهنگ باشند.
– پیچیدگی سیستمهای هوش مصنوعی میتواند باعث ناشفافی شود برای کسانی که خارج از صنعت هستند، که ایجاد تضمینات موثر راپیچیده میکند.
– تنشی بین تشویق نوآوری و اجرای تدابیری که ممکن است توسعه فناوری را مختل کنند، وجود دارد.
– سوءاستفاده از فناوری هوش مصنوعی در نظارت، سیستمهای سلاح و ایجاد deepfakes مسائل اخلاقی و امنیتی را برمیانگیخت.
سوالات مهم با پاسخها
– چه خطرات میتواند بر اثر نظارت کم هوش مصنوعی پیش آید؟
عدم وجود قوانین میتواند منجر به موضوعاتی نظیر گسترش اطلاعات غلط، افزایش نابرابریهای اجتماعی، نفوذ حریم خصوصی و قابلیت استفاده از هوش مصنوعی به صورت خرابکارانه شود.
– چطور میتوان شفافیت داخل شرکتهای هوش مصنوعی را بهبود بخشید؟
شرکتها میتوانند به اشتراک گذاری دادهها و بینشهای خود در مورد سیستمهای هوش مصنوعی خود را بهصورت علنی تعهد کنند، به صورت فعال با نهادهای قانونی همکاری کنند و فرهنگ مسئولیت اخلاقی را در میان کارکنان ترویج دهند.
– چه اقداماتی میتوانند شرکتها برای جلوگیری از سوءاستفاده از هوش مصنوعی انجام دهند؟
شرکتها میتوانند رهنمودهای اخلاقی و کمیتههای نظارتی پایهریزی کنند، در تحقیقات ایمنی هوش مصنوعی سرمایهگذاری کنند و سیاستها برای مدیریت و محدود کردن انتشار محتوای تولیدشده توسط هوش مصنوعی که ممکن است خطر آفرین باشد، اجرا کنند.
مزایا و معایب فناوری هوش مصنوعی
– مزایا:
– هوش مصنوعی میتواند به بالا بردن کارآمدی و کارایی در بسیاری از بخشها کمک کند.
– سیستمهای هوش مصنوعی ممکن است در پاسخ به موضوعات جهانی مانند تغییرات آب و هوا و بهداشت مفید باشند.
– اتوماسیون وظایف روزمره میتواند انسانها را از مسائل پیچیده و خلاق فرأ گردد.
– معایب:
– هوش مصنوعی ممکن است اگر مسئولیت پذیرانه توسعه نشود، تبعیضها را تثبیت یا شدت بخشیده باشد.
– ممکن است در بخشهایی که تحتتأثیر اتوماسیون قرار دارند، از شغلها جابجا شده باشد.
– سوءاستفاده از فناوری هوش مصنوعی میتواند تهدیدی برای حریم خصوصی، امنیت و انسجام اجتماعی باشد.
برای اطلاعات بیشتر درباره هوش مصنوعی و توسعههای مربوط به آن، لینکهای عمومی به منابع قابل اعتماد زیر را مشاهده کنید:
– OpenAI
– DeepMind
– Microsoft
این منابع میتوانند برگردانیهای در کار انجام شده توسط برخی از اصلیترین بازیگران ذکر شده در مقاله را فراهم کنند.
The source of the article is from the blog toumai.es