هوش مصنوعی در سالهای اخیر مورد نگرانی قرار گرفته است، که بسیاری از مردم نگرانی را در مورد قدرت آن برای جایگزینی شغلها، گسترش اطلاعات نادرست و حتی تهدید به وجود بشر عنوان کردهاند. با این همه نگرانیها، گزارش سال 2023 در مورد KPMG نشان داد که تنها دو نفر از هر پنج نفر معتقدند مقررات فعلی کافی است تا استفاده امن از هوش مصنوعی را تضمین کند. با توجه به این نگرانیها، نقش نظارت اخلاقی در توسعه هوش مصنوعی اهمیت بیشتری پیدا میکند.
یک فرد پیشرو در این تلاش، پائولا گولدمن است، مسئول اخلاقی و استفاده روشنفکرانه از شرکت Salesforce. کار او شامل تضمین این است که فناوری تولید شده توسط این شرکت برای همه افراد مفید باشد. این شامل همکاری نزدیک با مهندسها و مدیران محصول برای شناسایی خطرات محتمل و توسعه تدابیر ایمنی است. همچنین شامل همکاری با گروه سیاست برای تعیین رهنمودهای استفاده قابل قبول از هوش مصنوعی و ترویج دسترسی و طراحی شامل محصولات است.
وقتی در مورد استفاده اخلاقی و انسانی پرسیده شد، گولدمن بر اهمیت تطبیق محصولات هوش مصنوعی با یک مجموعه ارزشها تأکید میکند. به عنوان مثال، در مورد هوش مصنوعی تولیدی، دقت یک اصل برتر است. Salesforce برای بهبود قابلیت ارتباط و دقت مدلهای هوش مصنوعی تولید شده به وسیله گراندینگ پویا، که آنها را به استفاده از اطلاعات صحیح و بهروز تا جلوگیری از پاسخهای نادرست یا “هالوسیناسیون هوش مصنوعی” هدایت میکند، برای بهبود رابطه و دقت آنها در حال کار است.
بحث اطراف اخلاق هوش مصنوعی به شدت رونق گرفته است، با مشارکت رهبران فناوری مانند سم آلتمن، الون ماسک و مارک زاکربرگ در جلسات محرمانه با قوه قضاییه جهت بحث در مورد تنظیمات هوش مصنوعی. در حالی که آگاهی در مورد خطرات مرتبط با هوش مصنوعی در حال رشد است، گولدمن نیاز به صداهای بیشتر و پذیرش عمومی از مسئله اخلاقی در بحثهای سیاستی را مورد تأیید میکند.
شرکتهایی مانند Salesforce، OpenAI، گوگل و آیبیام به طور داوطلبانه به استانداردهای ایمنی هوش مصنوعی متعهد شدهاند. گولدمن تلاشهای همکاری داخل صنعت را مورد تأکید قرار میدهد، مانند برگزاری کارگاهها و عضویت در شورای راهبردی هوش مصنوعی اخلاقی. با این حال، او نیز تفاوتهای بین فضای نرمافزاری سازمانی و مصرفکننده را تحت تأثیر قرار میدهد و بر اهمیت تعیین استانداردها و رهنمودهای ویژه هر زمینه تأکید میکند.
کار در حوزه هوش مصنوعی همزمان هیجانانگیز و چالشبرانگیز است. رهبران در این حوزه با هم شکل میدهند و تلاش آنها برای توسعه هوش مصنوعی قابل اعتماد و مسئولانه در آینده اهمیت دارد. با این حال، سرعت سریع پیشرفتها به معنای ضرورت یادگیری و سازگاری مداوم است.
در نتیجه، استفاده اخلاقی از هوش مصنوعی یک مسئله حیاتی برای یکپارچهسازی موفق آن در جامعه است. از طریق تلاش افرادی مانند پائولا گولدمن و تلاشهای همکاران، توسعه هوش مصنوعی مسئولانه میتواند راه را برای آینده بهتری باز کند.
بخش سوالات متداول:
س: برخی از نگرانیها در مورد هوش مصنوعی چیستند؟
ج: نگرانیها شامل تهدید جابجایی شغل، گسترش اطلاعات نادرست و تهدید به وجود بشر هستند.
س: آیا مردم معتقدند مقررات فعلی کافی است تا استفاده امن از هوش مصنوعی را تضمین کند؟
ج: طبق گزارش سال 2023 KPMG، تنها دو نفر از هر پنج نفر معتقدند مقررات فعلی کافی است.
س: پائولا گولدمن کیست و چه نقشی دارد؟
ج: پائولا گولدمن مسئول اخلاقی و استفاده روشنفکرانه از شرکت Salesforce است. نقش وی شامل تضمین این است که فناوری تولید شده توسط این شرکت مفید و همکاری نزدیک با مهندسها و مدیران محصول برای شناسایی خطرات محتمل و توسعه تدابیر ایمنی است.
س: چه اهمیتی در اطمینان حاصل کردن محصولات هوش مصنوعی با یک مجموعه ارزشها وجود دارد؟
ج: اطمینان حاصل کردن از این که محصولات هوش مصنوعی با یک مجموعه ارزشها همخوانی داشته باشند، به تضمین استفاده اخلاقی و انسانی کمک میکند. به عنوان مثال، دقت یک اصل برتر برای هوش مصنوعی تولیدی است.
س: چه شرکتهایی به استانداردهای ایمنی هوش مصنوعی متعهد شدهاند؟
ج: Salesforce، OpenAI، گوگل و آیبیام از جمله شرکتهایی هستند که به طور داوطلبانه به استانداردهای ایمنی هوش مصنوعی متعهد شدهاند.
The source of the article is from the blog kunsthuisoaleer.nl