در یک گردهمایی اخیر از بزرگان فناوری در طول شام خبرنگاران با شرکت کننده شرکت کسب و کاری Box، یک گفتوگو صادق درباره تنظیم هوش مصنوعی به وجود آمد. مدیرعامل شرکت Box، آرون لوی، اظهاراتش راجع به رهیافت تنظیمات سنگینی که در اروپا دیده میشود، در حالی که نوآوری در یک محیط کمتر محدود پیشرفت میکند، ابراز کرد. این احساس از طریق دیدگاههای مختلف جامعه هوش مصنوعی در ولینشین سیلیکون ولی نیز سنجیده میشود که توافق درباره نحوه تنظیم این حوزه دشوار است.
نگرش احتیاطی صنعت به تنظیمات نیز در جلسه روز تکنولوژینت، که شامل شرکت کنندگانی همچون کنت واکر از گوگل بود، واضح بود. آنها ترجیح دادن حفظ مقام پیشروی ایالات متحده در هوش مصنوعی نسبت به چارچوبهای قانونی سختگیرانه را داشتند.این گفتوگو تعقیبگر چالشهای بالکن زیر پیچیدگی تعادل بین نوآوری و نیاز به مقابله با خطرات پتانسیلی هوش مصنوعی مانند دیپفیک و تعصبات در مدلهای زبان بزرگ بود.
در پی پیگیری پیوسته از لوایح مربوط به هوش مصنوعی در کنگره، نماینده آدام شیف ، قانون افشای حق تألیف برای هوش مصنوعی تولیدی را معرفی کرد به هدف ایجاد شفافیت در استفاده از دادههای آموزشی؛ این اقدام نشان از تحولات در صدد لگیسلاتوری بازگردان تکنولوژی هوش مصنوعی دارد.
رهبران فناوری مانند لوی معتقدند که تنظیمات بیعت صورت یک اصرار ممکن است به نفع شرکتها و یا مصرفکنندگان نبوده باشد. به جای آن، مجلس تشویق به بررسی دقیق و تدبرآمیز دارد و پیروی از یک روش خردمند برای ساخت لوایح مربوط به هوش مصنوعی معرفی شده است. این گزارش دیدگاههایی را پیرامون بحث پیچیده درباره آینده نظارت بر هوش مصنوعی و خواست صنعت درباره تنظیمات اندازهگیریشده ارائه میدهد.
به طور خلاصه، هنگامی که فناوری هوش مصنوعی اقتصاد مختلف را در حال انقلاب قرار میدهد، رهبران صنعت تماس به اقدام تنظیمی دقیق و بصیرتآمیز دارند که نوآوری را ترویج و در عین حال از سوی سوء استفاده محافظت کنند. بحث در روز تکنولوژینت نشان میدهد که چگونگی یک تعادل بین توسعه فناوری و اطمینان از استفاده مسئولانه آن اهمیت دارد.
در صنعت هوش مصنوعی به رشد چشمگیر و حسابشده تمایلی دارد، که پیشبینیهای بازار به اندازه میلیاردها دلار برای بزودی در میان دهه 2020 به دست میآید.این نشان دهنده یک افزایش خیره کننده نسبت به چند سال گذشته است، چرا که هوش مصنوعی به صورت گسترده فرودر رشته بهداشت، مالی، خرده فروشی و صنایع دیگر وارد میشود.
شرکتها از هوش مصنوعی برای بدست آوردن الگوها از دادههای بزرگ، فرآیندها را خودکارسازی میکنند و محصولات و خدمات جدیدی ایجاد میکنند. اما این رشد سریع بدون چالش نیست. مسائلی همچون اعتبارات اخلاقی، حفظ حریم شخصی داده، آسیبپذیریهای امنیتی و پتانسیل از دست دادن شغل به حرفهها، گفتوگوها درباره نیاز به یک چارچوب قانونی برای مدیریت این فناوریهای زایددرگرفته.
یکی از ابر مشکلات در صنعت هوش مصنوعی توسعه و استفاده از تکنولوژی دیپفیک است که پتانسیل منتشر سازی به مقیاس بینظیر دارد. همچنین، مسائل رو به رشدی درباره تعصبات در مدلهای زبان بزرگ که ممکن است استریوتیپ را ادامه دهند یا نتایج ناعادلانه تولید کنند, وجود دارد. از زمانی که سیستمهای هوش مصنوعی بیشتر خودمختار و بخش اساسی فرایندهای تصمیمگیری میشوند, فریاد برای رسیدگی به خطرات پتانسیلی آنها به صدای بلندتری تبدیل شده است.
قانون افشای حق تألیف هوش مصنوعی تولیدی که توسط نماینده آدام شیف پیشنهاد شده است یک مثال از تلاشهای قانونگذاری برای افزایش شفافیت در همکاری باهوش است. آن تمرکز بر استفاده از دادههای آموزشی است که بنیادی برای توسعه مدلهای دقیق و منصفانه هوش مصنوعی است. این عمل، تلاشی برای تعریف متن قانونی است که در آن هوش مصنوعی عملکرد میکند، بخصوص در مورد حقوق مالکیت فکری و استفاده از داده شخصی.
با وجود پر از حجم فرایند قانونگذاریهای هوش مصنوعی، رهبران فناوری دفاع میکنند که تنظیمات باید با رهجام دقیق، بازدودنی، بهوسیله ورودی صنعت و یک درک عمیق از قابلیتها و محدودیتهای فناوری ساخته شود.
چندین پلتفرم و سازمان برای پرداختن به تاثیرات اجتماعی هوش مصنوعی تأسیس شدهاند و ممارسات مسئولانه در صنعت را تشویق میکنند. این اقدامات شامل ابتکاراتی همچون شراکت در هوش مصنوعی میشود که شرکتکنندگانی از پس زمینههای مختلف را به داده برای مطالعه و تدوین بهترین روشها در تکنولوژیهای هوش مصنوعی گرد هم میآورد.
در نتیجه، تماس صنعت به تنظیمات دقیق نشان از درکی از توانایی تحولآور هوش مصنوعی و در عین حال از پذیرش خطرات و چالشها دارد. همچنین، با پختهشدن و گسترش تکنولوژی، نیاز به تنظیمات وضعیتی واضح، موثر و پیشبینیشده برای اطمینان از این که مزایای هوش مصنوعی بدون عوارض آسیبزا محقق شود، بسیج میشود. امضای تعادل مناسب در حوزه نظارت بر هوش مصنوعی بسیار مهم است برای پیشبرد آینده و خیر جامعه.
The source of the article is from the blog scimag.news