هوش مصنوعی (AI) یک فناوری قدرتمند و گسترده است که همچنین فرصتها و خطرات قابل توجهی را به ارمغان میآورد. هرچه جامعه بیشتر به سیستمهای AI برای تصمیمگیری اعتماد میکند، به مرور زمان اهمیت تنظیم و کنترل استفاده از آنها بیشتر میشود. در این مقاله چالشهای مرتبط با هوش مصنوعی، از جمله اطلاعات غلط، تولیدات عمیق و تبعیض را بررسی میکنیم و نیاز به یک رویکرد چندجانبه برای حل این مسائل را بررسی میکنیم.
هوش مصنوعی توسط الگوریتمهای پیچیده قامت میگیرد که معادلات ریاضی با تعداد بیشماری پارامتر هستند. این الگوریتمها میتوانند با هر اجرا نتایج مختلفی تولید کنند، که باعث ناپیشبینی شدن رفتار آنها میشود. با این حال، آنها همچنین قابلیت تقویت تبعیض و تبعیض را دارند. به عنوان مثال، یک الگوریتم آمازون که بر اساس دادههای تاریخی درخواستهای شغلی را تجزیه و تحلیل کرد، منجر به ترجیح دادن کاندیدان مرد گردید که تبعیض بر اساس جنسیت را در فرآیند استخدام تثبیت شد.
برای مقابله با این مسائل، دولت استرالیا انتخاب کرده است دستورالعملهای گستردهای برای استفاده از هوش مصنوعی در کشور ایجاد کند. افراد متخصص بر اهمیت یک چارچوب تنظیمی جامع برای استفاده مسولانه از AI دلالت دارند که فناوری، آموزش، جامعهپذیری و قانون را در بر میگیرد. ایجاد تعادل بین تشویق نوآوری و کاهش خطرات ضروری است.
همسو با رویکرد اتحادیه اروپا، دولت استرالیا قصد دارد یک راهبرد مبتنی بر خطر برای تنظیم هوش مصنوعی اتخاذ کند. این به معنای پیادهسازی اقدامات اطمینان از کیفیت برای سیستمهای AI با خطر بالا، مانند آنهایی که در وسایل نقلیه خودروی خودروهای خودروی خودروپیلت یا دستگاههای پزشکی استفاده میشوند است. از ضرورت اجرای مقررات موجود و همچنین توسعه آنها برای پوشش دادن خطرات ظاهر میشود، همانطور که توسط جوان توبی والش، استاد AI در موسسه AI UNSW، بیان شده است.
گزارش توجه همچنین به بخش فناوری اطلاعات خود است. استدلال بحرانی در تیمهای توسعه نرمافزار برای اطمینان از اینکه مدلهای AI بر روی مجموعه دادههای مسولانه و بدون تعصب تربیت شدهاند، ضروری است. شرکتهایی مانند Salesforce مکانیزمهای حاکمیت داخلی را معرفی کردهاند، مانند “دفتر استفاده از اخلاقی”، برای پردازش مسائل مربوط به تعصب AI.
با این حال، چالشها همچنان باقی مانده است. سیستمهای AI به طور قدیمی بر روی دادهها تکیه زیادی میکنند و کیفیت و کاملبودن این مجموعه دادهها میتواند بر تولیدات آنها تأثیر زیادی بگذارد. الگوریتمهای AI معمولاً از دادههای مختلفی استفاده میکنند، حتی اگر محافظت شده یا برای اهداف مختلف مقصود باشد. این نشان میدهد نیاز به رویکردهای جایگزین است، مانند ایجاد دادههای سنتزی، برای کاهش خطرات تعصب و اطمینان از نمایندگی است.
همانطور که حوزه هوش مصنوعی به طور مداوم در حال تحول است، مقررات باید یک تعادل دقیق بین تسهیل نوآوری و حفاظت در برابر پیامدهای ناخواسته را پیدا کنند. یک رویکرد محتاطانه و محافظتی اساسی است. همانطور که پتار بیلوویچ به درستی اظهار کرده است، “ما به احتیاط نیاز داریم و باید محافظتی باشیم.”
سوالات و پاسخها
- هوش مصنوعی چیست؟
- این به توسعه سیستمهای کامپیوتری ارجحیت میدهد که توانایی انجام وظایفی که معمولاً نیاز به هوش انسانی دارند، مانند درک بصری، تشخیص گفتار، حل مسائل و تصمیمگیری را دارند.
- الگوریتمها چیستند؟
- این معادلات ریاضی هستند که در سیستمهای AI برای پردازش داده و انجام پیشبینیها یا تصمیمگیریها استفاده میشوند. آنها از چندین پارامتر تشکیل شده و میتوانند با هر اجرا نتایج مختلفی تولید کنند.
- چه خطراتی با هوش مصنوعی وجود دارد؟
- AI خطراتی نظیر اطلاعات غلط، تولیدات عمیق و تعصب به خود دارد. اگر الگوریتمها بر دادههای دارای تعصب آموزش ببینند، ممکن است به طور ناخواسته تبعیض بر اساس نژاد، جنسیت یا ویژگیهای دیگر حفظ کنند.
- چگونه میتوان هوش مصنوعی را تنظیم کرد؟
- تنظیم هوش مصنوعی نیاز به یک رویکرد چندجانبه دارد که شامل چارچوبهای تنظیمی، فناوری، آموزش و جامعهپذیری است. دولتها میتوانند دستورالعملها و مقرراتی را تعیین کنند تا اطمینان حاصل کنند که هوش مصنوعی مسولانه استفاده میشود و خطرات آن کاهش مییابد.
- چیست نگرش مبتنی بر خطر به تنظیم هوش مصنوعی؟
- یک نگرش مبتنی بر خطر شامل پیادهسازی اقدامات برای ارزیابی و مدیریت خطرات مرتبط با سیستمهای AI است. این شامل اطمینان از کیفیت برای برنامههای AI با خطر بالا و آدرس دهی به خطرات ظاهر شده مانند اطلاعات غلط و تولیدات عمیق است.
منابع:
- دانشکده حقوق دانشگاه ملبورن: unimelb.edu.au
- موسسه AI دانشگاه جنوب ولز: unsw.edu.au
- دانشکده کسب و کار دانشگاه سیدنی: sydney.edu.au
- Atturra: atturra.com
- Salesforce: salesforce.com
The source of the article is from the blog maestropasta.cz