تکنولوژیهای پیشرو از جمله OpenAI، Microsoft، و گوگل از مدیران ارشد انتخاب شدهاند تا در یک کمیته جدید تأسیس شده فدرال به دولت ایالات متحده مشاوره دهند در مورد استفاده ایمن از هوش مصنوعی. این شورای مشاوره توسط وزارت امنیت داخلی ایالات متحده اعلام شد، به منظور مقابله با آسیبپذیریهای هوش مصنوعی که ممکن است منجر به تهدید امنیت ملی یا اقتصادی، بهداشت عمومی یا ایمنی شود.
شورای ۲۲ عضوه توسط رییسجمهور جو بایدن آغاز شد و تحت نظر الکساندرو مایورکاس، وزیر امنیت داخلی، است. مایورکاس بر جنبه تحولآفرین هوش مصنوعی تأکید داد، همچنین خطرات جدی آن را بهرهبرد. وظیفه این شورا را هدایت دادن به وزارت در قدم قرار دادن با تهدیدات در حال تحول است، بهویژه از جانب فعالان حالتی دشمن، و از طریق افزایش امنیت ملی.
اعلامیهی این سازمان به این موضوع اشاره میکند که تهدید بهرهبرداران ممکن است از هوش مصنوعی استفاده کنند تا حملههایشان را به سرعت و گستردهتر به مراسمات حیاتی مانند خطوط لوله، راهآهن، و سایر امکانات کلیدی تمرکز دهند. با تأکید بر اهمیت هوش مصنوعی، مدیرعامل مایکروسافت، ساتیا نادلا، بر ضرورت بحرانی استفاده ایمن و مسئولیتپذیری فناوری اشاره کرده است.
اعضای شورا شامل مدیران عامل شرکتهای تأثیرگذاری مانند ادوبی، الفابت، پیشرفتهترین دستگاههای میکرو، سیسکو، آیبیام، انویدیا، شرکت هواپیمایی دلتا، و نورتروپ گرومن است. این شورا همچنین شامل علمای دانشگاهی و سیاستمداران، از جمله فرمانده ایالت مریلند است. این مجموعه باید در اوایل ماه مه جلسه داشته باشد و توصیهها برای اتخاذ ایمن هوش مصنوعی در خدمات حیاتیی که روزانه امر به جهانیان میدهند، تهیه نماید.
سوالات و پاسخهای مهم:
چه هدفی از شورای مشاورهای فدرال در مورد هوش مصنوعی مطرح شده است؟
هدف شورای مشاورهای تأمین هدایت به دولت ایالات متحده در استفاده ایمن از هوش مصنوعی است، با تمرکز بر روی حل آسیبپذیریهایی که ممکن است منجر به تهدید امنیت ملی یا اقتصادی، بهداشت عمومی یا ایمنی شود.
چه کسی رهبری کمیته فدرال جدید در مورد هوش مصنوعی را بر عهده دارد؟
شورای مشاورهای تحت رهبری الکساندرو مایورکاس، وزیر امنیت داخلی، قرار دارد.
کی شورای مشاورهای هوش مصنوعی باید دوره برگزار شود؟
شورای مشاورهای هوش مصنوعی باید در اوایل ماه مه برگزار شود.
چالشها و اختلافات اساسی:
1. نگرانیهای امنیت و حریم خصوصی: سامانههای هوش مصنوعی میتوانند خطرات قابل توجهی را در صورت استفاده نادرست ایجاد کنند، بهویژه از جهت نقضات حریم خصوصی و امکانات افزایشی برای نظارت.
2. تبعیض الگوریتمی و مشکلات اخلاقی: اطمینان حاصل کردن از آنکه الگوریتمهای هوش مصنوعی از تبعیضات خالی بوده و از مسائل اخلاقی در توسعه و استقرار هوش مصنوعی استفاده شده است چالشی اساسی است.
3. تعادل نظارتی: ایجاد مقررات مناسب که توانایی رشد نوآوری را تضمین کرده و همزمان اطمینان حاصل کند که فناوریهای هوش مصنوعی به طور مسئولانه استفاده شوند وظیفه دشواری است.
4. رقابت جهانی: تعادل برقراری منافع امنیت ملی با طبیعت همکاری جهانی در تحقیقات هوش مصنوعی و رقابت پذیری شرکتهای تکنولوژی آمریکایی در صحنه بینالمللی.
مزایا:
– تخصص از تایتانهای فناوری میتواند به داشتن دیدگاههای ارزشمند در خصوص قابلیتها و ریسکهای پتانسیلی مرتبط با هوش مصنوعی منجر شود.
– همکاری عرضهاینوستری میتواند منجر به سیاست گذاری مربوطه و شاملتر شود.
– تدابیر پیشگیرانه میتواند به جلوگیری از سوءاستفاده از هوش مصنوعی و حفاظت از زیرساختهای حیاتی کمک نماید.
معایب:
– مخاطرات منافع وجود دارد، با توجه به علایق تجاری که این شرکتها در توسعه هوش مصنوعی دارند.
– خطر اینکه سیاستها تحت تأثیر قرارگیرند توسط رهبران صنعتی به هزینه موجودیتهای کوچکتر یا عموم مردم.
– دشواریها برای رسیدن به اجماع در میان نظرات متنوع.
خواندن بیشتر در دامین اصلی:
برای کسب اطلاعات بیشتر در مورد دولت ایالات متحده و اقدامات آن، به دامینهای اصلی زیر مراجعه نمایید:
– کاخ سفید
– وزارت امنیت داخلی
– مایکروسافت
– گوگل
– IBM
– انویدیا
لطفا توجه داشته باشید که این لینکها شما را فقط به صفحات اصلی هدایت میکنند، و توصیه میشود در دامینهای مذکور برای یافتن اطلاعات دقیقتر مرتبط با موضوع جستجو نمایید.