دولت ایالات متحده شورای مشاوره با شرکت‌های فناوری بزرگ برای حفاظت از استفاده از هوش مصنوعی تشکیل می‌دهد.

تکنولوژی‌های پیشرو از جمله OpenAI، Microsoft، و گوگل از مدیران ارشد انتخاب شده‌اند تا در یک کمیته جدید تأسیس شده فدرال به دولت ایالات متحده مشاوره دهند در مورد استفاده ایمن از هوش مصنوعی. این شورای مشاوره توسط وزارت امنیت داخلی ایالات متحده اعلام شد، به منظور مقابله با آسیب‌پذیری‌های هوش مصنوعی که ممکن است منجر به تهدید امنیت ملی یا اقتصادی، بهداشت عمومی یا ایمنی شود.

شورای ۲۲ عضوه توسط رییس‌جمهور جو بایدن آغاز شد و تحت نظر الکساندرو مایورکاس، وزیر امنیت داخلی، است. مایورکاس بر جنبه تحول‌آفرین هوش مصنوعی تأکید داد، همچنین خطرات جدی آن را بهره‌برد. وظیفه این شورا را هدایت دادن به وزارت در قدم قرار دادن با تهدیدات در حال تحول است، به‌ویژه از جانب فعالان حالتی دشمن، و از طریق افزایش امنیت ملی.

اعلامیه‌ی این سازمان به این موضوع اشاره می‌کند که تهدید بهره‌برداران ممکن است از هوش مصنوعی استفاده کنند تا حمله‌هایشان را به سرعت و گسترده‌تر به مراسمات حیاتی مانند خطوط لوله، راه‌آهن، و سایر امکانات کلیدی تمرکز دهند. با تأکید بر اهمیت هوش مصنوعی، مدیرعامل مایکروسافت، ساتیا نادلا، بر ضرورت بحرانی استفاده ایمن و مسئولیت‌پذیری فناوری اشاره کرده است.

اعضای شورا شامل مدیران عامل شرکت‌های تأثیرگذاری مانند ادوبی، الفابت، پیشرفته‌ترین دستگاه‌های میکرو، سیسکو، آی‌بی‌ام، انویدیا، شرکت هواپیمایی دلتا، و نورتروپ گرومن است. این شورا همچنین شامل علمای دانشگاهی و سیاستمداران، از جمله فرمانده ایالت مریلند است. این مجموعه باید در اوایل ماه مه جلسه داشته باشد و توصیه‌ها برای اتخاذ ایمن هوش مصنوعی در خدمات حیاتیی که روزانه امر به جهانیان میدهند، تهیه نماید.

سوالات و پاسخ‌های مهم:

چه هدفی از شورای مشاوره‌ای فدرال در مورد هوش مصنوعی مطرح شده است؟
هدف شورای مشاوره‌ای تأمین هدایت به دولت ایالات متحده در استفاده ایمن از هوش مصنوعی است، با تمرکز بر روی حل آسیب‌پذیری‌هایی که ممکن است منجر به تهدید امنیت ملی یا اقتصادی، بهداشت عمومی یا ایمنی شود.

چه کسی رهبری کمیته فدرال جدید در مورد هوش مصنوعی را بر عهده دارد؟
شورای مشاوره‌ای تحت رهبری الکساندرو مایورکاس، وزیر امنیت داخلی، قرار دارد.

کی شورای مشاوره‌ای هوش مصنوعی باید دوره برگزار شود؟
شورای مشاوره‌ای هوش مصنوعی باید در اوایل ماه مه برگزار شود.

چالش‌ها و اختلافات اساسی:

1. نگرانی‌های امنیت و حریم خصوصی: سامانه‌های هوش مصنوعی می‌توانند خطرات قابل توجهی را در صورت استفاده نادرست ایجاد کنند، به‌ویژه از جهت نقضات حریم خصوصی و امکانات افزایشی برای نظارت.
2. تبعیض الگوریتمی و مشکلات اخلاقی: اطمینان حاصل کردن از آنکه الگوریتم‌های هوش مصنوعی از تبعیضات خالی بوده و از مسائل اخلاقی در توسعه و استقرار هوش مصنوعی استفاده شده است چالشی اساسی است.
3. تعادل نظارتی: ایجاد مقررات مناسب که توانایی رشد نوآوری را تضمین کرده و هم‌زمان اطمینان حاصل کند که فناوری‌های هوش مصنوعی به طور مسئولانه استفاده شوند وظیفه دشواری است.
4. رقابت جهانی: تعادل برقراری منافع امنیت ملی با طبیعت همکاری جهانی در تحقیقات هوش مصنوعی و رقابت پذیری شرکت‌های تکنولوژی آمریکایی در صحنه بین‌المللی.

مزایا:

– تخصص از تایتان‌های فناوری می‌تواند به داشتن دیدگاه‌های ارزشمند در خصوص قابلیت‌ها و ریسک‌های پتانسیلی مرتبط با هوش مصنوعی منجر شود.
– همکاری عرضه‌اینوستری می‌تواند منجر به سیاست گذاری مربوطه و شامل‌تر شود.
– تدابیر پیشگیرانه می‌تواند به جلوگیری از سوءاستفاده از هوش مصنوعی و حفاظت از زیرساخت‌های حیاتی کمک نماید.

معایب:

– مخاطرات منافع وجود دارد، با توجه به علایق تجاری که این شرکت‌ها در توسعه هوش مصنوعی دارند.
– خطر اینکه سیاست‌ها تحت تأثیر قرارگیرند توسط رهبران صنعتی به هزینه موجودیت‌های کوچکتر یا عموم مردم.
– دشواری‌ها برای رسیدن به اجماع در میان نظرات متنوع.

خواندن بیشتر در دامین اصلی:
برای کسب اطلاعات بیشتر در مورد دولت ایالات متحده و اقدامات آن، به دامین‌های اصلی زیر مراجعه نمایید:
کاخ سفید
وزارت امنیت داخلی
مایکروسافت
گوگل
IBM
انویدیا

لطفا توجه داشته باشید که این لینک‌ها شما را فقط به صفحات اصلی هدایت می‌کنند، و توصیه می‌شود در دامین‌های مذکور برای یافتن اطلاعات دقیق‌تر مرتبط با موضوع جستجو نمایید.

Privacy policy
Contact