یک شورایی برای استفاده اخلاقی از هوش مصنوعی در ایالات متحده شکل میگیرد
مدیرعاملان برجسته از برترین شرکتهای هوش مصنوعی آمریکا مانند OpenAI، Nvidia، گوگل و مایکروسافت به یک شورای کلیدی معطوف به بررسی کاربرد ایمن فناوری هوش مصنوعی پیوستهاند. این تجمع مهم از رهبران صنعت فناوری، توسط دولت آمریکا تاسیس شده است و مبنای “شورای ایمنی و امنیت هوش مصنوعی” را شکل میدهد.
اخیرا، وزارت امنیت داخلی آمریکا اعلام کرد که یک کمیته مشاور 22 نفره را برپا کرده است تا ابتدای شکلگیری “شورای ایمنی و امنیت هوش مصنوعی” را به عهده بگیرد. این اقدام، نه تنها کارآفرینان فناوری بلکه افراد تأثیرگذاری از حوزههای علمی، جامعه مدنی و صنعتی مانند شرکت هواپیمایی دلتا و مدیر موسسه تحقیقات هوش مصنوعی دانشگاه استنفورد را ترکیب میکند. با این حال، طرفداران برجستهایا از هوش مصنوعی مانند ایلون ماسک از شرکت تسلا و مارک زاکربرگ از متا بهعنوان اعضای این شورا نامآور نشدهاند.
زادگاه این شورا به یک فرمان اجرایی در مهرماه سال گذشته توسط رئیسجمهور جو بایدن برمیگردد، که طراحی و پیادهسازی سیستمهای هوش مصنوعی که ممکن است تهدیداتی برای امنیت ملی یا سلامت عمومی ایجاد کنند در حال حاضر تحت نظر دقیقتری قرار گرفتهاند و شرکتها بایستی فعالیتهای خود در زمینه توسعه این سیستمها را به دولت آمریکا گزارش دهند.
ولایت داخلی آلخاندرو مایورکاس، وزیر امنیت داخلی، پتانسیل بینظیر هوش مصنوعی برای نوآوری را تحسین کرده و ریسمان گرفتن از تخصص شورایی برای محافظت از آمریکا در مقابل خطرات مربوط به هوش مصنوعی و همچنین بازگشایی توانش هوش مصنوعی برای رفع موانع رفع موانع بزرگباری را اعلام کرده است.
توسعه هوش مصنوعی با اطمینان از ایمنی و اخلاق
تأسیس “شورای ایمنی و امنیت هوش مصنوعی” در آمریکا یک گام حیاتی برای توازن دادن پیشرفت سریع فناوریهای هوش مصنوعی با نیاز به ایمنی، شفافیت و ملاحظات اخلاقی است. یکپارچگی هوش مصنوعی در بخشهای مختلف چالشهای پیچیده ایجاد میکند و سوالات مهمی را برمیانگیزد. در اینجا برخی از نکات کلیدی که در مقاله ذکر نشدهاند و به منظور افزایش زمینهای به بحث اضافه کردند:
1. تدابیر نظارتی: ایالات متحده در حال بررسی چهارچوبهای قانونی مختلف برای اداره هوش مصنوعی است. نیاز به نظارت بر بخشهای شخصیتخرد، تحجیم و امنیت است. تعیین سطح مناسب نظارت بدون تضییع نوآوری چالش بزرگی است که روی گزیندهندگان سیاستگذار و صنعت هوش مصنوعی قرار دارد.
2. همکاریهای بینالمللی: تأثیر هوش مصنوعی جهانی است، که نیازمند همکاری بینالمللی برای مدیریت خطرات و برقراری استانداردها است. رهبران آمریکایی در هوش مصنوعی با همکاران خود در خارج از کشورها تماس برقرار میکنند تا استانداردهای جهانی برای توسعه و استفاده از هوش مصنوعی را ایجاد کنند.
سوالات کلیدی و پاسخهای آنها:
– س: چرا بحث در مورد کاربرد ایمن فناوری هوش مصنوعی ضروری است؟
– پ: کاربرد ایمن امری کلیدی برای جلوگیری از صدمات غیرمنقول، مانند نقض اصول حریم خصوصی، نتایج تبعیضی یا سوءاستفاده از فناوری هوش مصنوعی به شکلهای شرورانه است.
– س: چند نمونه از کاربردهای پرخطر هوش مصنوعی چیستند؟
– پ: کاربردهای پرخطر شامل سلاحهای خودکار، فناوری دیپفیک، سیستمهای نظارت جمعی و تصمیمگیریهای مبتنی بر هوش مصنوعی در زمینههای حیاتی مانند بهداشت، امور مالی و قضایی است.
چالشها و اختلافات کلیدی:
– رفع نقص و تبعیض در الگوریتمهای هوش مصنوعی
– اطلاعرسانی و شفافیت هوش مصنوعی
– توازن بین نوآوری و تطابق با مقررات
– محافظت در برابر خطرات سایبری و دستکاری هوش مصنوعی
– تعیین مسئولیت در اعمال یا تصمیمات مبتنی بر هوش مصنوعی
مزایا و معایب توسعه هوش مصنوعی:
مزایا:
– افزایش بهرهوری و نوآوری اقتصادی
– ارتقاء کارآمدی و توانمندیها در بخشهای مختلف
– امکان بهبود دقت و بیطرفی در تصمیمگیری
معایب:
– اخلال در نیروی کار به دلیل اتوماسیون
– خطرات نقض حریم خصوصی و سوءاستفاده از داده
– ایجاد تهدیدهای سایبری پیچیده
– دشواری در تضمین استفاده اخلاقی و عادلانه از سیستمهای هوش مصنوعی
پیوند مرتبط پیشنهادی برای افزایش درک از زمینه گسترده توسعه هوش مصنوعی در آمریکا و سراسر دنیا:
– کاخ سفید برای بیانیهها و اسناد رسمی در مورد سیاستهای هوش مصنوعی
– وزارت امنیت داخلی برای طرحها در حوزه ایمنی و امنیت هوش مصنوعی
– موسسه استانداردهای ملی و تکنولوژی برای استانداردها و رهنمودهای هوش مصنوعی
– انجمن ماشینافشانی برای رهنمودهای اخلاقی و تحقیقات در زمینه محاسبات و فناوری هوش مصنوعی.
The source of the article is from the blog aovotice.cz