وزرای سازمان همکاری و توسعه اقتصادی جهانی اصول جدید هوش مصنوعی را با جلسه شورایی به پایان می‌رسانند

مقامات در سازمان همکاری و توسعه اقتصادی (OECD) به انجام جلسه شورای اخیر خود با تعهد قاطع به به‌روزرسانی رهنمودهای سیاستی، که به عنوان “اصول هوش مصنوعی” شناخته می‌شوند، پایان دادند. تصمیم به دلیل افزایش تکنولوژی‌های هوش مصنوعی آفرینشی مانند “ChatGPT” و ضرورت برخورد با گسترش اطلاعات غلط و گمراه‌کننده از طریق این پلتفرم‌ها اتخاذ گردید.

اصول به‌روزرسانی شده هوش مصنوعی، که نخستین بار توسط OECD در سال 2019 منتشر شد و توسط 38 کشور عضو همچنین اوکراین، سنگاپور و اتحادیه اروپا رعایت می‌شود، بر روی راهبردهای کاهش اجبار اقتصادی از طریق محدودیت‌های تجارت تمرکز دارند. این تغییرات یک تلاش بین‌المللی برای مقابله با تهدیدات اقتصادی و گسترش عدم دقت نشان می‌دهد، که با ارتباط اجتماعی رو به افزایشی که به واسطه طبیعت فراگیر اطلاعات نادرستی که آنلاین منتشر می‌شود به وجود آمده، هم‌پیوند است.

آشکار است که توسعه‌ی هوش مصنوعی آفرینشی ریسک های یتیم اجتماعی را به علت تقویت نشده انتشار محتوای نادرست در چند سال اخیر کاهش داده است. در جلسه اخیر شورای OECD که شاخص 60مین سال پیوستن ژاپن به سازمان را نشان می‌دهد، با وزیر امور خارجه ژاپن یوکو کامیکاوا به ریاست برگزار شد. در یک نشست خبری پس از ختم این جلسه، کامیکاوا به بحث در مورد ابتکار ژاپن، “فرآیند هوش مصنوعی هیروشیما” پرداخت وی منطقه جهانی جهت ایجاد محیطی برای استفاده از هوش مصنوعی به طریق ایمن و قابل اعتماد را تاکید نمود. این فرآیند اهدافی را دنبال میکند که برای پشتیبانی از کاربرد اعتماد بخش تکنولوژی هوش مصنوعی در سطح جهانی ایجاد کند.

سوالات اساسی و پاسخ‌ها:

اصول هوش مصنوعی OECD چیستند؟
اصول هوش مصنوعی OECD، رهنمودهایی است که نخستین بار توسط سازمان OECD در سال 2019 برای ترویج ماموریت مسولانه هوش مصنوعی اعتمادبخش ایجاد شد. آنها توصیه می‌کنند که سیستم‌های هوش مصنوعی به گونهای طراحی شوند که قانون، حقوق بشر، ارزشهای دموکراتیک و تنوع را احترام بگذارند و شامل یک سری اصول سیاستی برای ترویج هوش مصنوعی که نوآورانه و قابل اعتماد بوده و ارزشهای حقوق بشری و دموکراتیک را رعایت می‌کند.

چرا اصول هوش مصنوعی به‌روزرسانی شدند؟
اصول هوش مصنوعی برای پرداختن به چالش‌های جدیدی که به واسطه توسعه سریع تکنولوژی‌های هوش مصنوعی آفرینشی پدید آمده، که ریسک انتشار اطلاعات غلط و گمراه‌کننده را افزایش داده اند، به‌روزرسانی شدند. به‌روزرسانی به منظور مقابله با تهدیدات اقتصادی و گسترش عدم دقتی‌ها که ممکن است منجر به اختلالات اجتماعی شوند، صورت گرفت.

فرآیند هوش مصنوعی هیروشیما چیست؟
پیشنهاد شده توسط ژاپن در جلسه OECD، فرآیند هوش مصنوعی هیروشیما یک ابتکار است که به ایجاد یک چارچوب جهانی برای استفاده امن و قابل اعتماد از هوش مصنوعی هدفمند است. این تلاش دارد که گفتگوی بین المللی و همکاری را برای ایجاد یک محیطی که کاربرد اعتماد بخش تکنولوژی های هوش مصنوعی را پشتیبانی نماید، ترویج کند.

چالش‌ها یا جدل‌های اصلی:

تعادل بین نوآوری و تنظیم: یکی از چالش‌های اصلی یافتن تعادلی بین ترویج نوآوری در هوش مصنوعی و اجرای مقرراتی است که از سوء استفاده از هوش مصنوعی جلوگیری کند، بدون ایجاد مانع برای پیشرفت فناوری.

همکاری بین المللی: تکنولوژی‌های هوش مصنوعی مرزها را نمی‌شناسند، بنابراین هماهنگی جهانی و توافق بر اصول بسیار ضروری است. دستیابی به توافق میان فعالین مختلفِ هرکدام با منافع و محیط‌های نظارتی خود، چالشی است.

اجرا: یک سوال مطرح است که اصول چگونه اجرا خواهند شد و آیا رهنمودهای سازمان OECD وزن کافی برای تأثیرگذاری بر اقدامات اعضا و غیر اعضا خواهند داشت.

مزایا و معایب:

مزایا:
– ترویج همکاری می‌تواند منجر به سیاست‌های بین‌المللی هماهنگ و موثرتری شود.
– اصول هوش مصنوعی می‌تواند با تعیین اصولی برای استفاده و توسعه هوش مصنوعی، اختلالات اقتصادی و اجتماعی را جلوگیری نماید.
– آنها به ممارساتی که حقوق بشر را حفاظت می‌کنند و بر آن می‌افزایند که فواید هوش مصنوعی به عادلانه توزیع شود، تشویق می‌کنند.

معایب:
– محدودیت‌ها بر هوش مصنوعی ممکن است رونق توسعه را محدود کرده و موقعیت‌های رقابتی در سطح بین المللی را کاهش دهد.
– رهنمودهای مبهم ممکن است قابل اقدام نباشد یا ممکن است توسط کشورهای مختلف به شکل‌های مختلفی تفسیر شوند.
– چالش در اجرا ممکن است باعث شود اصول بیشتر نمادین تر از موثر بر رفتار هوش مصنوعی را تنظیم کنند.

برای کسب اطلاعات بیشتر درباره سازمان OECD و ابتکارات آن، به وب‌سایت رسمی این سازمان مراجعه نمایید: OECD.org.

Privacy policy
Contact