مقامات در سازمان همکاری و توسعه اقتصادی (OECD) به انجام جلسه شورای اخیر خود با تعهد قاطع به بهروزرسانی رهنمودهای سیاستی، که به عنوان “اصول هوش مصنوعی” شناخته میشوند، پایان دادند. تصمیم به دلیل افزایش تکنولوژیهای هوش مصنوعی آفرینشی مانند “ChatGPT” و ضرورت برخورد با گسترش اطلاعات غلط و گمراهکننده از طریق این پلتفرمها اتخاذ گردید.
اصول بهروزرسانی شده هوش مصنوعی، که نخستین بار توسط OECD در سال 2019 منتشر شد و توسط 38 کشور عضو همچنین اوکراین، سنگاپور و اتحادیه اروپا رعایت میشود، بر روی راهبردهای کاهش اجبار اقتصادی از طریق محدودیتهای تجارت تمرکز دارند. این تغییرات یک تلاش بینالمللی برای مقابله با تهدیدات اقتصادی و گسترش عدم دقت نشان میدهد، که با ارتباط اجتماعی رو به افزایشی که به واسطه طبیعت فراگیر اطلاعات نادرستی که آنلاین منتشر میشود به وجود آمده، همپیوند است.
آشکار است که توسعهی هوش مصنوعی آفرینشی ریسک های یتیم اجتماعی را به علت تقویت نشده انتشار محتوای نادرست در چند سال اخیر کاهش داده است. در جلسه اخیر شورای OECD که شاخص 60مین سال پیوستن ژاپن به سازمان را نشان میدهد، با وزیر امور خارجه ژاپن یوکو کامیکاوا به ریاست برگزار شد. در یک نشست خبری پس از ختم این جلسه، کامیکاوا به بحث در مورد ابتکار ژاپن، “فرآیند هوش مصنوعی هیروشیما” پرداخت وی منطقه جهانی جهت ایجاد محیطی برای استفاده از هوش مصنوعی به طریق ایمن و قابل اعتماد را تاکید نمود. این فرآیند اهدافی را دنبال میکند که برای پشتیبانی از کاربرد اعتماد بخش تکنولوژی هوش مصنوعی در سطح جهانی ایجاد کند.
سوالات اساسی و پاسخها:
– اصول هوش مصنوعی OECD چیستند؟
اصول هوش مصنوعی OECD، رهنمودهایی است که نخستین بار توسط سازمان OECD در سال 2019 برای ترویج ماموریت مسولانه هوش مصنوعی اعتمادبخش ایجاد شد. آنها توصیه میکنند که سیستمهای هوش مصنوعی به گونهای طراحی شوند که قانون، حقوق بشر، ارزشهای دموکراتیک و تنوع را احترام بگذارند و شامل یک سری اصول سیاستی برای ترویج هوش مصنوعی که نوآورانه و قابل اعتماد بوده و ارزشهای حقوق بشری و دموکراتیک را رعایت میکند.
– چرا اصول هوش مصنوعی بهروزرسانی شدند؟
اصول هوش مصنوعی برای پرداختن به چالشهای جدیدی که به واسطه توسعه سریع تکنولوژیهای هوش مصنوعی آفرینشی پدید آمده، که ریسک انتشار اطلاعات غلط و گمراهکننده را افزایش داده اند، بهروزرسانی شدند. بهروزرسانی به منظور مقابله با تهدیدات اقتصادی و گسترش عدم دقتیها که ممکن است منجر به اختلالات اجتماعی شوند، صورت گرفت.
– فرآیند هوش مصنوعی هیروشیما چیست؟
پیشنهاد شده توسط ژاپن در جلسه OECD، فرآیند هوش مصنوعی هیروشیما یک ابتکار است که به ایجاد یک چارچوب جهانی برای استفاده امن و قابل اعتماد از هوش مصنوعی هدفمند است. این تلاش دارد که گفتگوی بین المللی و همکاری را برای ایجاد یک محیطی که کاربرد اعتماد بخش تکنولوژی های هوش مصنوعی را پشتیبانی نماید، ترویج کند.
چالشها یا جدلهای اصلی:
– تعادل بین نوآوری و تنظیم: یکی از چالشهای اصلی یافتن تعادلی بین ترویج نوآوری در هوش مصنوعی و اجرای مقرراتی است که از سوء استفاده از هوش مصنوعی جلوگیری کند، بدون ایجاد مانع برای پیشرفت فناوری.
– همکاری بین المللی: تکنولوژیهای هوش مصنوعی مرزها را نمیشناسند، بنابراین هماهنگی جهانی و توافق بر اصول بسیار ضروری است. دستیابی به توافق میان فعالین مختلفِ هرکدام با منافع و محیطهای نظارتی خود، چالشی است.
– اجرا: یک سوال مطرح است که اصول چگونه اجرا خواهند شد و آیا رهنمودهای سازمان OECD وزن کافی برای تأثیرگذاری بر اقدامات اعضا و غیر اعضا خواهند داشت.
مزایا و معایب:
– مزایا:
– ترویج همکاری میتواند منجر به سیاستهای بینالمللی هماهنگ و موثرتری شود.
– اصول هوش مصنوعی میتواند با تعیین اصولی برای استفاده و توسعه هوش مصنوعی، اختلالات اقتصادی و اجتماعی را جلوگیری نماید.
– آنها به ممارساتی که حقوق بشر را حفاظت میکنند و بر آن میافزایند که فواید هوش مصنوعی به عادلانه توزیع شود، تشویق میکنند.
– معایب:
– محدودیتها بر هوش مصنوعی ممکن است رونق توسعه را محدود کرده و موقعیتهای رقابتی در سطح بین المللی را کاهش دهد.
– رهنمودهای مبهم ممکن است قابل اقدام نباشد یا ممکن است توسط کشورهای مختلف به شکلهای مختلفی تفسیر شوند.
– چالش در اجرا ممکن است باعث شود اصول بیشتر نمادین تر از موثر بر رفتار هوش مصنوعی را تنظیم کنند.
برای کسب اطلاعات بیشتر درباره سازمان OECD و ابتکارات آن، به وبسایت رسمی این سازمان مراجعه نمایید: OECD.org.
The source of the article is from the blog radardovalemg.com