گام‌های جدید در مقابله با اطلاعات غلط تولید شده توسط هوش مصنوعی

تلاش‌هایی جدید برای مقابله با اطلاعات غلط تولید شده توسط هوش مصنوعی در فضای دیجیتال در هند در حال انجام است. همانطور که دولت هند با شرکت‌های فناوری بزرگ همکاری کرده است، شرکت‌هایی همچون گوگل و متا (پیش‌تر با نام فیس‌بوک شناخته می‌شد)، دستور جلساتی را که بین مقامات دولتی و نمایندگان از گوگل، متا و سایر شرکت‌های برجسته برگزار شده است، تایید کرده‌اند، تا به پاسخ به پرسش‌های فرموده شده از سوی Mint بپردازند.

شرکت‌های گوگل و متا روشن‌نگرانی خود را نسبت به ادهامات احتیاطی با به اشتراک گذاری رهنمودها برای برخورد با محتوای تغییر یافته و تبلیغاتی تولید شده توسط هوش مصنوعی (AI) روی پلتفرم‌های گوناگونی چون چت‌جی‌پی‌تی، فیس‌بوک، جستجوی گوگل، اینستاگرام، واتس‌اپ و یوتیوب مانند، اعلام کرده‌اند. این رهنمودها بر اهمیت برچسب‌گذاری محتوای تولید شده توسط AI و محدود کردن استفاده از هوش مصنوعی در تولید نتایج جستجو مربوط به اشخاص، احزاب و دیدگاه‌های مرتبط با انتخابات کلیه 2024 تاکید دارند.

شرکت ادوبی، سازنده فتوشاپ، همچنین به تحقق با احتیاط به ابزار تولید کننده خود به نام فایرفلای پرداخته است. اندی پارسونز، مدیر ارشد اجرایی از پرونده صدایی محتوای ادوبی، تاکید کرد که تعهد این شرکت به جلوگیری از دستکاری یا ایجاد تصویر برای کمپین‌های سیاسی می‌باشد.

به علاوه، درباره مسئولیت میانجی‌گران، با استثنای ادوبی، طبق قوانین فناوری اطلاعات (رهنمودهای میانجی و کدهای اخلاقی رسانه‌ای دیجیتال) 2021 بحث‌هایی انجام شد. طبق اطلاعات مقامات، این میانجی‌گران در صورت عدم مهار گسترش اطلاعات غلط تولید شده توسط AI ممکن است با پیگرد مواجه شوند. این نگرانی از انتشار گسترده‌ای که AI در محتوای آنلاین ایجاد می‌کند، ناشی می‌شود و تحت عنوان تگ‌گذاری و برچسب‌گذاری اطلاعات AI تولید شده راهبردهایی چون استفاده از متودهای مانند watermarking و فعال‌سازی متا دنبال می‌کنند.

سوالات متداول

1. چیست اطلاعات غلط تولید شده توسط AI؟

اطلاعات غلط تولید شده توسط AI به محتوای غلط یا گمراه‌کننده اشاره دارد که با استفاده از تکنولوژی‌های هوش مصنوعی ایجاد یا دستکاری شده است.

2. چگونه شرکت‌های فناوری به مقابله با اطلاعات غلط تولید شده توسط AI می‌پردازند؟

شرکت‌هایی همچون گوگل و متا اقداماتی چون برچسب‌گذاری محتوای تولید شده توسط AI، محدود کردن استفاده از AI در تولید نتایج جستجو در موضوعات سیاسی خاص و تأیید اصالت محتوای تولید شده توسط AI را اجرا می‌کنند.

3. چیست توافق‌نامه فناوری برای مقابله با استفاده گمراه کننده از هوش مصنوعی در انتخابات 2024؟

توافق‌نامه فناوری، که توسط شرکت‌های گوناگون از جمله ادوبی، گوگل، متا، مایکروسافت، اوپن‌ای آی، و X (پیش‌تر توییتر) امضا شد، هدف آن مقابله با استفاده گمراه کننده از هوش مصنوعی در انتخابات می‌باشد. این توافق‌نامه پیشنهاداتی چون اجرای فناوری‌ها برای کاهش خطرات مرتبط با AI، ارزیابی مدل‌های AI، و تقویت انعطاف‌پذیری در بخش‌های صنعتی دنبال می‌کند.

4. چگونه می‌توان میانجی‌گران را مسئول تعویق در مقابله با اطلاعات غلط تولید شده توسط AI قرار داد؟

طبق قوانین فناوری اطلاعات (رهنمودهای میانجی و کدهای اخلاقی رسانه‌ای دیجیتال) 2021، میانجی‌گران در صورت عدم مهار گسترش اطلاعات غلط تولید شده توسط AI بایستی با پیگرد روبرو شوند.

5. چه چالش‌هایی در مسائل مرتبط با کاهش خطرات AI وجود دارد؟

یکی از چالش‌های اساسی نبود یک تعریف واضح برای میانجی‌گران و پلتفرم‌هاست، که منجر به مشکلاتی در تشخیص مسئولیت و تعهد و پاسخگویی در مقابل خطرات AI می‌گردد.

همکاری بین دولت هند و شرکت‌های بزرگ فناوری برای رفع اطلاعات غلط تولید شده توسط هوش مصنوعی، نشان از توجه روزافزون به این موضوع در فضای دیجیتال دارد. این شرکت‌ها، از جمله گوگل و متا، قبلاً رهنمودها برای برخورد با محتوای تغییر یافته و تبلیغاتی را بر روی پلتفرم‌های خود چون چت‌جی‌پی‌تی، فیس‌بوک، جستجوی گوگل، اینستاگرام، واتس‌اپ و یوتیوب منتشر کرده‌اند. این رهنمودها بر اهمیت برچسب‌گذاری محتوای تولید شده توسط AI و محدود کردن استفاده از AI در نتایج جستجو مربوط به اشخاص، احزاب و دیدگاه‌های مرتبط با انتخابات کلیه 2024 تاکید دارند. این راهبرد پیشگامانه، نشان دهنده شناخت اثرات ممکنه هوش مصنوعی بر گفتمان عمومی می‌باشد.

از دیگر سوی، ادوبی، سازنده فتوشاپ، نیز به ابزار تولید کننده خود به نام فایرفلای براساس احتیاط به تصور پرداخته است. این اقدام نشان از آگاهی صنعت از نگرانی‌های اخلاقی مربوط به استفاده از هوش مصنوعی در تولید محتوای گمراه کننده یا نادرست دارد.

بحث‌ها همچنین درباره مسئولیت میانجی‌گران، به استثنای ادوبی، طبق مقررات فناوری اطلاعات (رهنمودهای میانجی و کدهای اخلاقی رسانه‌ای دیجیتال) 2021 انجام شد. اگر این میانجی‌گران در مهار توسعه اطلاعات غلط تولید شده توسط AI ناکام بودند، ممکن است با پیگرد مواجه شوند. این نگرانی از انتشار گسترده‌ای که AI در محتوای آنلاین ایجاد می‌کند، تکنیک‌هایی چون استفاده از watermarking و برچسب‌گذاری متا را شناسایی و مدیریت محتوای تولید شده توسط AI دنبال می‌کنند.

توانایی دولت هند در دفاع از سانسور کلمات خاص، یک گام قابل توجه در درک تأثیر هوش مصنوعی بر گفتمان عمومی می‌باشد. دولت‌ها در سراسر جهان در حال درک می‌بینند که راه‌حلی واحد برای مبارزه با اطلاعات غلط وجود ندارد، به خصوص با تأثیر هوش مصنوعی. این آگاهی رو به افزایش می‌تواند در تصمیم‌گیری دولتی برای بیداری خوب در برابر اطلاعات غلط تولید شده توسط AI در جوامع دموکراتیک چون هند کمک کند.

برای توجه به مسأله بیش‌تر، در یک کنفرانس مهم با نام کنفرانس امنیتی مونیخ، امضای «توافق‌نامه فناوری برای مقابله با استفاده گمراه کننده از هوش مصنوعی در انتخابات 2024» دیده شد. این توافق شامل 20 شرکت از جمله ادوبی، گوگل، متا، مایکروسافت، OpenAI و X (پیش‌تر توییتر) بود. توافق‌نامه فناوری پیشنهادات مختلفی چون استفاده از فناوری‌ها برای کاهش خطرات مربوط به AI، ارزیابی مدل‌های AI، و تقویت انعطاف‌پذیری در بخش‌های صنعتی را پیشنهاد می‌کند.

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact