تلاشهایی جدید برای مقابله با اطلاعات غلط تولید شده توسط هوش مصنوعی در فضای دیجیتال در هند در حال انجام است. همانطور که دولت هند با شرکتهای فناوری بزرگ همکاری کرده است، شرکتهایی همچون گوگل و متا (پیشتر با نام فیسبوک شناخته میشد)، دستور جلساتی را که بین مقامات دولتی و نمایندگان از گوگل، متا و سایر شرکتهای برجسته برگزار شده است، تایید کردهاند، تا به پاسخ به پرسشهای فرموده شده از سوی Mint بپردازند.
شرکتهای گوگل و متا روشننگرانی خود را نسبت به ادهامات احتیاطی با به اشتراک گذاری رهنمودها برای برخورد با محتوای تغییر یافته و تبلیغاتی تولید شده توسط هوش مصنوعی (AI) روی پلتفرمهای گوناگونی چون چتجیپیتی، فیسبوک، جستجوی گوگل، اینستاگرام، واتساپ و یوتیوب مانند، اعلام کردهاند. این رهنمودها بر اهمیت برچسبگذاری محتوای تولید شده توسط AI و محدود کردن استفاده از هوش مصنوعی در تولید نتایج جستجو مربوط به اشخاص، احزاب و دیدگاههای مرتبط با انتخابات کلیه 2024 تاکید دارند.
شرکت ادوبی، سازنده فتوشاپ، همچنین به تحقق با احتیاط به ابزار تولید کننده خود به نام فایرفلای پرداخته است. اندی پارسونز، مدیر ارشد اجرایی از پرونده صدایی محتوای ادوبی، تاکید کرد که تعهد این شرکت به جلوگیری از دستکاری یا ایجاد تصویر برای کمپینهای سیاسی میباشد.
به علاوه، درباره مسئولیت میانجیگران، با استثنای ادوبی، طبق قوانین فناوری اطلاعات (رهنمودهای میانجی و کدهای اخلاقی رسانهای دیجیتال) 2021 بحثهایی انجام شد. طبق اطلاعات مقامات، این میانجیگران در صورت عدم مهار گسترش اطلاعات غلط تولید شده توسط AI ممکن است با پیگرد مواجه شوند. این نگرانی از انتشار گستردهای که AI در محتوای آنلاین ایجاد میکند، ناشی میشود و تحت عنوان تگگذاری و برچسبگذاری اطلاعات AI تولید شده راهبردهایی چون استفاده از متودهای مانند watermarking و فعالسازی متا دنبال میکنند.
سوالات متداول
1. چیست اطلاعات غلط تولید شده توسط AI؟
اطلاعات غلط تولید شده توسط AI به محتوای غلط یا گمراهکننده اشاره دارد که با استفاده از تکنولوژیهای هوش مصنوعی ایجاد یا دستکاری شده است.
2. چگونه شرکتهای فناوری به مقابله با اطلاعات غلط تولید شده توسط AI میپردازند؟
شرکتهایی همچون گوگل و متا اقداماتی چون برچسبگذاری محتوای تولید شده توسط AI، محدود کردن استفاده از AI در تولید نتایج جستجو در موضوعات سیاسی خاص و تأیید اصالت محتوای تولید شده توسط AI را اجرا میکنند.
3. چیست توافقنامه فناوری برای مقابله با استفاده گمراه کننده از هوش مصنوعی در انتخابات 2024؟
توافقنامه فناوری، که توسط شرکتهای گوناگون از جمله ادوبی، گوگل، متا، مایکروسافت، اوپنای آی، و X (پیشتر توییتر) امضا شد، هدف آن مقابله با استفاده گمراه کننده از هوش مصنوعی در انتخابات میباشد. این توافقنامه پیشنهاداتی چون اجرای فناوریها برای کاهش خطرات مرتبط با AI، ارزیابی مدلهای AI، و تقویت انعطافپذیری در بخشهای صنعتی دنبال میکند.
4. چگونه میتوان میانجیگران را مسئول تعویق در مقابله با اطلاعات غلط تولید شده توسط AI قرار داد؟
طبق قوانین فناوری اطلاعات (رهنمودهای میانجی و کدهای اخلاقی رسانهای دیجیتال) 2021، میانجیگران در صورت عدم مهار گسترش اطلاعات غلط تولید شده توسط AI بایستی با پیگرد روبرو شوند.
5. چه چالشهایی در مسائل مرتبط با کاهش خطرات AI وجود دارد؟
یکی از چالشهای اساسی نبود یک تعریف واضح برای میانجیگران و پلتفرمهاست، که منجر به مشکلاتی در تشخیص مسئولیت و تعهد و پاسخگویی در مقابل خطرات AI میگردد.
همکاری بین دولت هند و شرکتهای بزرگ فناوری برای رفع اطلاعات غلط تولید شده توسط هوش مصنوعی، نشان از توجه روزافزون به این موضوع در فضای دیجیتال دارد. این شرکتها، از جمله گوگل و متا، قبلاً رهنمودها برای برخورد با محتوای تغییر یافته و تبلیغاتی را بر روی پلتفرمهای خود چون چتجیپیتی، فیسبوک، جستجوی گوگل، اینستاگرام، واتساپ و یوتیوب منتشر کردهاند. این رهنمودها بر اهمیت برچسبگذاری محتوای تولید شده توسط AI و محدود کردن استفاده از AI در نتایج جستجو مربوط به اشخاص، احزاب و دیدگاههای مرتبط با انتخابات کلیه 2024 تاکید دارند. این راهبرد پیشگامانه، نشان دهنده شناخت اثرات ممکنه هوش مصنوعی بر گفتمان عمومی میباشد.
از دیگر سوی، ادوبی، سازنده فتوشاپ، نیز به ابزار تولید کننده خود به نام فایرفلای براساس احتیاط به تصور پرداخته است. این اقدام نشان از آگاهی صنعت از نگرانیهای اخلاقی مربوط به استفاده از هوش مصنوعی در تولید محتوای گمراه کننده یا نادرست دارد.
بحثها همچنین درباره مسئولیت میانجیگران، به استثنای ادوبی، طبق مقررات فناوری اطلاعات (رهنمودهای میانجی و کدهای اخلاقی رسانهای دیجیتال) 2021 انجام شد. اگر این میانجیگران در مهار توسعه اطلاعات غلط تولید شده توسط AI ناکام بودند، ممکن است با پیگرد مواجه شوند. این نگرانی از انتشار گستردهای که AI در محتوای آنلاین ایجاد میکند، تکنیکهایی چون استفاده از watermarking و برچسبگذاری متا را شناسایی و مدیریت محتوای تولید شده توسط AI دنبال میکنند.
توانایی دولت هند در دفاع از سانسور کلمات خاص، یک گام قابل توجه در درک تأثیر هوش مصنوعی بر گفتمان عمومی میباشد. دولتها در سراسر جهان در حال درک میبینند که راهحلی واحد برای مبارزه با اطلاعات غلط وجود ندارد، به خصوص با تأثیر هوش مصنوعی. این آگاهی رو به افزایش میتواند در تصمیمگیری دولتی برای بیداری خوب در برابر اطلاعات غلط تولید شده توسط AI در جوامع دموکراتیک چون هند کمک کند.
برای توجه به مسأله بیشتر، در یک کنفرانس مهم با نام کنفرانس امنیتی مونیخ، امضای «توافقنامه فناوری برای مقابله با استفاده گمراه کننده از هوش مصنوعی در انتخابات 2024» دیده شد. این توافق شامل 20 شرکت از جمله ادوبی، گوگل، متا، مایکروسافت، OpenAI و X (پیشتر توییتر) بود. توافقنامه فناوری پیشنهادات مختلفی چون استفاده از فناوریها برای کاهش خطرات مربوط به AI، ارزیابی مدلهای AI، و تقویت انعطافپذیری در بخشهای صنعتی را پیشنهاد میکند.
The source of the article is from the blog reporterosdelsur.com.mx