برچسبهای محتوای مصنوعی موجود و جدید به کاربران تیکتاک محافظت بیشتری ارائه میدهد
پلتفرم محبوب رسانه اجتماعی تیکتاک اعلام کرده است که از یک تکنولوژی جدید برای برچسبگذاری و افشای تصاویر و ویدیوهای تولیدی یا تولید شده توسط هوش مصنوعی که بر روی سرویس ارسال شده استفاده خواهد کرد. این اقدام به درستی نام گذاری “اطلاعات محتوای معتبر” نامیده شده است و طراحی شده است تا تأیید کند که آیا یک قطعه محتوا توسط ابزارهای هوش مصنوعی ایجاد یا ویرایش شده است یا خیر.
متا برچسبهای محتوای مصنوعی را در سراسر شبکههای اجتماعی اصلی به کار میبرد
از ماه مه، متا، شرکت مادر پشت پرچمهایی مثل اینستاگرام، Threads و فیسبوک، شروع به برچسبگذاری ویدیوها، تصاویر و صداهای تولید شده توسط هوش مصنوعی در این پلتفرمها کرده است. با هدف کاهش خطرات اطلاعات غلط، متا برچسبهای واضحی برای محتواهایی که ممکن است در جوامع آنلاین اشتباه یا مغلوط تفسیر شوند، معرفی کرده است. این تلاشها به پاسخی به خواستههای هیئت نظارت بر محتوای متا بود که خواستار ارزیابی مجدد رویکرد این شرکت به محتوای ویرایش شده در برابر قابلیتهای رو به جلوی هوش مصنوعی و گسترش deepfakes شده.
یوتیوب و OpenAI به بحثهای مربوط به deepfake پرداختهاند
یوتیوب دستورالعملهای اجباری تعیین شده را اعلام کرده که خالقان باید افشای کنند که وقتی ویدیوها توسط هوش مصنوعی تولید شدهاند است، این قابلیت به پلتفرم امکان انجام برچسبگذاری برای چنین محتوایی را میدهد. علاوه بر این، OpenAI، خالق ChatGPT، در حال توسعه یک ابزار برای کمک به استفادهکنندگان برای شناسایی تصاویر تولیدی توسط هوش مصنوعی است. همراه با مایکروسافت، OpenAI نیز یک صندوق 2 میلیون دلاری برای پیشگیری از کلاهبرداریهای مربوط به تقلبهای انتخاباتی بنا نهاده است.
توافق فناوری یکپارچه برای مقابله با تقلب انتخابات
در فوریه، یک اتحادیه از 20 شرکت فناوری، از جمله OpenAI، Microsoft و Stability AI، یک توافقنامه را امضا کردند که هدف آن پیشگیری از تأثیرگذاری محتوای ساخته شده توسط هوش مصنوعی بر روی انتخابات است. با نام “معاهده فناوری برای مقابله با تقلبهای هوش مصنوعی در انتخابات 2024″، این شرکتها شعارهایی را قبول کردند که بر تقلبهای محتوای هوش مصنوعی در انتخابات تمرکز دارند، تشخیص و متوقف کردن توزیع چنین محتوایی و حفظ شفافیت درباره تلاشهای محتواهای قانونی.
دولت ایالات متحده در حال حاضر قوانین فدرالی خاصی را برای هوش مصنوعی ندارد، اما برنامههایی که از هوش مصنوعی در بخشهای مختلف استفاده میکنند باید با قوانین موجود همخوانی داشته باشند. با این حال، مقامات آمریکایی تمرکز بیشتری بر تشریعات هوش مصنوعی دارند و چارچوبهای تنظیمی جامع را بررسی میکنند.