راهحلهای نوآورانه برای چالشهای تصورهای عمیق (Deepfake)
یک ابتکار جدید با هدایت عمدهانداز OpenAI به رشد دستور دیجیتال جلوگیری از تهدید رو به افزایش تقلب Deepfake متمرکز شده است. ابزار جدید تشخیص، با نام “دستهبندی تشخیص” طراحی شده تا تصاویر ساختهشده با استفاده از ابزار DALL·E که رسانهای تولید میکند که از واقعیت خارج میشود، شناسایی کند. همانطور که نگرانیها درباره سوءاستفاده ممکن از تهدیدهای Deepfake برای تاثیر گذاری بر نگرش رایدهندگان افزایش مییابد، نیاز به محافظهای موثر افزایش مییابد.
توانمندی از طریق آموزش و همکاری
علاوه بر دستهبندی تشخص، شرکت OpenAI در تلاش برای کاهش ریسکهای مرتبط با Deepfake متولی انسانی ابر هستند. با پیوستن به ائتلاف ارزیابی منبع و اصالت محتوا (C2PA)، آنها قصد دارند استانداردها را برای پیگیری منابع محتوا ایجاد کنند و جلوگیری از انتشار اطلاعات گمراهکننده را برنامهریزی کنند. علاوه بر این، با همکاری با مایکروسافت، OpenAI بنیاد تابناکی اجتماعی راهاندازی کرده است، یک بورس دو میلیون دلاری که برای سازمانهای غیرانتفاعی متمرکز بر تحصیلات هوش مصنوعی برای مقابله با ریسکهای سوء استفاده طراحی شده است.
ترویج آگاهی و آمادگی
در رسیدگی به پیچیدگیهای فناوریهای هوش مصنوعی، این ابتکارها تلاش میکنند تا افراد و سازمانها را با دانش لازم برای مقابله با چالشهای ایجاد شده توسط Deepfakes مجهز کنند. با اختصاص منابع به برنامههای آموزشی برای گروههای مختلف از جمله سالمندان و همکاری با سازمانهای بینالمللی که به دموکراسی و استفاده مسئولانه از هوش مصنوعی اختصاص دادهاند، OpenAI و Microsoft گامهای فعالی برای ایجاد تقویت زمینه اجتماعی در برابر منظرات تطور Deepfake ایجاد میکنند.
فریاد برای ادامه ی مراقبت
هرچند این اقدامات پیشرفتهای معنیداری در مقابله با Deepfakes را نشان میدهد، اما نگرانی مراقبت و همکاری در انحصارات بازتری همچنان حیاتی است. با توسعه دهی فرهنگ دیجیتال و ترویج روشهای هوشمندانه حاکم بر هوش مصنوعی، سازمانها میتوانند برای تقویت دفاعات خود در برابر دستکاری مطالب دیجیتال در یک جهان به وسعت بیشتر کنار هم کار کنند.