ظهور فناوری دیپفیک نگرانیهای زیادی را در عرصه دیپلماسی جهانی به وجود آورده است. در پاسخ به این مسئله، سوئیس، کمیته بینالمللی صلیب سرخ (ICRC) و مدرسه پلیتکنیک فدرال موسسه لوزان (EPFL) بر روی یک نمایشگاه پیشرفته با عنوان “دیپفیک و شما” همکاری کردهاند. این تجربه غوطهور در مقر سازمان ملل در نیویورک قرار دارد و هدف آن این است که مفهوم هوش مصنوعی و پتانسیل سوءاستفاده از آن را برای دیپلماتها قابل درکتر کند.
بازدیدکنندگان در میان هزارتویی میچرخند که تاریخ طولانی واقعیتهای تغییر یافته را به نمایش میگذارد و دیدگاهی درباره چگونگی پیشرفت فناوری ارائه میدهد. برخلاف کار دقیق نقاشان رنسانس، قابلیتهای دیپفیک مدرن امکان دستکاری سریع ویدیوها را بدون نیاز به روشهای پیچیده فراهم میآورد. در انتهای هزارتو، شرکتکنندگان با ویدیویی از خودشان روبرو میشوند که کلماتی را بر زبان میآورند که هرگز نگفتهاند و خطرات فوری چنین فناوری را نشان میدهد.
فیلیپ استول، دیپلمات فناوری در ICRC، اهمیت آموزش دیپلماتها درباره این واقعیتها را مورد تأکید قرار میدهد. با توجه به اینکه مذاکرات سنتی بهطور فزایندهای به فناوری ارتباط پیدا میکنند، درک پیامدهای دیپفیکها به موضوعی حیاتی تبدیل شده است. این نمایشگاه به دنبال ایجاد تعامل عاطفی با شرکتکنندگان است تا مفاهیم انتزاعی مربوط به امنیت سایبری را قابل لمس کند.
با این وجود، چارچوبهای قانونی در پیگیری پیشرفتهای فناوری با مشکل مواجهاند. درخواستها برای ایجاد یک نهاد نظارتی بینالمللی قوی برای هوش مصنوعی، مشابه آژانس بینالمللی انرژی اتمی برای انرژی اتمی، با مقاومت قدرتهای بزرگ روبرو شده است. استول بر این باور است که اقدام ضروری است و از دیپلماتها میخواهد تا اقدامات لازم را برای رسیدگی به این مسائل فناوری فوری در یک چشمانداز ژئوپلیتیکی در حال تغییر انجام دهند.
درک فناوری دیپفیک: نکات، ترفندها و حقایق جالب
با گسترش آگاهی درباره فناوری دیپفیک، مهم است که خود را با دانش و ابزارهایی برای هدایت در این فضای پیچیده قدرتمند کنیم. در اینجا برخی نکات ارزشمند، ترفندها و حقایق جالب برای کمک به درک و برخورد مؤثر با دیپفیکها ارائه میشود.
1. در مورد فناوری دیپفیک آگاه باشید:
دانش بهترین دفاع شماست. با نحوه ایجاد دیپفیکها و پیامدهای بالقوه آنها آشنا شوید. منابع خبری معتبر و وبلاگهای فناوری را دنبال کنید که درباره پیشرفتهای هوش مصنوعی و تحولات دیپفیک بحث میکنند.
2. ابزارهای تأیید هویت ضروری هستند:
در دنیایی که اطلاعات نادرست به سرعت پخش میشوند، تأیید اصالت ویدیوها و تصاویر ضروری است. از ابزارهایی مانند InVID و YouTube DataViewer سازمان عفو بینالملل برای تجزیه و تحلیل ویدیوها و بررسی نشانههای دستکاری استفاده کنید.
3. سواد رسانهای خود را افزایش دهید:
مهارتهای تفکر انتقادی مربوط به مصرف رسانه را توسعه دهید. درک کنید که تصاویر ممکن است فریبنده باشند. قبل از به اشتراک گذاشتن یا باور کردن یک ویدیو، درباره منبع، هدف و زمینه آن از خود سؤال کنید.
4. در رسانههای اجتماعی محتاط باشید:
پلتفرمهای رسانههای اجتماعی به طور فزایندهای برای پخش دیپفیکها استفاده میشوند. تنظیمات حریم خصوصی خود را تنظیم کنید، در انتخاب آنچه به اشتراک میگذارید دقت کنید و نسبت به محتوای جذاب که به نظر بیش از حد خوب یا بیش از حد شوکه کننده میآید، محتاط باشید.
5. پرچمهای قرمز را بشناسید:
با نشانههای رایج دیپفیک مانند حرکات غیرطبیعی صورت، هماهنگی ناقص لبها یا نور و سایههای نامتناسب آشنا شوید. اگر ویدیویی به نظر باید باشد، ممکن است ارزش بررسی بیشتر قبل از واکنش را داشته باشد.
6. آگاهی را در جامعه خود افزایش دهید:
دانش خود درباره دیپفیکها را با دوستان، خانواده و همکاران به اشتراک بگذارید. تشویق به بحث درباره سواد دیجیتال و تأثیر هوش مصنوعی میتواند به ساخت یک جامعه آگاهتر کمک کند.
7. از هوش مصنوعی برای اهداف خوب استفاده کنید:
جالب این است که برخی سازمانها از فناوری هوش مصنوعی برای مبارزه با دیپفیکها استفاده میکنند. ابتکاراتی مانند چالش تشخیص دیپفیک به دنبال توسعه نرمافزاری هستند که بتواند رسانههای مشابه را شناسایی کند. از چنین تلاشهایی حمایت کنید و آنها را دنبال کنید، زیرا به دنبال ایجاد یک محیط دیجیتال امنتر هستند.
8. به پیامدهای قانونی توجه کنید:
در مورد چارچوبهای قانونی در حال تحول در مورد دیپفیکها در منطقه خود به روز باشید. دانستن حقوق خود و راهکارهای قانونی ممکن میتواند شما را قدرتمند کند و به شما در رویارویی با بسترهای دستکاری شده کمک کند.
حقایق جالب درباره دیپفیکها
– منشأ فناوری دیپفیک: اصطلاح “دیپفیک” از یک کاربر رِدیت به وجود آمده است که از الگوریتمهای هوش مصنوعی برای تعویض چهرهها در محتوای بزرگسالان استفاده میکرد. این فناوری به طور قابل توجهی تکامل یافته و به امکانات شگفتانگیز و نگرانیهای اخلاقی جدی منجر شده است.
– تأثیر بر انتخابات: نگرانیهای روزافزونی در مورد تأثیر دیپفیکها بر فرآیندهای انتخاباتی وجود دارد. موارد مستند که در آن ویدیوهای دستکاری شده میتوانند بر افکار عمومی تأثیر بگذارند، نیاز به احتیاط در فصلهای انتخاباتی را نشان میدهد.
– استفادههای هنری: به طرز شگفتانگیزی، فناوری دیپفیک به طور خلاقانهای در صنعت سرگرمی نیز استفاده میشود، مانند فیلمها برای بازسازی اجراها یا بازگرداندن بازیگران درگذشته به صفحه نمایش به شیوهای محترمانه.
– کاربردهای زمان واقعی: پیشرفتهای اخیر منجر به ایجاد سیستمهای دیپفیک در زمان واقعی شده است که در آن کاربران میتوانند ویدیوها را بهطور زنده دستکاری کنند و نگرانیهای بیشتری برای امنیت و اصالت ایجاد کنند.
با مجهز کردن خود به ابزارها و دانش مناسب، میتوانیم با چالشهای پیش آمده توسط فناوری دیپفیک مؤثرتر روبرو شویم. برای اطلاعات بیشتر در مورد آگاهی فناوری و ابزارها، به ICRC مراجعه کنید یا منابع هوش مصنوعی موجود را در EPFL بررسی کنید.
فعال و آگاه ماندن به ما این امکان را میدهد که با پیچیدگیهای دستکاری هوش مصنوعی مقابله کنیم و به ایجاد یک فضای دیجیتال امنتر برای همه کمک کنیم.