الأخطار العميقة للعمليات المزيفة العميقة: قلق كبير للشركات والديمقراطيات

أدوات الذكاء الاصطناعي المتقدمة تثير إنذارات حول الاحتيال والتضليل! في عالم الذكاء الاصطناعي (AI)، قد أحرز الذكاء الاصطناعي الإبداعي خطوات كبيرة إلى الأمام، محولًا الطرق التي يتم إنشاء الصور ومقاطع الفيديو والأصوات بها. ومع ذلك، الجانب المظلم لهذا التقدم التكنولوجي هو أن هذه القدرات يتم استغلالها بشكل متزايد لأغراض الدعاية السوداء والاحتيال وتلاعب الرأي العام. هذه التكتيكات ليست تضر الشركات فقط ولكن تشكل مخاطر جدية على استقرار الديمقراطيات ونزاهة وسائل الإعلام الموثوقة.

العصابات المحتالة تستخدم deepfakes في علاقاتهم المتقنة في الخامس من فبراير، تم الإبلاغ عن احتيال رائد من قبل قوة شرطة هونغ كونغ. وقعت شركة متعددة الجنسيات ضحية لاحتياط متقن حيث خُدع موظفها لتحويل 24 مليون يورو هائلة. تم خداع الموظف من خلال مقاطع فيديو deepfake فائقة الواقعية أثناء مكالمة فيديو، تضم الصور المتحركة التي تشبه زملائه، بما في ذلك مدير الشؤون المالية. بعد ذلك، قام المدير المالي الوهمي بتنفيذ عدة تحويلات نقدية احتيالية متعددة مباشرة إلى جيوب النصابين. تعمل السلطات بجدية على تجميع هذا السرقة المدهشة المدعومة بتقنية الذكاء الاصطناعي.

تلاعب الثقة الاحتيالية باستخدام deepfakes للصحفيين الفرنسيين توغل واحتلال الغش من قبل الذكاء الاصطناعي الإبداعي اجتاح فرنسا عندما دقت جرس الإنذار بشأن مخطط مماثل. تم تداول أشرطة فيديو مزورة لصحفيين فرنسيين معروفين مثل إليس لوسيه ولوران ديلاهوس على منصات التواصل الاجتماعي مثل فيسبوك وإنستجرام وتويتر. هذه الفيديوهات المزيفة زعمت الكشف عن طريقة سرية وربحية وسهلة لجني المال التي يفترض أنها أقرها بنك فرنسا. تم تعزيز الأكاذيب من خلال مواقع أخبار مزيفة، التي نسقت على غرار الجرائد الموثوقة، التي وجّهت في نهاية المطاف الضحايا نحو استثمارات العملات المشفرة.

أدانت الشخصيات الإعلامية والمنظمات الشهيرة بسرعة سوء استخدام صورهم، ولكن الضرر قد حدث. تم استدراج الأفراد، بما في ذلك امرأة في منتصف العمر أفادت بها لا ديبيشيه، لفقدان عشرات الآلاف من اليورو، بعد أن اعتمدوا على الرعاية المزيفة التي قدمها إليس لوسيه. تعتبر تكرار حالات مثل هذه مقلقة، كما شرح المحامي جوسلين زيغلر، الذي تعامل مع أكثر من 600 حالة شكوى منذ عام 2023، مع تكبد خسائر مالية كبيرة لعملائه.

التضليل الروسي يستغل deepfakes إلى جانب الاحتيال المالي، استغلت العمليات الروسية الراكدة الذكاء الاصطناعي deepfake لنشر التضليل الإعلامي، خاصة في سياق الحرب المستمرة في أوكرانيا. وقد قامت الجهات الروسية بتبني تكنولوجيا deepfake لنشر التضليل عبر منصات الرسائل مثل تليغرام وواتساب، بل تلفيق مطالبات حول حركات القوات الفرنسية، والتي يتم بعد ذلك تعزيزها من قبل الجهات الروسية لتعزيز تأثير الإعلام.

في حادثة حديثة أبرزها مجلة لو بوان، تم استخدام فيديو مزور يقلد الشكل البصري لقناة الأخبار الفرنسية BFMTV، للادعاء بمؤامرات لا أساس لها تشمل الصحفيين والرقابة الحكومية، بهدف تقويض الثقة في وسائل الإعلام المعتمدة.

أزمة ثقة الجمهور الفرنسي تتمثل الآثار الرئيسية لهذه الحملات التضليلية التي تقوم بتحريكها deepfakes في ازدهار خطير. كشف استطلاع للرأي أجرته إيبسوس وسوبرا ستيريا عن اتجاهات مثيرة للقلق بين الجمهور الفرنسي: 74% يقولون إنهم يواجهون بانتظام معلومات متعمدة، و77% يعتقدون أن انتشار المعلومات الخاطئة يقوض بشكل خطير الوظيفة الديمقراطية. بالإضافة إلى ذلك، يشعر 72% بالقلق بشأن النفوذ المحتمل الذي قد تمتلكه هذه المعلومات الخاطئة على العمليات الانتخابية الأوروبية.

ومع ذلك، بالرغم من تعبير المشاركين في الدراسة عن قلقهم، إلا أنهم يتوقعون أيضًا أنفسهم كفيات في التمييز بين الحقيقة والكذب، إذ يظن 74% منهم بقدرتهم على التمييز. ومع ذلك، تُقنع 66%، تحت تأثير سلسلة من البيانات الكاذبة، ببيان على الأقل واحد، مما يسلط الضوء على السلطة الخادعة لهذه التلاعبات المتقدمة في الذكاء الاصطناعي.

التحديات والجدل الرئيسية:
يثير deepfakes أسئلة أخلاقية وقانونية هامة، خاصة فيما يتعلق بالموافقة والخصوصية وانتشار المعلومات الخاطئة. مع زيادة توافر تكنولوجيا الذكاء الاصطناعي، يزداد الخوف من سوء الاستخدام، مما يثير قلقًا حول كيف يمكن للمجتمع حماية الأفراد والمؤسسات الديمقراطية من هذا الخداع. يكمن التحدي الرئيسي في الكشف عن deepfakes وتخفيف تأثيرها، بالإضافة إلى توعية الجمهور حول وجودها.

المزايا والعيوب:
تشمل المزايا القدرة على تطبيقات إيجابية لتقنية deepfake، مثل في صناعة الترفيه لإنتاج الأفلام، أو لاستعادة الصوت لأولئك الذين يعانون من العيوب الناجمة عن ضعف النطق، أو لإنشاء تجارب رقمية شخصية.

العيوب تشمل الاستخدام الخبيث لـ deepfakes الذي قد يؤدي إلى انتشار المعلومات الخاطئة، وتعديل السياسات، والاحتيال المالي، وتقويض الثقة العامة في وسائل الإعلام، وإتلاف السمعة الشخصية. بالإضافة إلى ذلك، مع تزايد تعقيد deepfakes، يزداد الحاجة إلى موارد للكشف عنها ومحاربتها بشكل فعال، مما يشكل تحديًا كبيرًا على حد سواء للأفراد والمؤسسات.

حقائق إضافية:
– يعمل الباحثون في مجال الذكاء الاصطناعي على تطوير طرق الكشف الأكثر تطوراً، بما في ذلك التحقق من سلسلة الكتل لصحة المحتوى الرقمي.
– تستكشف الجهات التشريعية في جميع أنحاء العالم الحاجة إلى قوانين جديدة لمكافحة الاستخدام الخبيث لتكنولوجيا deepfake.
– تصبح المبادرات التعليمية أكثر أهمية لمساعدة الجمهور على تطوير مهارات التفكير النقدي عند استهلاك المحتوى الرقمي.
– تقوم منصات التواصل الاجتماعي بتنفيذ سياسات وأدوات لتحديد وإزالة محتوى deepfake، ولكن هذا يظل تدابير استجابية وليس وقائية.

للمزيد من المعلومات حول deepfakes وتأثيراتها، يمكنك زيارة موقع الويب الرسمي لمجموعة متنوعة من المنظمات العاملة في مجال الذكاء الاصطناعي والسياسة الرقمية، مثل:

Austin AI Global
Royal Society for Public Health
Electronic Frontier Foundation
Center for Democracy & Technology

توفر هذه الروابط معلومات موثوقة حول الموضوع ورؤى أعمق في التحديات والتقدمات في مجال الذكاء الاصطناعي وdeepfakes.

The source of the article is from the blog revistatenerife.com

Privacy policy
Contact