الذكاء الاصطناعي والحرب ضد نشر الأخبار الكاذبة

الموسم الانتخابي لعام 2024 يستعد لأن يكون معركة بين الحقيقة والباطل. بينما تعمل الحملات بلا كلل للحصول على ميزة، هناك أداة واحدة يُتوقع أن تلعب دوراً كبيراً – الذكاء الاصطناعي. بينما كانت التشويشات السياسية جزءاً من الانتخابات منذ فترة طويلة، من المتوقع أن يصل استخدام الذكاء الاصطناعي لنشر المعلومات الكاذبة على نطاق واسع إلى مستويات جديدة.

مؤخرًا، تم تقديم مشروع القانون في ألاسكا رقم 358 لمكافحة استخدام الذكاء الاصطناعي في إنشاء هويات وهمية ونشر محتوى ضار. وفقًا للنائب مايك كرونك، الراعي الرئيسي للمشروع، فإن صعود البيئة التكنولوجية الراقية يستدعي وضع حواجز أمان لحماية أصوات الأفراد وصورهم. هذه الحواجز في غاية الأهمية لضمان أن كل ما نقوله ونقوم به في هذا الأرض الرقمية الجديدة يمكن الاعتماد عليه.

أحد الأمثلة على التأثير المحتمل للذكاء الاصطناعي هو إنشاء الفيديوهات المزورة بعمق. في عام 2022، تم إنتاج فيديو باستخدام إصدارات سابقة من تكنولوجيا الذكاء الاصطناعي بناءً على صورة واحدة. ويظهر هذا كيف يمكن للذكاء الاصطناعي بسهولة أن يتلاعب ويغير الواقع، مما يمحو الخطوط بين الحقيقة والخيال.

على مستوى العالم، أقر التشريع الواشنطني قانونًا جديدًا يستهدف بشكل خاص الفيديوهات المزورة في الإعلانات السياسية. يركز القانون على “الوسائط الاصطناعية”، مشيرًا إلى التسجيلات الصوتية أو المرئية التي تم تلاعبها بشكل متعمد لإنشاء تمثيل زائف لشخص ما. من خلال تحديد حدود ما هو مقبول، يهدف التشريع إلى كبح انتشار المحتوى المتلاعب به، ضمانًا على عدم إيهام المشاهدين.

ومع ذلك، فإن رسم الحدود بين السخرية العادية والخداع العمد ليس أمرًا سهلاً. يعتمد التشريع على مفهوم “النية في إلحاق الضرر”، معيار ذاتي يتطلب تقييما دقيقًا. قارن ديف ستانكليف، عضو في مكتب النائب كرونك، الوضع بالقيود على الحق في حرية التعبير. تمامًا كما لا يمكن للشخص أن يصرخ بكذبة “حريق” في مسرح مزدحم، فإنه لا يمكن للشخص أن يحرف بشكل خادع شبهة وكلمات السياسيين أو الشخصيات العامة دون عواقب.

النائب أندرو جراي، مضيف بودكاست، أبرز القوة الدافعة للتعديل، حتى بدون استخدام الذكاء الاصطناعي. من خلال إعادة ترتيب الكلمات أو تغيير عبارة بشكل طفيف، يمكن أن يتم تحريف المعنى المقصود، مما قد يؤدي إلى الارتباك والتشويش. لذلك، من الضروري أن يعالج التشريع ليس فقط الفيديوهات المزورة بواسطة الذكاء الاصطناعي، ولكن أيضًا المشكلة الأوسع للمحتوى المضلل.

يمكن فحص مشروع القانون 358، الذي يواجه التحديات التي يطرحها الذكاء الاصطناعي في نشر المعلومات الخاطئة، بتفصيل عبر هذا الرابط. للراغبين في الحصول على مزيد من الإضاءة حول نقاشات اللجنة التشريعية، يمكنهم الاستماع إليها عبر هذا الرابط.

س: ما هو الذكاء الاصطناعي؟
ج: يُشير الذكاء الاصطناعي، المعروف اختصارًا بـ AI، إلى محاكاة الذكاء البشري في الآلات التي تم برمجتها للتفكير والتعلم. يمكن لهذا الذكاء جعل الحواسب تقوم بمهام تتطلب تقليديًا الذكاء البشري، مثل التعرف على الكلام، حل المشكلات، واتخاذ القرارات.

س: ما هي الفيديوهات المزورة (Deep Fakes)؟
ج: الفيديوهات المزورة أو Deep Fakes هي تسجيلات فيديو أو صوتية واقعية والتي تم تلاعبها باستخدام خوارزميات الذكاء الاصطناعي. يمكن أن تجعل هذه الإبداعات يبدو وكأن شخصًا ما قال أو فعل شيئًا لم يفعله، مما يؤدي إلى عواقب ضارة محتملة مثل نشر المعلومات الكاذبة أو تدمير سمعة شخص.

س: ما الغرض من مشروع القانون رقم 358؟
ج: يهدف مشروع القانون رقم 358 إلى معالجة استخدام الذكاء الاصطناعي في إنشاء هويات مزيفة ونشر محتوى ضار. يسعى إلى إنشاء حواجز قانونية لحماية أصوات الأفراد وصورهم في بيئة تكنولوجية رفيعة المستوى.

س: كيف يحدد التشريع مصطلح “النية في إلحاق الضرر”؟
ج: “النية في إلحاق الضرر” هو معيار ذاتي يشكل أساس التشريع. يتطلب تحديد ما إذا كان تلاعب صورة أو كلام الشخص تم بنية خبيثة للإيهام أو إحداث الضرر.

س: هل يمكن إنشاء الفيديوهات المزورة بدون استخدام الذكاء الاصطناعي؟
ج: نعم، يمكن إنشاء الفيديوهات المزورة بدون استخدام الذكاء الاصطناعي. تقنيات التحرير الأساسية، مثل إعادة ترتيب الكلمات أو إدراج النفيات، يمكن أن تتلاعب أيضًا بمعنى البيانات أو الخطابات. ومع ذلك، يعزز الذكاء الاصطناعي إمكانات التلاعب، مما يجعله أسهل وأكثر تطورًا.

س: كيف يمكنني معرفة المزيد عن مشروع القانون رقم 358؟
ج: للحصول على مزيد من المعلومات حول مشروع القانون رقم 358 وأحكامه، يمكنك زيارة الموقع الرسمي للجهة التشريعية المسؤولة عن المشروع.

Privacy policy
Contact