تطفو على السطح: زيادة الأحتيال المدعوم بالذكاء الاصطناعي

في السنوات الأخيرة، أصبحت الأحتيالات عبر الإنترنت أكثر تطوراً، حيث يبحث المحتالون باستمرار عن طرق جديدة لخداع الأفراد والمؤسسات بطرق مبتكرة. واحدة من الاتجاهات المثيرة للقلق هي استخدام أدوات الذكاء الاصطناعي لجعل هذه الأحتيالات تبدو أكثر مصداقية وإقناعًا.

أحد الحالات التي تم الإبلاغ عنها حديثًا من قبل 404Media، الناشر لموقع Tedium، يلقي الضوء على هذه المشكلة المتزايدة. تلقوا “إشعار بانتهاك حقوق النشر” من مكتب محاماة يدعى Commonwealth Legal، مدعيًا ملكية صورة مستخدمة على موقعهم. طالب المُرسل بإضافة رابط إلى موقع ويب بعنوان “tech4gods” تحت الصورة التي يُزعم سرقتها.

وعند فحص أعمق، اكتشف Tedium أن موقع ويب المحاماة احتوى على صور لمحاميهم تم إنشاؤها بواسطة الذكاء الاصطناعي. هذه الصور التي تم إنشاؤها بالذكاء الاصطناعي كانت تظهر نظرة فارغة مميزة في العيون، علامة فارقة للصور التي تم إنشاؤها بشكل اصطناعي. أدى البحث العكسي في الصور إلى عنوان موقع الويب generated.photos، الذي يختص في إنشاء “صور نماذج فريدة من التفوق وخالية من القلق… من البداية” باستخدام الذكاء الاصطناعي.

كشفت التحقيقات الأخرى أن العنوان المُدرج لمكتب المحاماة، المُفترض أنه في الطابق الرابع من مبنى، في الواقع أشار إلى هيكل بطابق واحد على Google Street View. هذه التناقضات أثارت شكوكًا حول شرعية مكتب المحاماة ومطالبه.

تُعد هذه الحادثة تذكيرًا مؤلمًا بالمخاطر المحتملة التي تمثلها الأحتيالات المدعومة بالذكاء الاصطناعي. بينما يمكن أن تكون محركات البحث العكسية للصور مفيدة في اكتشاف المطالبات الاحتيالية، إلا أنها ليست خالية من الأخطاء. في السنوات الأخيرة، زادت ظاهرة deepfakes طبقة أخرى من التعقيد لهذه المشكلة. يُستخدم deepfakes بشكل متزايد من قبل الجهات الخبيثة لإنشاء مقاطع فيديو وصوتية مقنعة، ليس فقط لخداع الأفراد، وإنما لنشر المعلومات الخاطئة عبر الإنترنت أيضًا.

مع استمرار تقدم التكنولوجيا، من الضروري للأفراد والمؤسسات البقاء حذرين ضد مثل هذه الأحتيالات. إليك بعض الأسئلة المتكررة لمساعدتك على التنقل في هذا المنظر المتطور للخداع المدعوم بالذكاء الاصطناعي:

أسئلة مكررة

ما هي الأحتيالات المدعومة بالذكاء الاصطناعي؟
الأحتيالات المدعومة بالذكاء الاصطناعي تشير إلى الأنشطة الاحتيالية التي يتم فيها استخدام أدوات الذكاء الاصطناعي لجعل الأحتيالات تبدو أكثر حقيقة ومعقولية. يمكن لهذه الأدوات إنشاء صور وفيديوهات وصوتيات مدعومة بالذكاء الاصطناعي يمكن أن تخدع الأفراد والمؤسسات.

كيف يمكنني حماية نفسي من الأحتيالات المدعومة بالذكاء الاصطناعي؟
– كن حذرًا عند استلام رسائل البريد الإلكتروني أو الرسائل التي تدعي انتهاك حقوق النشر أو الطلب على اتخاذ إجراء فوري.
– أجري عمليات بحث عكسية للصور للتحقق من صحة الصور أو الوسائط المُشار إليها.
– قم بتعليم نفسك حول أحدث التكنولوجيا الخاصة بالذكاء الاصطناعي والآثار المحتملة في سياق الأحتيال والخداع.

ما دور الdeepfakes في الأحتيالات المدعومة بالذكاء الاصطناعي؟
deepfakes هي شكل معين من الغش المدعوم بالذكاء الاصطناعي ينطوي على تلاعب بمحتوى الصوت والرؤية لإنشاء وسائط مزيفة ذات واقعية شديدة. يمكن استخدام هذه الأدوات لتقمص الأفراد أو نشر معلومات خاطئة، مما يُسهم في المنظر العام للأحتيالات المدعومة بالذكاء الاصطناعي.

ما الخطوات التي تُتخذ لمكافحة الأحتيالات المدعومة بالذكاء الاصطناعي؟
تُبذل جهود لتطوير أساليب وتقنيات كشف متقدمة لتحديد ومكافحة الأحتيالات المدعومة بالذكاء الاصطناعي. تستثمر مختلف المؤسسات، الباحثون والشركات التكنولوجية في تطوير أدوات وخوارزميات لكشف الdeepfakes وغيرها من أشكال الخداع المدعومة بالذكاء الاصطناعي.

في هذا العصر من التكنولوجيا المتقدمة، يُعتبر البقاء على دراية واليقظة أمرًا حيويًا. من خلال التوعية بالمخاطر المحتملة واعتماد الإجراءات الوقائية، يمكننا حماية أنفسنا ومؤسساتنا بشكل أفضل من الوقوع ضحية للأحتيالات المدعومة بالذكاء الاصطناعي. تذكر بأن تثق ولكن تحقق، وابقى يقظًا في هذا المنظر الدائم للخداع والاحتيال.

المصادر:
ReverseImageSearch.com
AI Lab Journal

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact