Гласуванията през 2024 г. предизвикват рекордни рискове за сигурността

Под заглавието „Гласуванията и разпространението на дезинформация: Рисковете за изборите през 2024 г.“ Великобритания се подготвя за местни и генерални избори тази година, експертите по киберсигурност предупреждават, че държавно осигурените кибер атаки и кампании на дезинформация ще представляват значителни рискове. Използването на изкуствен интелект (AI) в тези злонамерени дейности се очаква да бъде особено обезпокоително. Предстоящите избори ще се проведат срещу фон на въпроси като нарастващите разходи за проживяване и напрежението в имиграционната сфера, което допълнително усложнява политическия пейзаж.

Броят на киберсигурността представляват най-голям риск преди деня на изборите. Подобни случаи са се случвали в миналото. Изборите за президент на САЩ през 2016 г. и референдумът за Brexit в Обединеното кралство бяха засегнати от дезинформация, разпространявана чрез социални медии. Групи, асоциирани с държави и свързани с Русия, бяха обвинени за тези смущения. Оттогава държавните действащите лица са станали все по-мастърски на манипулирането на резултатите от изборите чрез редовни атаки в различни държави.

Наскоро Великобритания обвини за опит за достъп до имейлите на законодателите китайска хакерска група, известна като APT 31, асоциирана с държавата. Въпреки че опитите бяха неуспешни, инцидентът подчерта възрастващата загриженост от дейности на държавните субспонсорирани хакери. В отговор на твърденията за хакерска атака Лондон наложи санкции на китайски граждани и технологична компания, вярвана да е свързана с APT 31. САЩ, Австралия и Нова Зеландия също въведоха свои санкции. Въпреки това Китай отхвърли тези обвинения.

Един от основните киберсигурност предизвикателства за предстоящите избори е използването на AI за разпространението на дезинформация. Експертите предвиждат, че кампаниите на дезинформация ще бъдат подсилени тази година, поради нарастващата достъпност на AI инструментите. Синтетични изображения, видеа и аудио, често наричани „deep fakes“, вероятно ще са широко разпространени, тъй като хората получават по-голям достъп до създаване на съдържание, генерирано от AI. Злонамерени дейци, включително държави и киберпрестъпници, се очаква да използват AI за стартиране на атаки, базирани на идентичността, като фишинг, социален инженеринг, рансъмуер и компрометиране на веригата на доставките, като цел кампании, персонал, свързани с изборите институции. Приращването на AI и бот-движещото съдържание ще допринесе също за разпространението на дезинформация в мащаб значително по-голям от предходни изборни цикли.

Съобществото за киберсигурност подчертава необходимостта от повишен алертност и международно сътрудничество, за да се справи с този вид AI-генерирана дезинформация. Адам Майерс, експерт по контрабандни операции, идентифицира AI-генерираната дезинформация като топ риск за гласуванията през 2024 г. Той предупреждава, че враждебни държави като Китай, Русия и Иран могат да използват AI и deep fakes за създаване на убедителни истории, които използват потвърждаващи предразсъдъци, представлявайки сериозна заплаха за демократичния процес.

AI представя предизвикателство и във формата на намаляване на бариерите за киберпрестъпниците. Измамни имейли, които използват AI инструменти за създаване на убедителни съобщения, вече са се появили. Хакерите също използват AI модели, обучени върху данни от социални мрежи, за стартиране на по-персонализирани атаки. Текущата ситуация на фалшиви AI-генерирани аудио записи, подобни на този, насочили се към Кийр Стармър, лидера на Лейбър партията на опозицията, през октомври 2023 г., подчертава растящата загриженост около deepfakes и тяхното въздействие върху изборите.

С развитието на технологията на deep fake, технологичните компании се ангажират в продължителна борба за борба с нейното злоупотреба. AI вече се използва за откриване на deepfakes, но линиите между реалността и манипулацията се размиват все повече. Някои индикации, като разликите, произтичащи от грешките на AI, могат да помогнат за идентификацията на манипулираното съдържание. Например, в AI-генерирано видео, ако лъжичката изчезне внезапно, това може да указва на злоупотреба.

DUMMY_SOURCE

ЧЗВ (Често задавани въпроси)

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact