Използването на Изкуствено Интелигентно Съдържание от страна на Китай представлява Заплаха за Глобални Избори

Във вълнуващо разкритие, Майкрософт издаде предупреждение, че Китай се подготвя да наруши предстоящите избори в Индия, Съединените щати и Южна Корея, като използва изкуствено интелигентно (ИИ) генерирано съдържание. Това предупреждение идва след като Китай проведе пробна сесия по време на президентските избори в Тайван, където ИИ беше използван, за да повлияе на резултата от изборите.

С над 64 държави, заедно с Европейския съюз, които се очаква да проведат национални избори, обхващайки почти половината от глобалното население, отборът за заплахи на Майкрософт идентифицира китайски групи, подкрепяни от държавата, заедно с участието на Северна Корея, като значителни заплахи за няколко избори, насрочени за 2024 година. Основната цел на тези групи е да използват ИИ-генерирано съдържание чрез платформи за социални мрежи, за да насочат общественото мнение в полза на техните интереси по време на тези избори.

Използването на ИИ технология в политическата реклама представлява значителна заплаха от измамно и лъжливо съдържание, включително deepfakes и фалшифицирани събития. Тези тактики имат за цел да заблудят обществото относно изявленията на кандидатите, техните позиции по различни въпроси и дори автентичността на определени събития. Ако тези манипулативни опити останат без надзор, те имат потенциал да подкопаят способността на избирателите да вземат добре основани решения.

И докато незабавният ефект от ИИ-генерираното съдържание остава относително нисък, Майкрософт предупреждава за нарастващото експериментиране, което се извършва от Китай, което може да стане по-ефективно с времето. Предишният опит на Китай да повлияе на избирателите в Тайван включваше разпространението на ИИ-генерирана дезинформация, отбелязвайки първия случай на група, подкрепена от държавата, използваща тактики в чуждестранни избори. По време на Тайванските избори, група, подкрепяна от Пекин, известна като Storm 1376, разпространяваше ИИ-генерирано съдържание, включително фалшиви аудио препоръки и мемета, насочени към дискредитирането на определени кандидати и влиянието на възгледите на избирателите. Подобни тактики са били използвани от Иран, включително използването на ИИ-генерирани телевизионни водещи.

Китай също извършва кампании за влияние в Съединените щати, използвайки платформите за социални мрежи, за да зададе разделителни въпроси и да събира информация за ключовите избирателни демографии. Въпреки че има малко доказателства, че тези усилия са били успешни в промяна на мнението, има увеличено използване на китайско ИИ-генерирано съдържание, което се опитва да повлияе и да сее разделение по различни теми, включително скорошни събития като спукването на влак в Кентъки, горските пожари в Мауи, изхвърлянето на японската ядрена отпадъчна вода, употребата на наркотици в САЩ, имиграционните политики и расовите напрежения в страната.

Заплахата от ИИ-генерираното съдържание се разпространя извън Съединените щати и Тайван. Преди изборите за демократични предварителни избори в Ню Хампшир през 2024 г., един телефонен обаждане, генерирано от ИИ, имитира гласа на президента Джо Байдън и съветва избирателите да не участват в гласуването, понеже невярно да се подразбира, че самият президент Байдън е одобрил тази директива. Въпреки че няма доказателства за китайско участие в този конкретен случай, той подчертава колко ИИ представлява пряка заплаха за демократичните практики.

Преди да изготвим FAQ, ще продължим след пауза.

The source of the article is from the blog papodemusica.com

Privacy policy
Contact