В областта на политиката нарастващата употреба на технологията за изкуствен интелект (ИИ) предизвиква широко разпространено безпокойство и тревожност по време на приближаващите се президентски избори в САЩ през 2024 година.
Няколко последни случая на манипулирана информация, генерирана от ИИ, породиха публичен дебат, с опасенията нарастващи, че това би могло да има значителни последици за предстоящите избори. Забележителни примери включват дипфейк видео, в който е впечатлено, че заместник-президентът Камала Харис, обработен клип на Президент Байдън, който използва езика с прецензура, и манипулирано изображение на Тръмп, съдържащо ареста му.
Експертите предупреждават, че технологията на ИИ може да се използва за заблуждаване на избирателите, подточване на техните вотни намерения или дори за пречест от гласуването по време на предстоящите избори, което може да влоши вече значителните обществени разделения в Съединените щати.
В отговор на тази нарастваща заплаха, гласовете все повече призовават големите технологични гиганти да наложат по-строги контроли. Макар че много компании намалиха модерирането на съдържание в социалните медии, нараства изискването за създаването на по-строги механизми за управление на ИИ преди изборите.
Миналата седмица изпълнителният директор на Tesla Илън Мъск сподели дипфейк видео на Камала Харис в своята платформа X, в което престъпна глас при липса на ясна етикетация като сатира. Мъск по-късно поясни, че това е било сатирично произведение. Изследователите се опасяват, че зрителите биха могли да си помислят, че това е автентичното самоиронизиране на Харис и критика на Байдън.
Използването на манипулирана информация, генерирана от ИИ, представлява нарастваща загриженост, като особено често се използват визуални и видео материали, целящи да подбудят гнев и да засилят партийните разделения в политиката. Въпреки че тревожно, по-широко разпространеният сценарий може да включва фабрикуване на съдържание, специално създадено, за да провокира скандал и да засили партийната поларизация.
Освен това се появиха случаи на използване на автоматизирани телефонни обаждания, генерирани от ИИ, като се преструват, че са политически фигури, за да отклонят избирателите от участие. Анкета показа, че над половината американци вярват, че манипулираната информация, генерирана от ИИ, ще повлияе на резултата от изборите през 2024 година, приблизително една трета изразява намалено доверие в резултатите от гласуването, както резултат от това.
Множество технологични компании потвърдиха разработката на системи за тагиране на съдържание, генерирано от ИИ. Освен това над 200 организации за защита на правата на човека призовават за налагане на спешни мерки за борба с манипулирания от ИИ информация, включително предложения за забрана на използването на дипфейк технология в политическата реклама.
Регулаторните органи предупреждават, че текущата онлайн среда е наситена с фалшива информация, което представлява риск от объркване на избирателите. Те проповядват, че платформените компании трябва да ускорят усъвършенстването на съответните политики, за да се справят с предизвикателствата, породени от дипфейковете и подобни проблеми.
За нарастващите притеснения, свързани с манипулираната от ИИ информация в политическия дискурс
Докато спектърът на манипулираната информация, генерирана от ИИ, нависва над политическия пейзаж, нови слоеве на комплексност и рискове продължават да се появяват. Заедно с вече отбелязаните случаи на злоупотреба с ИИ, възниква един критичен въпрос: Как можем да разграничим автентичното съдържание от генерираните от ИИ измами в областта на политическия дискурс?
Един от ключовите предизвикателства при борбата с манипулираната от ИИ информация е в бързо развиващата се съфистика на алгоритмите на ИИ, което прави откриването все по-трудно. Способността на ИИ да се адаптира и да учи от всяко разпространяване на лъжлива информация представлява голямо препятствие в борбата с измамното съдържание в политическите послания.
Едно от най-актуалните контроверзи, свързани с нарастването на антропогенната информация, генерирана от ИИ, е етичният дилема около регулирането на свободата на изразяване. Макар да има необходимост да бъде ограничено разпространението на лъжи и дипфейкове, съществуват опасения от потенциалното застрашаване на свободата на изразяване и правото на политически дискурс без излишно цензуриране.
Предимствата на ИИ в политическия дискурс могат да се намерят в неговия потенциал за оптимизиране на разпространението на информация и повишаване на ефективността на комуникацията. От анализа на големи данни до персонализирани послания, инструментите на ИИ могат да предложат ценни насоки и стратегии за взаимодействие. Въпреки това злоупотребата на ИИ за разпространение на лъжи представлява заплаха за доверието в демократичните институции и сее разногласия сред гражданите.
От друга страна, недостатъците на манипулираната от ИИ информация са значителни и обширни. От подкопаване на целостта на изборите до задълбочаване на обществените разделения, злонамерените цели зад такава информация имат силата да нарушат самата тъкан на демокрацията. Освен това психологическото въздействие върху лицата, изложени на лъжливи политически наративи, може да доведе до поларизация и разрушаване на гражданския дискурс.
За да заблуждаваме по-дълбоко във въпроса и да проучим възможни решения, читателите могат да се обърнат към уважаеми източници като Световен икономически форум и Институт Брукингс. Тези организации предлагат изчерпателни насоки и анализи за заплахите, породени от манипулираната от ИИ информация, и необходимостта от колаборативни усилия за решаване на този актуален проблем.