Развитие на технологиите за дълбоки фалшификации: предизвикателство за изборите или инструмент за добро?

С приближаването на изборния сезон в Индия се увеличават загриженостите от влиянието на технологиите за изкуствен интелект (AI) дълбоки фалшификации върху политическите кампании. Дълбоките фалшификации, които са изкуствено създадени и реалистични изображения и видеа, стават все по-растящи и изтънчени през последните години. Те могат да манипулират изказванията и външния вид на политиците, създавайки чувство на съмнение и недоверие сред избирателите.

С наличието на евтини мобилни данни и висока проникваемост на смартфоните в Индия, се притеснява, че дълбоките фалшификации биха могли да се разпространят чрез платформи като WhatsApp, влияейки на решенията на избирателите или ги карайки да се замислят за значимостта на техните гласове.

За да се адресират тези загрижености, Индийското министерство на електрониката и информационните технологии недавно издаде насоки към компаниите за генеративен ИИ. Насоките посочват, че ако тези компании предлагат ИИ системи, които все още се тестват или са ненадеждни, те трябва да получат ясно разрешение от правителството и да маркират изходите си съответно. Целта е да се предотврати генерирането на незаконно или лъжливо съдържание, което би могло да подкопае изборния процес.

Въпреки това тези насоки се сблъскват със сериозни критики както от национални, така и от международни участници в областта на ИИ. Много аргументират, че това пречи на иновациите и свободата на изразяване. Министър на държавата по електрониката и информационните технологии, Раджив Чандразекар, поясни, че насоките не се отнасят до стартъпите, което предостави малко облекчение. Въпреки това се запазват загриженостите за злоупотребата с технологиите на ИИ.

В отговор на тези загрижености, Сентил Наягам, съосновател на стартъпа Muonium AI, създаде „Манифест за коалицията за етичния ИИ“ предстоящите избори. Този манифест цели да гарантира, че технологиите на ИИ се използват отговорно и не манипулират изборите, разпространяват dezавестно съдържание или развалят доверието на обществеността в политическите институции. Наягам контактува около 30 компании, при които две вече са подписали манифеста, а три са в процес на подписване.

Не всички създания с ИИ са зловредни дълбоки фалшификации, предназначени да белязат опонентите. Някои приложения, като персонализираните интерактивни телефонни обаждания, служат като новизми, вместо като заплахи за избирателната честност. Например политическите партии в Индия са използвали синтезирани гласове, за да изпратят предварително записани съобщения, адресирани към отделни избиратели по име. Въпреки че тези приложения може да изглеждат безобидни, важно е да се има предвид потенциала за злоупотреба.

Дивйендра Сингх Джадун, създател на ИИ, известен като The Indian Deepfaker, е обучил гласови и видео модели на ИИ, за да разпространява персонализирани съобщения за политическите партии. Той твърди, че работи по „етични“ създания с ИИ, като авторизирани преводи и възкръщения на починали лидери, с одобрението на партията. Въпреки това той признава, че с развитието на технологията за дълбоко фалшифициране, партиите все повече произвеждат своите собствени дълбоки фалшификации, което прави по-лесно разпространението на dezавестно съдържание.

Експертите в областта, като Карен Ребело от уебсайта за проверка на факти BOOM, отбелязват значително увеличение на дълбоките фалшификации с ИИ по време на последните законодателни избори в Индия. Технологията става по-евтина и достъпна, позволявайки на всеки с лаптоп да създават дълбоки фалшификации. Това подиграва загрижености относно потенциалното влияние на дълбоките фалшификации върху честността и прозрачността на изборите.

Въпреки че дълбоките фалшификации с ИИ са предмет на загриженост, те също имат потенциала да бъдат използвани за добро. Технологиите на ИИ могат да играят положителна роля за подобряване на демократичния процес, като подобряват достъпността за хората с увреждания или предоставят точни преводи на политически изказвания. Ключът е в осигуряването, че тези технологии се използват етично и отговорно.

Докато Индия се подготвя за предстоящите избори, е от съществено значение за правителството, компаниите за ИИ и политическите партии да работят заедно, за да установят ясни насоки и правила за използването на ИИ в политическите кампании. Чрез насърчаване на прозрачността, отговорността и интегритета на избирателния процес, Индия може да използва потенциала на ИИ, докато се ограничават рисковете, които тя представлява.

Потенциалното влияние и загриженостите около дълбоките фалшификации в политическите кампании не се ограничават само до Индия. Използването на технологията на дълбоките фалшификации се превръща в глобален проблем, с последствия за различни индустрии и пазари.

Индустрията на дълбоките фалшификации е на път за значителен растеж в близките години. Според доклад на MarketsandMarkets, световният пазар на дълбоките фалшификации се очаква да достигне стойност от 304,3 милиона долара до 2026 г., като нараства със средно годишно увеличение от 37,3% от 2021 г. до 2026 г. Този растеж на пазара може да се дължи на увеличенията в използването на технологията на ИИ и повишените познания за дълбоките фалшификации.

Потенциалните влияния на дълбоките фалшификации надхвърлят политическите кампании. Индустрии като забавлението, киберсигурността и журналистиката също се сблъскват с предизвикателства, свързани с технологиите за дълбоки фалшификации. В забавлението, например, дълбоките фалшификации могат да се използват за манипулиране на външния вид на актьорите или за създаване на реалистични виртуални аватари. Това поражда въпроси относно личните данни, правата върху интелектуалната собственост и автентичността на съдържанието.

В сферата на киберсигурността дълбоките фалшификации представляват сериозна заплаха. Фалшивите видеоклипове и изображения могат да се използват за измамяване на лица или показване на неоторизиран достъп до системи. Киберпрестъпниците могат да злоупотребят с дъл…

Към използваните източници спадат:
– MarketsandMarkets Доклад за пазара на дълбоките фалшификации
– Откриване на дълбоките фалшификации

The source of the article is from the blog macnifico.pt

Privacy policy
Contact