Voice cloned por Artificial Intelligence de Líder Político Português para Anúncios Enganosos

Nesvakidašnji događaj u Portugalu otkriven je od strane stručnjaka iz MediaLab-a, dijela odjela za komunikacijske znanosti na ISCTE-IUL. Otkriveno je da je André Ventura, istaknuta politička figura, imao svoj glas uvjerljivo reproduciran umjetnom inteligencijom (AI) kako bi promovirao obmanjujuću financijsku shemu u oglasu.

Oglas, viđen od strane gotovo 17.000 portugalskih građana na Facebooku i Instagramu, prikazivao je Venturu kako potiče ulaganja u sumnjivu platformu za stvaranje novca. Iako je oglas djelovao s komercijalnim motivima, stručnjaci Gustavo Cardoso i José Moreno iz MediaLab-a upozorili su na potencijalne političke posljedice, posebno tijekom izbora. Oglas je prijevarno implicirao da Ventura podržava upitne online sheme za stvaranje bogatstva, što bi nehotice moglo oblikovati političke percepcije.

Stručnjaci iz MediaLab-a također su otkrili druge obmanjujuće političke oglase koji koriste slike povezane s strankom Chega, uključujući i Venturu i drugog kandidata, Antónia Tanger Corrêu, te čak preoblikuju izjave Antónia Coste. Ove lažne naracije, navodno su dosegle više od 66.000 ljudi diljem Portugala, no identiteti oglašivača ostaju tajna.

Korištenje javnih ličnosti u ovim prijevarama obično služi dvostrukoj svrsi: profitiranju od zavaranih i diskreditiranju uključenih osoba. Oglasi koji preusmjeravaju na lažne klonirane web stranice Correio da Manhã i Galp prikazivali su izmišljene priče u kojima su uključene političke ličnosti kako bi privukli čitatelje.

Istraga MediaLab-a otkrila je da je stvaranje sadržaja automatizirano, pri čemu algoritmi identificiraju popularne ličnosti na društvenim medijima kako bi generirali obmanjujuće tekstualne naracije. José Moreno komentirao je ironiju što je Ventura postao žrtva svoje značajne prisutnosti na društvenim medijima. Nadalje, pokušaji praćenja financijera oglasa ili vlasnika web stranica vode u slijepu ulicu, pri čemu anonimni unos radija vodi do servera u Kaliforniji i registracija u Reykjaviku, Island.

Korištenje AI-a za kloniranje glasova i stvaranje obmanjujućih oglasa postavlja značajne etičke, pravne i političke izazove. Incident koji uključuje portugalskog političkog vođu Andréa Venturu ističe ključna pitanja i zabrinutosti u ovom području:

Ključna pitanja i odgovori:
Kako društvo može zaštititi sebe od zloupotrebe AI-a u stvaranju obmanjujućeg sadržaja? Potrebno je razviti propise i napredne tehnologije otkrivanja kako bi se identificirala i suzbila sintetička medijska produkcija.
Koje pravne posljedice postoje za kreatora takvih prijevara oglasa? Trenutno, zakoni se mogu razlikovati po zemljama, no postoji rastuća potreba za međunarodnim pravnim okvirima kako bi se procesuirali takvi slučajevi digitalne personifikacije i prijevare.
Kolika je prijetnja deepfake tehnologije integritetu političkih procesa? Prijetnja je značajna, budući da može iskriviti percepciju birača i podrivati povjerenje u demokratske institucije.

Ključni izazovi ili kontroverze:
Otkrivanje i regulacija: Razvijanje pouzdanih alata za otkrivanje deepfake-a i uspostavljanje regulacija koje mogu pratiti brzorastuće tehnologije izazovno je.
Sloboda govora nasuprot dezinformacija: Balansiranje zaštite slobode govora s potrebom za sprečavanjem širenja dezinformacija kontroverzno je pitanje.
Politčka manipualcija: Postoje zabrinutosti da bi deepfake tehnologija mogla biti korištena za manipulaciju ishodima izbora ili stvaranje političke nestabilnosti.

Prednosti i nedostaci AI-a u medijima:

Prednosti:
– AI se može koristiti za inovativno stvaranje sadržaja, smanjujući troškove i vrijeme u produkciji medija.
– AI tehnologija može unaprijediti personalizaciju i pristupačnost sadržaja za korisnike s invaliditetom.

Nedostaci:
– Tehnologija se može zloupotrijebiti za stvaranje obmanjujućeg sadržaja.
– AI-generirani lažni sadržaj može narušiti povjerenje javnosti u medije i institucije.
– Pravni sustavi mogu imati poteškoća u koraku s izazovima koje postavlja sintetički medij.

Za dodatne informacije o AI-u i njegovim etičkim implikacijama, povezani linkovi obično uključuju ugledne organizacije poput Partnerstva za AI (partnershiponai.org) ili akademske institucije poput Institut Stanford za AI usmjerenu prema čovjeku (hai.stanford.edu). Ovi linkovi pružaju resurse o odgovornom korištenju umjetne inteligencije.

Otkrića iz MediaLab-a ISCTE-IUL ističu hitnu potrebu za tehnološkim i zakonodavnim rješenjima kako bi se zaštitilo od zlonamjerne upotrebe deepfake tehnologije i očuvala integritet informacija online.

Privacy policy
Contact