Portugāļu politiķa balss klonēta arī izmantota maldinošajās reklāmās.

Bezprecedenta notikumi Portugālē ir atklāti ekspertu no MediaLab, kas ir ISCTE-IUL komunikācijas zinātņu nodaļas daļa. Viņi atklāja, ka slavena politiska figūra Andrē Ventura savs balss pārliecinoši tika replicēta ar mākslīgo intelektu (AI), lai veicinātu maldinošu finanšu shēmu reklāmā.

Reklāma, ko redzēja gandrīz 17 000 portugāļu Facebook un Instagram, demonstrēja, kā Ventura mudināja investēt apšaubāmā peļņas gūšanas platformā. Lai gan reklāma šķita ar komerciālām motīvām, eksperti Gustavo Cardoso un José Moreno no MediaLab brīdināja par tās iespējamajām politiskajām sekām, it īpaši vēlēšanu laikā. Reklāma maldinoši ieteica, ka Ventura atbalsta apšaubāmu tiešsaistes bagātības veidošanas shēmu, kas nejauši varētu ietekmēt politiskos uzskatus.

MediaLab analītiķi arī atklāja citas maldinošas politiskas reklāmas, kas izmantoja attēlus, kas saistīti ar partiju Chega, tai skaitā gan Ventūru, gan citu kandidātu Antōnio Tanger Corrēa, pat viltotus Antōnio Costa paziņojumus. Šīs viltotas narratīvas, pēc ziņām, ir sasniegušas vairāk nekā 66 000 cilvēku Portugālē, taču reklamētāju identitāte paliek noslēpumā.

Publisko figūru izmantošana šajos krāpšanas gadījumos parasti kalpo diviem mērķiem: gūt peļņu no maldinātajiem un diskreditēt iesaistītās personības. Reklāmas, kas ved uz viltotiem klonotiem Correio da Manhã un Galp tīmekļa vietnēm, saturēja viltotas stāstus, kas ietver šīs politiskās personības, lai pievilinātu lasītājus.

MediaLab pētījums atklāja, ka satura izveidošana ir automatizēta, ar algoritmiem, kas identificē populāras sociālo mediju figūras, lai radītu maldinošus teksta narratīvus. José Moreno komentēja ironiju, ka Ventura kļūst par upuri savam ievērojamajam sociālo mediju klātbūtnei. Turklāt pūles izsekot reklāmu finansētājiem vai tīmekļa vietņu īpašniekiem noved pie dzirkstīm, jo anonīmie reģistrācijas ieraksti ved uz serveriem Kalifornijā un reģistrācijām Reykjavikā, Islandē.

Mākslīgā intelekta izmantošana, lai klonētu balss un radītu maldinošas reklāmas, rada nozīmīgas etiskas, juridiskas un politiskas problēmas. Notikums, kas skar Portugāles politisko līderi Andrē Ventūru, uzsver galvenās jautājumus un bažas šajā jomā:

Galvenie jautājumi un atbildes:
Kā sabiedrība var aizsargāties pret AI ļaunprātīgu izmantošanu, lai radītu maldinošu saturu? Ir nepieciešami noteikumi un uzlabotas identifikācijas tehnoloģijas, lai identificētu un apkarotu sintētisko saturu.
Kādas juridiskas sekas pastāv tiem, kas veido tādas krāpnieciskas reklāmas? Pašreizējie likumi var atšķirties atkarībā no valsts, taču pastāv augoša nepieciešamība pēc starptautiskiem juridiskiem pamatnoteikumiem, lai vajātu šādas digitālās īstenības un krāpnieciskas reklāmas.
Cik nozīmīga ir deepfake tehnoloģijas draudi politisko procesu integritātei? Draudi ir būtiski, jo tā var izkropļot vēlētāju uztveri un apdraudēt uzticību demokrātiskajām iestādēm.

Galvenās izaicinājumi vai kontroverzes:
Identificēšana un regulēšana: Uzticamu rīku izstrāde deepfake identificēšanai un regulējuma noteikšana, kas varētu sasniegt strauji attīstošās tehnoloģijas, ir sarežģīts uzdevums.
Brīvība runāt pret dezinformāciju: Līdzsvars starp brīvību runāt un nepieciešamību novērst dezinformācijas izplatīšanu ir strīdīga problēma.
Politiķu manipulācija: Pastāv bažas, ka deepfake tehnoloģiju var izmantot, lai manipulētu vēlēšanu rezultātus vai radītu politisku nemieru.

AI priekšrocības un trūkumi plašsaziņas līdzekļos:

Priekšrocības:
– AI var tikt izmantots inovatīvam saturam radīšanai, samazinot izmaksas un laiku plašsaziņas līdzekļu ražošanā.
– AI tehnoloģija var uzlabot saturu personificēšanu un pieejamību lietotājiem ar garīgām vai fiziskām attīstības traucējumiem.

Trūkumi:
– Tehnoloģiju var izmantot maldinoša un pārlietojoša satura veidošanai.
– AI radīts viltots saturs var izjaukt sabiedrības uzticību plašsaziņas līdzekļiem un iestādēm.
– Likumdošanas sistēmai var būt grūtības sekot līdzi sintētiskās medijas radītajiem izaicinājumiem.

Lai iegūtu papildinformāciju par AI un tās etiskajām sekām, saistītās saites parasti ietvertu prestižas organizācijas, piemēram, Sadarbības par AI (partnershiponai.org) vai akadēmiskās iestādes, piemēram, Stenfordas Cilvēka orientētās AI institūtu (hai.stanford.edu). Šīs saites piedāvā resursus par atbildīgu mākslīgā intelekta izmantošanu.

ISCTE-IUL MediaLab atklājumi norāda uz nekavējošu nepieciešamību pēc tehnoloģiskajiem un likumdošanas risinājumiem, lai aizsargātu pret deepfake tehnoloģijas ļaunprātīgu izmantošanu un saglabātu informācijas integritāti tiešsaistē.

Privacy policy
Contact