Svarīgie tehnoloģiju uzņēmumi apņemas cīnīties pret AI radītu iejaukšanos vēlēšanās

Vairāki lieli tehnoloģiju uzņēmumi ir apvienojušies, lai risinātu augošo bažu par mākslīgā intelekta (AI) radītajiem deepfake attēliem, kas tiek izmantoti, lai traucētu demokrātiskām vēlēšanām. Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok un citu uzņēmumu vadītāji ir parakstījuši brīvprātīgu paktu, lai pieņemtu nepieciešamos piesardzības pasākumus, lai novērstu AI rīku ļaunprātīgu izmantošanu vēlēšanu laikā.

Vienošanās, kas tika paziņota Minhenes Drošības konferencē, ir vērsta uz AI radīto deepfake atklāšanu un atzīmēšanu, kas nodarīti ar nodomu maldināt vēlētājus. Tas fokusējas uz maldinoša AI saturu atklāšanu un atzīmēšanu nevis uz pilnīgu aizliegumu vai noņemšanu no platformām. Uzņēmumi apņemas dalīties labākajās praksēs un ātri reaģēt, kad šāds saturs sāk izplatīties.

Kaut arī šo vienošanos galvenokārt uztver simbolisku, tā risina nepieciešamību cīnīties pret arvien reālistiskākiem AI radītiem attēliem, audio un video, kas var mainīt politisko kandidātu izskatu, balss vai darbības, kā arī sniegt vēlētājiem viltus informāciju. Neskaidrās saistības un saistošu prasību trūkums ir piesaistījis dažādu uzņēmumu uzmanību šajā vienošanās jautājumā.

Daži aizstāvji izrāda neapmierinātību par vienošanās valodu, norādot, ka tā nenodrošina stiprākas garantijas. Tomēr Nick Clegg, Metas Globalo lietu prezidents, uzsvēra, ka katram uzņēmumam ir savas satura politikas un paktu nav paredzēti ieceļot visiem noteiktas prasmes. Uzņēmumi turpina strādāt, lai aizsargātu savus AI rīkus un apmācītu lietotājus par AI radītu saturu.

Viens no būtiskākajiem šīs vienošanās brīžiem ir tas, ka vairāk nekā 50 valstīs ir ieplānotas valsts vēlēšanas 2024. gadā. Jau ir vērojami gadījumi ar AI radītu vēlēšanu iejaukšanos, piemēram, AI robokontroles, kas imitē ASV prezidenta Džo Bidena balsi, lai novērstu cilvēkus no balsosanas. Vienošanās cenšas risināt šīs problēmas un veicināt pārredzamību, lai aizsargātu demokrātiskos procesus visā pasaulē.

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact