Lielās tehnoloģiju kompānijas apvienojas, lai aizsargātu demokrātiskās vēlēšanas no mākslīgā intelekta dezinformācijas

Lielo tehnoloģiju kompānijus ir vienojušās brīvprātīgi pieņemt piesardzības pasākumus, lai cīnītos pret mākslīgā intelekta radīto dezinformāciju demokrātiskās vēlēšanās. Pakts tika paziņots Minhenes drošības konferencē, kurā Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI un TikTok izpildnieki pulcējās, lai prezentētu jaunu ietvaru, kas adresē mākslīgā intelekta radītos deepfekus, kuri mērķē uz vēlētāju maldināšanu. Turklāt divpadsmit citi uzņēmumi, tostarp Elon Muska “X”, ir arī apņēmušies atbalstīt šo iniciatīvu.

Lai gan šis nolīgums ir lielā mērā simbolisks, tas koncentrējas uz cīņu pret arvien reālistiskākajiem mākslīgā intelekta radītajiem attēliem, audio un video, kas manipulē politisko kandidātu un vēlēšanu iestāžu izskatu, balsi vai darbības. Tā vietā, lai aizliegtu vai iznīcinātu deepfekus, iesaistītie uzņēmumi apņemas ieviest metodes, lai atklātu un apzīmogotu maldinošu mākslīgo intelektu saturu savos tīmekļa vietnēs. Viņi nāks klajā ar labākajām praksēm un reaģēs ātri un attiecīgi, kad šāds saturs sāk izplatīties.

Šo tehnoloģiju gigantu apņemšanās atzīst vajadzību pēc sadarbības pasākumiem pret mākslīgā intelekta tehnoloģijas iespējamo ļaunprātīgu izmantošanu vēlēšanās. Meta globālo lietu prezidents Nīks Cleģs uzsver, ka tas nav mēģinājums uzspiest vienotību visiem uzņēmumiem, jo katram ir savs satura politikas kopums. Tomēr pro-demokrātijas aktivisti un uzraudzības iestādes ir paudušas bažas par apņemšanās neskaidrību un saistošo prasību trūkumu.

Nolīgums sakrīt ar būtisku gadu globālajai demokrātijai, kad vairāk nekā 50 valstis plāno rīkot nacionālās vēlēšanas 2024. gadā. Agrāk bijuši notikumi ar mākslīgā intelekta radītu iejaukšanos vēlēšanās, piemēram, AI robokolus, kas imitē ASV prezidenta Džo Baidena balsi, un AI radītu skaņu ierakstus, kas izdara kandidātu personificēšanu, jau ir parādījušies. Politiki un kampaņu komitejas ir eksperimentējušas arī ar AI tehnoloģijām, uzdodot nepieciešamību pēc proaktīviem pasākumiem.

Pārredzamība un izglītība ir nolīguma galvenie elementi. Platformas centīsies būt pārredzamas par savām politikām attiecībā uz maldinošu mākslīgo intelektu vēlēšanu saturu, vienlaikus strādājot pie sabiedrības izglītošanas, kā atpazīt un izvairīties no mākslīgi radītajiem viltus. Lai gan dažas sociālo mediju platformas jau ir ieviesušas drošības pasākumus attiecībā uz ģeneratīvajiem AI rīkiem un strādā, lai identificētu un apzīmogotu AI radītu saturu, regulētāji prasa lielāku rīcību.

Ir būtiski risināt AI radītās dezinformācijas izplatību, taču eksperti arī uzsver pastāvošo apdraudējumu, ko rada lētākas un vienkāršākas dezinformācijas formas. Lai gan šis brīvprātīgais nolīgums ir pozitīvs solis, ASV trūkst federālas likumdošanas, kas regulē AI politikā, kas liek lielāku atbildību uz mākslīgā intelekta uzņēmumiem pašiem sevi regulēt. Lai arī tehnoloģijai turpina attīstīties, lielo tehnoloģiju kompāniju sadarbība un apņemšanās spēlēs būtisku lomu demokrātisku vēlēšanu integritātes nodrošināšanā globāli.

Bieži uzdotie jautājumi:
1. Kāds ir nolīguma mērķis, kas tika paziņots Minhenes drošības konferencē?
Nolīguma mērķis ir cīnīties pret mākslīgā intelekta radīto dezinformāciju demokrātiskajās vēlēšanās.

2. Kuras lielās tehnoloģiju kompānijas ir apņēmušās pieņemt piesardzības pasākumus?
Lielās tehnoloģiju kompānijas, kas ir apņēmušās pieņemt piesardzības pasākumus, ietver Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI un TikTok.

3. Uz ko fokusējas nolīgums?
Nolīgums fokusējas uz cīņu pret arvien reālistiskākajiem mākslīgā intelekta radītajiem attēliem, audio un video, kas manipulē politisko kandidātu un vēlēšanu iestāžu izskatu, balsi vai darbības.

4. Kādu saistību iesaistītās kompānijas uzņemas attiecībā uz deepfekiem?
Nevis aizliedzot vai noņemot deepfekus, iesaistītās kompānijas apņemas ieviest metodes, lai atklātu un apzīmogotu maldinošu mākslīgā intelekta saturu savās platformās.

5. Kāpēc pro-demokrātijas aktivisti un uzraudzības iestādes ir paikušas bažas?
Pro-demokrātijas aktivisti un uzraudzības iestādes ir paudušas bažas par apņemšanās neskaidrību un saistošo prasību trūkumu.

6. Kāda ir pārredzamības un izglītības svarīgums nolīgumā?
Pārredzamība un izglītība ir nolīguma galvenie elementi. Platformas centīsies būt pārredzamas par savām politikām attiecībā uz maldinošu mākslīgo intelektu vēlēšanu saturu, vienlaikus strādājot pie sabiedrības izglītošanas, kā atpazīt un izvairīties no mākslīgi radītajiem viltus.

7. Kādu citu apdraudējumu eksperti uzsvēra papildus AI radītai dezinformācijai?
Eksperti uzsvēra pastāvošo apdraudējumu, ko rada lētākas un vienkāšākas dezinformācijas formas.

8. Vai ASV pastāv federāla likumdošana, kas regulē AI politikā?
Nē, pašlaik ASV trūkst federālas likumdošanas, kas regulē AI politikā.

9. Kādu lomu lielās tehnoloģiju kompānijas spēlē, nodrošinot demokrātisku vēlēšanu integritāti?
Lielo tehnoloģiju kompāniju sadarbība un apņemšanās spēlēs būtisku lomu, nodrošinot demokrātisku vēlēšanu integritāti globāli.

The source of the article is from the blog kewauneecomet.com

Privacy policy
Contact