Naslov: Meredith Whittaker iz Signal Foundation zagovarja zasebnost v luči pomislekov glede umetne inteligence.

V četrtek, 23. maja, je Meredith Whittaker, vodja šifrirane aplikacije za sporočanje Signal, delila svoje pomisleke o množičnem nadzoru in tehnologijah umetne inteligence (AI). Med pogovorom s francosko tiskovno agencijo AFP na konferenci VivaTech v Parizu je poudarila, da je AI, ki ga hvalijo v tehnološki industriji, globoko zakoreninjen v praksah množičnega nadzora.

Med razpravo o povezavi med nadzorom in AI je Whittaker opozorila, da tehnologije AI cvetijo na velikih naborih podatkov, ki so stranski proizvodi poslovnega modela množičnega nadzora, ki izvira iz 90. let prejšnjega stoletja v Združenih državah Amerike. Ta model je od takrat postal gonilna gospodarska sila tehnološkega sektorja.

Whittaker, ki je tudi predsednica Signal Foundation, je poudarila nevarnosti, ki jih predstavljajo sistemi AI, ki obdelujejo in ustvarjajo velike količine podatkov. Ti sistemi imajo moč kategorizirati in oblikovati naše življenje na načine, ki bi morali vzpostaviti enako zaskrbljenost. Poudarila je, da nekaj nadzornih gigantov večinoma nadzoruje industrijo, ki pogosto deluje brez odgovornosti.

Kot nekdanja raziskovalna profesorica na Univerzi v New Yorku in zaposlena v Googlu, kjer je organizirala stavko zaposlenih zaradi delovnih pogojev, Whittaker dobro pozna etične posledice tehnologije. Zagovornica je zasebnosti in nasprotuje poslovnim modelom, ki temeljijo na izkoriščanju osebnih podatkov.

Poleg tega je Whittaker poudarila neenakost moči, kjer je večina ljudi izpostavljena uporabi AI s strani delodajalcev, vlad in policijskih organov, namesto da bi bili aktivni uporabniki. Kritizirala je podjetja AI, ki trdijo, da prispevajo k reševanju podnebne krize, obenem pa sprejemajo sredstva od podjetij fosilnih goriv in dovoljujejo, da se njihova tehnologija uporablja za izkoriščanje novih virov.

Whittaker je zaključila s klicem Evropi, naj ne le tekmuje s podjetji AI iz Amerike, temveč si predstavlja tehnologijo, ki služi bolj demokratičnim in pluralističnim družbam. Kot vodilna osebnost v Signal Foundation še naprej zagovarja zasebnost in etične vidike v tehnološki industriji.

Pomembna vprašanja:

1. Kaj so etične skrbi v zvezi z AI in množičnim nadzorom?
2. Kako tehnologije AI temeljijo na velikih naborih podatkov in kakšne so posledice?
3. Kakšna je vloga Signal Foundation pri zagovarjanju zasebnosti?
4. Kako neenakost moči vpliva na način, kako družba uporablja AI?
5. S kakšnimi izzivi se sooča Evropa pri tekmovanju s podjetji AI iz Amerike glede etičnih in zasebnostnih standardov?

Odgovori:

1. Etične skrbi v zvezi z AI in množičnim nadzorom vključujejo potencialna kršenja zasebnosti, pomanjkanje soglasja pri zbiranju podatkov, potencialne pristranskosti pri odločanju z algoritmi, uporabo podatkov za manipulativne namene ter spodbujanje neravnovesij moči med tistimi, ki nadzorujejo tehnologijo, in splošno javnostjo.

2. Tehnologije AI temeljijo na velikih naborih podatkov za treniranje modelov strojnega učenja, kar pomeni, da potrebujejo obsežne količine informacij za izboljšanje natančnosti in učinkovitosti. Posledice vključujejo kršenje zasebnosti, varnostne tveganja v primeru vdora podatkov ter vprašanje lastništva in kontrole podatkov.

3. Signal Foundation je neprofitna organizacija, namenjena razvijanju tehnologije za zasebnost, ki podpira svobodo izražanja in omogoča varno globalno komunikacijo. Fundacija je odgovorna za Signal, šifrirano aplikacijo za sporočanje, zasnovano za ohranitev zasebnosti uporabniških pogovorov.

4. Neenakost moči pri uporabi AI pogosto vodi v to, da tehnologija uporablja delodajalci, vlade in policijski organi na način, ki vpliva ali nadzoruje posameznike namesto da bi jih osnažil. To lahko privede do nadzorne države, kjer so državljani nadzorovani brez soglasja ali preglednosti.

5. Evropa se sooča z izzivom ustvarjanja AI tehnologij, ki se ujemajo z njihovimi vrednotami demokratičnega upravljanja in varstva zasebnosti. To vključuje ne samo tekmovanje s podjetji AI iz Amerike, temveč tudi spodbujanje etičnega razvoja AI, ki odraža evropske standarde in družbene cilje.

Ključni izzivi ali kontroverze:

Zasebnost nasproti inovacijam: Doseganje ravnotežja med tehnološkim napredkom in zaščito posamezniške zasebnosti je velik izziv.
Zakoni o varstvu podatkov: Zagotavljanje robustnih predpisov o varstvu podatkov, kot je Splošna uredba o varstvu podatkov (GDPR) v Evropi, je ključno in pogosto sporno, še posebej pri njihovi mednarodni uveljavitvi.
Etični razvoj AI: Razvoj AI na etičen način, ki preprečuje pristranskost in spoštuje človekove pravice, ostaja sporno področje, pri čemer imajo različni deležniki različne interese.

Prednosti in slabosti:

Prednosti:
– AI lahko avtomatizira kompleksne naloge, kar vodi v izboljšano učinkovitost in produktivnost.
– Lahko hitro analizira velike količine podatkov, pomaga pri procesih odločanja.
– AI ima potencial, da spodbudi inovacije v različnih sektorjih, vključno z zdravstvom in prometom.

Slabosti:
– AI sistemi lahko vdrejo v osebno zasebnost z zbiranjem in analiziranjem osebnih podatkov.
– Če ni zasnovan pazljivo, lahko AI podpira pristranskosti in diskriminacijo.
– Obstaja tveganje prekomerne odvisnosti od AI, kar vodi v izgubo človeških veščin in delovnih mest.

Predlagane povezave:
Signal Foundation
VivaTech Conference
Evropska komisija (za GDPR in politike AI v EU)

Privacy policy
Contact