Signaletikkas Meredith Whittaker frå Signal Foundation fremjar personvern midt i bekymringane rundt AI

Torsdag 23. mai delte Meredith Whittaker, leiar for den krypterte meldingsappen Signal, sine bekymringar om masseovervåking og kunstig intelligens (AI)-teknologiar. Under ein samtale med AFP på VivaTech-konferansen i Paris påpeikte ho at den AI-en som vert hylla i teknologibransjen, er djupt rotfest i praksisen med masseovervåking.

Når ho snakkar om samanhengen mellom overvåking og AI, påpeika Whittaker at AI-teknologiar florerer på store datamengder, som er biprodukt av forretningsmodellen for masseovervåking som oppstod på 1990-talet i USA. Denne modellen har sidan blitt den drivande økonomiske krafta bak teknologisektoren.

Whittaker, som også er president for Signal Foundation, understreka risikoen knytt til AI-system som genererer og behandlar store mengder data. Desse systema har makta til å kategorisere og forme livet vårt på ein måte som bør føra til like stor bekymring. Ho understreka at nokre overvåkingsgiganter i stor grad kontrollerer bransjen, som ofte opererer utan ansvar.

Som tidlegare forskingsprofessor ved New York University og ein Google-tilsett som organiserte ei demonstrasjon i protest mot arbeidsvilkår, er Whittaker ikkje ukjend med dei etiske implikasjonane av teknologi. Ho er ein sterk forsvarar for personvern og går imot forretningsmodellar som er avhengige av uttrekking av persondata.

Vidare framheva Whittaker maktbalansen der dei fleste personar er underlagt AI-bruk av arbeidsgjevarar, regjeringar og lovens lange arm heller enn å vere aktive brukarar. Ho kritiserte AI-firma som påstår at dei bidreg til å løysa klimakrisa, samtidig som dei tek mot pengar frå fossilbrenselselskap og aksepterer at teknologien deira vert brukt til utvinning av nye ressursar.

Whittaker konkluderte med ein oppmoding til Europa om å tenkje ikkje berre på konkurransen med amerikanske AI-firma, men om å omforme teknologien til å betjene meir demokratiske og pluralistiske samfunn. Som ein leiande skikkelse i Signal Foundation held ho fram med å kjempe for personvern og etiske omsyn i teknologibransjen.

Viktige spørsmål:

1. Kva er dei etiske bekymringane knytt til AI og masseovervåking?
2. Korleis er AI-teknologiar avhengige av store datamengder, og kva er konsekvensane?
3. Kva er rolla til Signal Foundation i å ivareta personvern?
4. Korleis påverkar maktubalansen måten AI vert nytta av samfunnet?
5. Kva utfordringar står Europa overfor når det gjeld å konkurrere med amerikanske AI-firma i høve til etiske og personvernsstandardar?

Svar:

1. Dei etiske bekymringane knytt til AI og masseovervåking inkluderer potensielle brot på personvern, manglande samtykke i datainnsamling, mogleg skjevhetar i algoritmisk beslutningsteikning, bruk av data til manipulative formål og skaping av maktubalansar mellom dei som kontrollerer teknologien og folk flest.

2. AI-teknologiar er avhengige av store datasett for å trene maskinlæringsmodellar, noko som betyr at dei treng store mengder informasjon for å forbetre nøyaktigheita og effektiviteten deira. Konsekvensane inkluderer brudd på personvern, sikkerheitsrisikoar ved datalekkasjar og spørsmål om kven som eig og kontrollerer data.

3. Signal Foundation er ein ideell organisasjon dedikert til å utvikle openkjeldeteknologi for personvern som støttar ytringsfridom og mogleggjer trygg global kommunikasjon. Stiftinga er ansvarleg for Signal, ein kryptert meldingsapp designa for å halde brukaranes samtalar private.

4. Maktskilnaden i AI-bruk fører ofte til at teknologien vert nytta av arbeidsgjevarar, regjeringar og politietater på ein måte som påverkar eller kontrollerer individ heller enn å gi dei makt. Dette kan føre til ein overvakingsstat der borgarar vert overvaka utan samtykke eller gjennomsiktleik.

5. Europa står overfor utfordringa med å skape AI-teknologiar som samsvarar med verdiar knytt til demokratisk styring og personvern. Dette inneber ikkje berre å konkurrere med amerikanske AI-firma, men også å fremje etisk AI-utvikling som reflekterer europeiske standardar og samfunnsmål.

Viktige utfordringar eller kontroversar:

Personvern vs. innovasjon: Å finne ein balanse mellom teknologisk framsteg og vern av individuelt personvern er ein stor utfordring.
Datalovar: Å sikre robuste reglar for databeskyttelse, som GDPR (General Data Protection Regulation) i Europa, er avgjerande og ofte omstridt, særleg når det gjeld å håndheve dei internasjonalt.
Etisk AI-utvikling: Å utvikle AI på ein etisk måte som førebyggjer skjevhetar og respekterer menneskerettar, er framleis ein omstridd område der ulike interessentar har varierande interesser.

Fordelar og ulemper:

Fordelar:
– AI kan automatisere komplekse oppgåver, noko som gir betre effektivitet og produktivitet.
– Det kan analysere store datamengder raskt, noko som hjelper i beslutningsprosessen.
– AI har potensial til å drive innovasjon på tvers av ulike sektorar, inkludert helsevesen og transport.

Ulemper:
– AI-system kan krenke personvern ved å samle inn og analysere persondata.
– Dersom det ikkje er utforma nøye, kan AI oppretthalde skjevhetar og diskriminering.
– Det er ein risiko for overdreven tillit til AI, noko som kan føre til tap av menneskeleg kompetanse og arbeidsplassar.

Foreslåtte relaterte lenker:
Signal Foundation
VivaTech Conference
European Commission (for GDPR og AI-politikk i EU)

Privacy policy
Contact