Signal Foundations Meredith Whittaker förespråkar integritet medan det råder oro kring AI

På torsdagen den 23 maj delade Meredith Whittaker, chefen för den krypterade meddelandeappen Signal, med sig av sina farhågor angående massövervakning och artificiell intelligens (AI)-teknologier. Vid en intervju med AFP i samband med VivaTech-konferensen i Paris betonade hon att den AI som hyllas inom teknikindustrin är djupt rotad i massövervakningspraktiker.

När hon diskuterade sambandet mellan övervakning och AI påpekade Whittaker att AI-teknologier frodas på stora datamängder, som är biprodukter av massövervakningsaffärsmodellen som uppstod på 1990-talet i USA. Denna modell har sedan dess blivit den drivande ekonomiska kraften bakom tekniksektorn.

Whittaker, som även är president för Signal Foundation, betonade riskerna med AI-system som genererar och bearbetar stora datamängder. Dessa system har makten att kategorisera och forma våra liv på sätt som bör väcka lika stor oro. Hon underströk att ett fåtal övervakningsjättar till stor del kontrollerar branschen, som ofta opererar utan ansvarsskyldighet.

Som före detta forskningsprofessor vid New York University och tidigare anställd på Google som organiserade en personalstrejk på grund av arbetsvillkoren är Whittaker ingen främling för de etiska implikationerna av teknologi. Hon är en stark förespråkare för integritet och motsätter sig affärsmodeller som förlitar sig på utvinning av personuppgifter.

Vidare betonade Whittaker obalansen i makt där de flesta människor utsätts för användningen av AI av arbetsgivare, regeringar och rättsväsende snarare än att vara aktiva användare. Hon kritiserade AI-företag som hävdar att de bidrar till att lösa klimatkrisen samtidigt som de tar emot pengar från företag inom fossilbränsleindustrin och tillåter att deras teknologi används för att utvinna nya resurser.

Whittaker avslutade med en uppmaning till Europa att inte bara överväga att konkurrera med amerikanska AI-företag, utan att omgestalta teknologin så att den tjänar mer demokratiska och pluralistiska samhällen. Som en ledande figur inom Signal Foundation fortsätter hon att driva integritet och etiska överväganden inom teknikindustrin.

Viktiga frågor:

1. Vilka är de etiska farhågorna relaterade till AI och massövervakning?
2. Hur beror AI-teknologier på stora datamängder, och vad är konsekvenserna?
3. Vilken roll har Signal Foundation i att förespråka integritet?
4. Hur påverkar maktobalansen sättet som samhället använder AI på?
5. Vilka utmaningar står Europa inför när man konkurrerar med amerikanska AI-företag när det gäller etiska och integritetsnormer?

Svar:

1. De etiska farhågorna relaterade till AI och massövervakning innefattar potentiella integritetskränkningar, brist på samtycke vid dataskörd, potentiella partiskheter i algoritmiska beslut, användning av data för manipulativa ändamål samt upprätthållandet av maktobalans mellan de som kontrollerar teknologin och allmänheten.

2. AI-teknologier beror på stora datamängder för att träna maskininlärningsmodeller, vilket innebär att de kräver stora mängder information för att förbättra sin noggrannhet och effektivitet. Konsekvenserna inkluderar integritetsintrång, säkerhetsrisker om data läcker ut samt frågan om vem som äger och kontrollerar datan.

3. Signal Foundation är en ideell organisation som är dedikerad till att utveckla öppen källkod för integritetsteknik som stöder fritt uttryck och möjliggör säker global kommunikation. Stiftelsen ansvarar för Signal, en krypterad meddelandeapp som är utformad för att hålla användares konversationer privata.

4. Maktobalansen i användningen av AI leder ofta till att teknologin används av arbetsgivare, regeringar och rättsmyndigheter på ett sätt som påverkar eller kontrollerar individer snarare än att ge dem makt. Det kan leda till en övervakningsstat där medborgare övervakas utan samtycke eller transparens.

5. Europa står inför utmaningen att skapa AI-teknologier som överensstämmer med sina värderingar om demokratisk styrning och skydd av integritet. Detta innebär inte bara att konkurrera med amerikanska AI-företag utan även att främja etisk AI-utveckling som återspeglar europeiska normer och samhälleliga mål.

Nyckelutmaningar eller kontroverser:

Integritet kontra innovation: Att finna en balans mellan teknisk utveckling och skyddet av individuell integritet är en stor utmaning.
Dataskyddslagar: Att säkerställa robusta dataskyddsregler, såsom den allmänna dataskyddsförordningen (GDPR) i Europa, är avgörande och ofta kontroversiellt, särskilt när man tillämpar dem internationellt.
Etisk AI-utveckling: Att utveckla AI på ett etiskt sätt som förhindrar partiskhet och respekterar mänskliga rättigheter förblir ett omstritt område, med olika intressenter som har varierande intressen.

Fördelar och nackdelar:

Fördelar:
– AI kan automatisera komplexa uppgifter, vilket leder till ökad effektivitet och produktivitet.
– Den kan analysera stora mängder data snabbt, vilket underlättar beslutsprocesser.
– AI har potentialen att driva innovation inom olika sektorer, inklusive hälso- och transportbranschen.

Nackdelar:
– AI-system kan kränka personlig integritet genom att samla in och analysera personlig data.
– Om de inte designas noggrant kan AI bevara partiskheter och diskriminering.
– Det finns en risk för överdrivet beroende av AI, vilket kan leda till förlust av mänskliga färdigheter och jobb.

Föreslagna relaterade länkar:
Signal Foundation
VivaTech Conference
Europeiska kommissionen (för GDPR och AI-policys inom EU)

Privacy policy
Contact