Et hold af forskere fra FutureTech-gruppen ved Computer Science and Artificial Intelligence Laboratory (CSAIL) på MIT har påbegyndt en banebrydende bestræbelse for at udarbejde et omfattende respository af AI-risici.
Forskerne opdagede betydelige huller i eksisterende rammer for vurdering af AI-risici, idet cirka 30% af identificerede risici blev overset af selv de mest omhyggelige individuelle rammer. Dette fremhæver en presserende udfordring på feltet – den spredte karakter af information relateret til AI-risici på tværs af akademiske tidsskrifter, forprints og industrielle rapporter resulterer i blinde pletter i forståelsen.
AI Risk Repository-projektet består af tre hovedkomponenter:
1. AI Risk Database: Indsamling af over 700 risici fra 43 eksisterende AI-rammer.
2. Causal Taxonomy: Klassificering af risici for at forstå hvordan, hvornår og hvorfor de opstår.
3. Domain Taxonomy: Kategorisering af risici i syv kerneområder og 23 underområder, inklusive diskrimination, privatliv, desinformation, ondsindede aktører, menneske-maskin interaktion, socioøkonomiske og miljømæssige skader, såvel som sikkerhed, skader og begrænsninger af AI-systemer.
I deres projektresumé understreger forfatterne den kritiske vigtighed af disse risici for akademikere, revisorer, beslutningstagere, AI-virksomheder og offentligheden. Dog kunne manglen på fælles forståelse af AI-risici hæmme vores evne til effektivt at diskutere, udforske og reagere på dem.
AI Risk Repository repræsenterer en banebrydende indsats for at forberede, analysere og ekstrahere AI-risiko-rammer i et offentligt tilgængeligt, udtømmende, udvideligt og kategoriseret risiko-databaseformat. Denne initiativ sigter mod at lægge fundamentet for en mere koordineret, sammenhængende og omfattende tilgang til at definere, revidere og håndtere de risici, som AI-systemer udgør.