Udforsker de farer ved kunstig intelligens med AI Risk Repository

Et hold af forskere fra FutureTech-gruppen ved Computer Science and Artificial Intelligence Laboratory (CSAIL) på MIT har påbegyndt en banebrydende bestræbelse for at udarbejde et omfattende respository af AI-risici.

Forskerne opdagede betydelige huller i eksisterende rammer for vurdering af AI-risici, idet cirka 30% af identificerede risici blev overset af selv de mest omhyggelige individuelle rammer. Dette fremhæver en presserende udfordring på feltet – den spredte karakter af information relateret til AI-risici på tværs af akademiske tidsskrifter, forprints og industrielle rapporter resulterer i blinde pletter i forståelsen.

AI Risk Repository-projektet består af tre hovedkomponenter:

1. **AI Risk Database:** Indsamling af over 700 risici fra 43 eksisterende AI-rammer.
2. **Causal Taxonomy:** Klassificering af risici for at forstå hvordan, hvornår og hvorfor de opstår.
3. **Domain Taxonomy:** Kategorisering af risici i syv kerneområder og 23 underområder, inklusive diskrimination, privatliv, desinformation, ondsindede aktører, menneske-maskin interaktion, socioøkonomiske og miljømæssige skader, såvel som sikkerhed, skader og begrænsninger af AI-systemer.

I deres projektresumé understreger forfatterne den kritiske vigtighed af disse risici for akademikere, revisorer, beslutningstagere, AI-virksomheder og offentligheden. Dog kunne manglen på fælles forståelse af AI-risici hæmme vores evne til effektivt at diskutere, udforske og reagere på dem.

AI Risk Repository repræsenterer en banebrydende indsats for at forberede, analysere og ekstrahere AI-risiko-rammer i et offentligt tilgængeligt, udtømmende, udvideligt og kategoriseret risiko-databaseformat. Denne initiativ sigter mod at lægge fundamentet for en mere koordineret, sammenhængende og omfattende tilgang til at definere, revidere og håndtere de risici, som AI-systemer udgør.

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact