Amerikanske etterretningsetatar fokuserer på å sikre AI-sikkerheit

Amerikanske etterretningsetatar omfavner potensialet til kunstig intelligens (AI), samtidig som dei møter utfordringa med å gjere det trygt og sikkert. Kontoret til sjefen for nasjonal etterretning samarbeider med selskap og høgskular for å utnytte krafta til den raskt utviklande AI-teknologien, med mål om å oppnå ein fordel over globale konkurrentar som Kina. Likevel er det ein stor bekymring å sikre at AI ikkje kompromitterer nasjonale hemmelege opplysningar eller genererer falske data.

Etterretningssamfunnet anerkjenner fordelane med å bruke store språkmodellar som OpenAI’s ChatGPT, som kan gje detaljerte svar på spørsmål frå brukarar. Evnen til å prosessere enorme mengder informasjon er svært verdifull, men tvilen består om påliteligheten til desse modellane. Det amerikanske militæret og etterretningsetatane er fast bestemt på å utnytte potensialet til AI for å konkurrere med Kina, som har mål om å bli global leiande på dette området.

AI har også potensiale til å betydeleg forbetre produktiviteten ved å analysere store mengder innhald og identifisere mønster som ikkje nødvendigvis er synlege for menneske. Nand Mulchandani, teknologisjefen i Central Intelligence Agency, meiner at AI kan bidra til å skalere menneskelege evner og overvinne Kinas fordel når det gjeld bemanning av etterretning.

Likevel utsettes AI for betydelige risikoar knytt til interne trugslar og ekstern innblanding. AI-modellar kan villede til å avsløre graderte opplysningar eller bli manipulert for å få uautorisert informasjon frå menneske. For å takle desse bekymringane har Intelligence Advanced Research Projects Activity lansert programmet Bengal, som fokuserer på å motvirke potensielle skjevheter og giftige utdata i AI. Målet er å utvikle sikkerheitsløysingar mot «hallusinasjonar», der AI fabrikerer informasjon eller leverer feil resultat.

Bruken av AI av amerikanske etterretningsetatar er basert på evnen til å skilje meiningsfull informasjon frå støy og til å tilnærme seg problem på ein kreativ måte. Men det er avgjerande å sikre dens tryggleik og pålitelegheit. Med auka utbredelse av AI-modellar er det behov for å trene dei opp utan skjevheter og beskytte mot forgifta modellar.

I kampen for å utnytte AI-skapasitetar utforskar etterretningsetatar aktivt innovative løysingar samtidig som dei er årvåkne med omsyn til potensielle risikoar og sårbarheiter.

Spørsmål og svar:

1. Kva rolle har amerikanske etterretningsetatar når det gjeld kunstig intelligens (AI)?
– Amerikanske etterretningsetatar omfavner AI-teknologi for å oppnå ei konkurransedyktig fordel over globale rivalar som Kina. Dei samarbeider med selskap og høgskular for å utnytte krafta til AI og utforske det potensielle i ulike område.

2. Kva er hovudbekymringa knytt til AI i etterretningssamfunnet?
– Hovudbekymringa er å sikre tryggleiken og sikkerheita til AI for å hindre at nasjonale hemmelege opplysningar blir kompromitterte eller at det blir generert falske data.

3. Kva er store språkmodellar og kvifor er dei verdifulle for etterretningsetatar?
– Store språkmodellar, som OpenAI sin ChatGPT, er AI-modellar som kan gi detaljerte svar på spørsmål frå brukarar. Dei er verdifulle fordi dei kan prosessere enorme mengder informasjon, noko som gjør at etterretningsetatar kan trekke ut meiningsfulle innsikter.

4. Kva er Kinas posisjon på AI-området?
– Kina er ein global konkurrent som har som mål å bli leiande innan AI-feltet. Amerikanske etterretningsetatar har som mål å utnytte AI for å konkurrere med Kina og behalde ein fordel.

5. Korleis kan AI forbetre produktiviteten til etterretningsetatar?
– AI kan analysere store mengder innhald og identifisere mønster som ikkje nødvendigvis er synlege for menneske, noko som betrar produktiviteten i etterretningsoperasjonar.

6. Kva for risikoar er knytt til AI i etterretningssamfunnet?
– AI-modellar kan vere sårbare for interne trugslar og ekstern innblanding, noko som medfører risikoar som avsløring av graderte opplysningar eller manipulering av AI for å få uautorisert informasjon frå menneske.

7. Korleis handterer Intelligence Advanced Research Projects Activity bekymringar om skjevheter og giftige utdata i AI?
– Intelligence Advanced Research Projects Activity har lansert programmet Bengal, som har som mål å motverke skjevheter og giftige utdata i AI. Programmet har fokus på å utvikle sikkerheitsløysingar mot hallusinasjonar, der AI fabrikerer informasjon eller leverer feil resultat.

8. Kor viktig er det å trene AI-modellar utan skjevheter og beskytte mot forgifta modellar?
– Ettersom AI-modellar blir meir utbredt, er det avgjerande å trene dei opp utan skjevheter for å sikre rettferdigheit og unngå diskriminering. Det er nødvendig å beskytte mot forgifta modellar for å hindre at onde aktørar manipulerer AI sin funksjonalitet.

Definisjonar:

– Kunstig intelligens (AI): Simulering av menneskeleg intelligens i maskiner som er programmert til å tenke og lære som menneske.
– Store språkmodellar: AI-modellar som blir trent på store mengder tekstdata og som kan generere detaljerte svar på spørsmål frå brukarar.
– Interne trugslar: Enkeltpersonar internt i ein organisasjon som kan utnytte godkjent tilgang til system og informasjon for onde føremål.
– Skjevheter: Systematiske og urettmessige preferansar eller fordommar som kan påverke avgjerdene eller resultatane til ein AI-modell.
– Giftige utdata: Utdata generert av ein AI-modell som inneheld skadelege, støtande eller skjeveleg innhald.

Relaterte lenker:
– Kontoret til sjefen for nasjonal etterretning
– OpenAI
– Central Intelligence Agency
– Intelligence Advanced Research Projects Activity

The source of the article is from the blog trebujena.net

Privacy policy
Contact