OpenAI reviderer bruksreglar, utvidar omfanget av tillatne applikasjonar

OpenAI, det kunstige intelligensforskningslaboratoriet, har nyleg oppdatert sine bruksreglar for å tillate bruk av sin teknologi i militære og krigføringssammenhenger. Endringa, som først vart merka av The Intercept, kjem i lys av at OpenAI ønsker å klargjere og forfine retningslinjene sine.

Tidlegare forbod OpenAI sine bruksreglar eksplicit bruk av teknologien deira til «våpenutvikling» og «militære og krigføring». Den oppdaterte politikken begrensar no berre bruken av OpenAI sine verktøy til våpenutvikling, samtidig som den opnar for applikasjonar i militære og krigføringssammenhenger.

I ei utsegn til TechCrunch understrekar OpenAI at deira politikk framleis prioriterer å forhindre skade og forbyr bruk av teknologien deira for å skade enkeltpersonar eller eigedom. Selskapet merkar òg at det finst nasjonal sikkerheitsbruksområde som samsvarar med deira misjon, som samarbeid med organisasjonar som DARPA for å utvikle cyberverktøy for kritisk infrastruktur.

Avgjerda om å revidere bruksreglane reflekterer OpenAI sitt engasjement for etisk utvikling av kunstig intelligens og ansvarleg implementering. Ved å utvide omfanget av tillatne applikasjonar, ønskjer organisasjonen å fremje diskusjonar og samarbeid som kan bidra til positive framsteg innan AI-teknologi.

Likevel er det bekymringar knytt til potensielle konsekvensar av AI i krigføring. Bransjeeksperter har lenge varsla om risikoane som er knytt til misbruk av AI, og har samanlikna det med utviklinga av atomvåpen før andre verdskrig. Lanseringa av kraftige generative AI-teknologiar, inkludert OpenAI sitt ChatGPT og Googles Bard, har ytterlegare forsterka desse bekymringane.

OpenAI sine reviderte bruksreglar signaliserer ein anerkjenning av behovet for klargjering og transparens når det gjeld dei potensielle fordelane og risikoane ved AI-teknologi. I takt med at feltet held på å utvikle seg, er det avgjerande for organisasjonar å aktivt engasjere seg i ansvarleg utvikling av kunstig intelligens og vurdere dei etiske implikasjonane ved deira arbeid.

The source of the article is from the blog hashtagsroom.com

Web Story

Privacy policy
Contact