Oxford-universitetet stenger ned det velkjende AI-forskingssenteret.

Visning av Oxford Universitys beslut før løftet til nedlegging av Pionerinstituttet

Det prestisjetunge Oxford University har nyleg tatt beslutningen om å stenge dørene til Future of Humanity Institute (FHI), eit anerkjent forskningssenter med fokus på implikasjonar av langsiktige avgjerder og effektiv altruisme. Etablert av Nick Boström, ein filosof frå Sverige med ein stor føljarbase i teknologifellesskapet, har instituttet no stansa drifta sin frå og med 16. april. Kunngjeringa vart stadfesta via instituttet si offisielle nettside.

FHI hadde fått rykte på seg for sin framsynte forsking på den etiske bruk av kunstig intelligens (AI) og potensielle risikoar, eit emne som gav Nick Boström vidgjetning. Boka hans «Superintelligence,» som kom ut i 2014, utforska konseptet med AI som overgår den menneskelege intellektet, eit tema som resonerte djupt med teknologigiganter som Elon Musk og Bill Gates, begge av dei støtta boka.

Elon Musk var ikkje berre ein tilhengar i ord, men støtta òg instituttet økonomisk med ei betydeleg donasjon retta mot forsking på risikoar knytt til AI. Dustin Moskovitz, ein annan teknologitungevektar og medgrunnleggjar av Facebook, bidrog òg på ein raus måte til finansieringa av instituttet. Desse bidraga reflekterte teknologifellesskapet si store bekymring over den ukontrollerte utviklinga av AI.

I ein uventa vendig, etter at instituttet vart lagt ned, sa Boström frå seg stillinga si ved Oxford, og tilreknar stenginga til vedvareande «bureaukrati» innanfor universitetsstrukturane. Sjølv om Boström vart hylla for arbeidet sitt, har han og bevegelsen om langsiktige spørsmål vore dratt inn i kontroversar, med anklagar om rasisme, seksuell trakassering og svindel. Som respons til ei oppdaga epost der han kom med rasistiske utsegner, gjekk Boström offentleg ut med ei unnskyldning.

Boström ros mot prestasjonane til instituttet, men klagde over dei administrative utfordringane som Oxford University sitt filosofidepartement la på han som grunnene til instituttet si undergang. I følgje kommunikasjon med The Guardian meinte han at stenginga var resultatet av ein langvarig kamp.

Kvifor stengte Oxford University Future of Humanity Institute?

Oxford University bestemte seg for å stenge Future of Humanity Institute (FHI) på grunn av indre administrative utfordringar og kontroversar som involverte instituttets grunnleggjar, Nick Boström. Desse problema inkluderte anklagar om rasisme, seksuell trakassering og svindel knytt til langsiktig bendemål-rørsla og Boström sjølv.

Kva utfordringar og kontroversar er knyttet til dette temaet?

Ei av hovudutfordringane er å balansere behovet for innovativ AI-forsking med å halde etiske standardar og ein inkluderande atmosfære innanfor akademiske institusjonar. Kontroversane rundt Boström, som inkluderer alvorlege sosiale tema som rasisme og seksuell trakassering, har truleg skada ryktet til FHI og den tilknytte forskinga, som førte til stenginga.

Kva er fordelane med AI-forskingssenter som FHI?

AI-forskingssenter som FHI gir kritiske innsikt i konsekvensane av kunstig intelligens på lang sikt, inkludert etiske omsyn og potensielle risikoar. Dei fungerer som ein bro mellom teknologi og politikk, som leier til ansvarleg AI-utvikling og som tenar det offentlege interessa ved å føresetje framtidige utfordringar.

Kva er ulempene ved å stenge slike institutt?

Stenginga av institutt som FHI kan bremse framsteg i forståinga og nedbemtinga av AI-risikoar. Det kan òg leie til eit tomrom i tverrfagleg dialog som er naudsynt for å forme globale retningslinjer for AI. Dessutan kan nedstenginga av forskingssenter redusera finansiering og støtte til kritisk AI-sikkerhetsforsking.

For dei som er interessert i meir lesing om Oxford University, kan de besøkje den offisielle nettsida deira ved å bruke følgjande lenke: Oxford University. Ver merksam på at sidelenka fører til hovuddomenet til Oxford University, og inneheld ikkje detaljert informasjon om Future of Humanity Institute eller spesifikke omstende rundt stenginga.

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact