OpenAI seisab silmitsi uurimise ja õiguslike väljakutsetega tehisintellekti ohutuse muredes

Kunagukad OpenAI töötajad kritiseerivad ettevõtte tavasid
Endised ja praegused OpenAI töötajad on avalikult kritiseerinud ettevõtet hooletuse ja salatsemise kultuuri soodustamise eest. Kirjalikus avalduses väljendasid nad muret OpenAI ebapiisava tähelepanu pärast AI ohutusele, kajastades hirme, et tehisintellekt võiks lõpuks inimkonnale olulisi ohte kujutada.

Nõutud muudatused konfidentsiaalsuslepingutes
Kriitika läheb veelgi kaugemale, et käsitleda OpenAI kasutatud konfidentsiaalsuslepinguid, mis vaigistavad töötajaid nende töö arutamisest isegi pärast töölt lahkumist. See tava on saanud pahameele osaliseks, eriti insener William Saundersi ja endise valitsemise teaduri Daniel Kokotajlo poolt, kes lahkusid OpenAI-st keeldumise tõttu nõustumast selliste piiravate tingimustega.

Tähelepanu nihkumine tehisüldintellektile
Algselt mittetulundusliku uurimislaborina loodud OpenAI on süüdistatud kasumi ohutuse ees eelistamises, eriti oma pingutustes arendada tehisüldintellekti (AGI) – süsteemi inimese tasemel kognitiivsete võimetega. Kokotajlo, teiste allkirjastajate seas, surub OpenAI-le rohkem ressursse, et leevendada AI riske, mitte lihtsalt edendada selle võimeid.

Kiired nõuded läbipaistva valitsemisstruktuuri järele
Allakirjutanud, kes nüüd saavad õigusabi ja advokaadi Lawrence Lessigi toetust, nõuavad läbipaistvat ja demokraatlikku valitsemisstruktuuri, et jälgida AI arendust, mitte jättes seda ainult erasektorite kätte.

Viimased õiguslikud lahingud ja autoriõiguse rikkumise süüdistused
OpenAI liigub ka tormilistes vetes mitme õigusliku väljakutsega, sealhulgas autoriõiguse rikkumise süüdistustega. Ettevõtet, koos partneri Microsoftiga, on kaevatud The New York Timesi poolt ning kritiseeritud Scarlett Johanssoni hääle ebaseadusliku jäljendamise eest hüperrealistlikus häälassistendis.

AI ohutuse ja eetiliste tavade tähtsus
AI ohutus on oluline osa laiemast dialoogist arenenud AI süsteemide arendamisega seotud teemadel. Kuna AI tehnoloogiad muutuvad üha enam põimunuks erinevate sektoritega, suureneb vajadus käsitleda nende tehnoloogiate mõju ühiskonnale. AGI-süsteem nagu selles esitatud teeb eksistentsiaalseid küsimusi seoses masinaintelligentsi suunaga inimväärtuste, privaatsusmurede ja väärkasutamise võimalikkuse osas.

Peamised küsimused ja vastused AI ohutuse murede kohta
Mis on seotud riskid, arendades AGI-d?
Riskid hõlmavad kontrolli kaotust AGI üle, ettenägematute käitumiste tekkimist, potentsiaali massiliseks tööpuuduseks, ebavõrdsuse süvendamist ja kasutamise potentsiaali kahjulike eesmärkide jaoks.

Miks on niivõrd suur tähelepanu konfidentsiaalsuslepingutel OpenAI-s?
Konfidentsiaalsuslepinguid näetakse võimaliku vallandamiskeeluna ja avatud arutelu tõkestajana AI-uuringute eetiliste tagajärgede üle, mis on kriitiline avaliku usalduse säilitamiseks ja turvalise arengu tagamiseks.

Väljakutsed ja vaidlused AI arenduses
AI arendamise keskne väljakutse seisneb tasakaalu leidmises uuenduse ja ohutuse vahel. Tehnoloogiaettevõtted võistlevad võimsamate AI-de loomisel, võistlus võib kaasa tuua lühendamise ohutusprotokollides. Samuti on poleemika AI-uuringute läbipaistvuse ja OpenAI ülemineku üle mittetulunduslikust rohkem kasumiorienteeritud mudelisse.

AI edusammude eelised ja puudused
Eelised:
– Potentsiaal uuenduslike lahenduste leidmiseks keerulistele probleemidele.
– Suurenenud tõhusus ja tootlikkus mitmesugustes ülesannetes.
– Uute tööstusharude ja majanduskasvu loomine.

Puudused:
– Võimalik töökohtade väljalülitamine automatiseerimise suurenedes.
– Tõrgetega AI süsteemide tõus, mis võivad olla keerulised kontrollida.
– Olemasolevate eelarvamuste säilitamise ja isegi süvendamise risk, kui neid hoolikalt ei jälgita.

Lisateabe saamiseks AI, tehisüldintellekti ja sellega seotud eetiliste arutluste kohta võib külastus OpenAI kodulehele pakkuda täiendavaid ettevõtte sisendit ja nende seisukohta nende teemade kohta. Samuti võivad teemast huvitatud isikud viidata ressurssidele nagu Tuleviku Elu Instituut, mis keskendub inimkonnale esiletõusvatele eksistentsiaalsetele ohtudele, sealhulgas need arenenud AI poolt. On alati oluline tagada, et mainitud domeenid oleksid teemaga seotud ning asjakohased.

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact