Kunstlik intelligentsus astub uude rändrahnakülla: virtuaalküla

Google’i ja Stanfordi ülikooli teadlased “asustasid” hiljuti virtuaalküla umbes kahekümne ChatGPT-jõulise tegelasest koosneva tegelasega aastal 2023. Näidates digitaalelu viilu, omasid need avatarilaadsed olendid võimet meelde jätta oma rollid, osaleda kohtingutes, võtta osa väljakutsetest üksteise vastu, ning isegi koostööd teha, korraldades sõbrapäevapeo, sümboliseerides verstapostisündmust generatiivse tehisintellekti (GenAI) evolutsioonis.

Tagajärjed on sügavad, kuna üha kasvav GenAI tehnoloogia juhib traditsioonilistest juturobotitest uue autonoomsete “agentide” klassi poole, mis suudavad iseseisvalt sooritada keerukaid, mitmeetapilisi ülesandeid. See üleminek kajastab liikumist lihtsast küsimuse-vastuse funktsioonist uue põlvkonna süsteemideni, mis kasutavad suuri keelemudeleid (LLM) ülesannete täitmiseks alates tarkvara arendamisest kuni puhkusereisi planeerimiseni, lendude broneerimiseni ja veelgi enam.

Tehnilise võimekuse näitamiseks on Google’i DeepMind tutvustanud SIMA-d, tehisintellekti agenti, kes on koolitatud 3D-videomängudes – isegi meisterdades kitsesimulaatorit 3. SIMA ilmutab umbes 600 oskust, alates sisemängus navigeerimisest kuni menüüle juurdepääsuni, tähistades potentsiaalset revolutsiooni keelepõhiste, universaalsete tehisintellektiagentide vallas.

Lisaks on tähelepanu äratanud Cognition AI, kes väidab loonud maailma esimese täielikult autonoomse tehisintellektiga tarkvaraarendaja nimega Devin, kes suudab planeerida ning rakendada programme kogu arendusprotsessi vältel.

Innovatsiooni keskel paljastab Mike Gozzo, Ada peatoodete ohvitser – tehisintellekti põhised automatiseeritud klienditeenuste firma –, ülemineku täiustatud generatiivsete keelemudelite poole, mis suudavad navigeerida ja suhelda ulatuslike infopankadega, arenedes autonoomseteks agentideks.

Kuigi edusammud on lubavad, tõstatatakse eetilisi küsimusi, eriti riskide suhtes, mis kaasnevad ülesannete andmisega tehisintellektidele, mis võivad kannatada illusioonide või kallutatuse all. Sisseehitatud riskid laienevad agendidest õppides ja kohanedes nende interaktsioonide põhjal. Google’i DeepMind’i dokument tõi esile võimalikud eetilised dilemmad ja antropomorfismi riskid, kui tehisintellekt muutub järjest inimlikumaks, mõjutades meie tööd, õppimist ja loovaid püüdlusi.

Hoolimata olulistest sammudest, võib täielikult autonoomsete tehisintellektiagentide laialdane kasutuselevõtt siiski olla alles tulevikus, laiemat kasutamist oodatakse kolme kuni viie aasta pärast, tagades, et tehisintellekti tulevik on nii põnev kui ka hoolikalt kaalutletud.

AI-jõuliste virtuaalseltskondade nagu Google’i ja Stanfordi ülikooli teadlaste arendatud ühe potentsiaalsed tagajärjed on tohutud. Siin on mõningad olulised aspektid, mida arvesse võtta:

Olulised küsimused ja vastused:
K: Millised on autonoomsete tehisintellektiagentide potentsiaalsed sotsiaalsed mõjud?
<b:V: Autonoomsed tehisintellektiagendid võivad revolutsioneerida erinevaid tööstusharusid, optimeerides protsesse, pakkudes isikupärastatud teenuseid ja avades uusi meelelahutusvorme. Siiski võivad nad häirida tööturgu, nõuda töökohtade rollide ümbermõtestamist ja kaasa tuua keerulisi eetilisi kaalutlusi seoses tehisintellekti otsuste tegemise ja iniminteraktsiooniga.

K: Kuidas mõjutab antropomorfism meie usaldust tehisintellekti vastu?
<b:V: Antropomorfism ehk inimomaduste omistamine mitteinimlikele olenditele võib suurendada meie usaldust ja mugavust tehisintellektiga suhtlemisel. Kuid see võib samuti viia ebareaalsete ootusteni tehisintellekti võimekusele või valede arusaamadeni tehisintellekti piirangutest, põhjustades potentsiaalselt kasutajate liigset sõltuvust tehisintellekti otsustest õigeks pidamata skeptilisust.

K: Millised on tehnilised väljakutsed nende tehisintellektiagentide arendamisel?
<b:V: Tehniliste väljakutsete hulka kuulub tugevuse ja usaldusväärsuse tagamine, käsitlemine ebamääraste või mittetäielike andmetega, kontekstist arusaamine, pidev õppimine ilma kaldeta ning kallutatuse võimendamise ennetamine.

Põhilised väljakutsed ja vastuolud:
– Tagamaks, et tehisintellektiagendid ei jätkaks kallutatuse või valeinformatsiooni levitamist nende koolitusalase andmete põhjal.
– Kasutaja privaatsuse ja turvalisuse hoidmine, kui tehisintellektiagendid töötlevad potentsiaalselt tundlikku teavet.
– Autonoomsete agentide tehtud otsustega inimelu mõjutavate otsuste seaduslike ja eetiliste tagajärgede käsitlemine.

Plussid ja miinused:
Plussid:
* Tehisintellektiagendid saavad suurendada tootlikkust keerukate ülesannete automatiseerimisega.
* Nad võivad töötada 24/7, pakkudes järjepidevat teenust.
* Isikupärastamine on saavutatav enneolematul määral.
* Need agendid võivad aidata valdkondades, kus on tööjõupuudus, suurendades efektiivsust.

Miinused:
* On töökohtade väljatõrjumise riskid, kui tehisintellektiagendid hakkavad täitma traditsiooniliselt inimeste poolt täidetud rolle.
* Sõltuvus tehisintellektist võib vähendada inimeste oskusi või viia traditsiooniliste teadmiste kadumiseni.
* Potentsiaalsed kallutused tehisintellektiotsuste tegemisel võivad avaldada kahjulikke tagajärgi.
* Emotsionaalsete ühenduste arendamine tehisintellektiagentidega tekitab eetilisi küsimusi.

Seotud lingid:
– DeepMind’i kohta lisateabe saamiseks külastage DeepMind.
– Google AI edusammude kohta võite külastada Google AI.
– AI potentsiaali avastamiseks külastage Stanfordi ülikooli.

Iga neist aspektidest rõhutab olulisust jätkata nii entusiasmi kui ka ettevaatlikkusega autonoomsete tehisintellektiagentide jätkuvas arendamises ja integreerimises meie isiklikesse, sotsiaalsetesse ja professionaalsetesse eludesse.

The source of the article is from the blog guambia.com.uy

Privacy policy
Contact