Kunstlik Intellekt: Mõistlikkuse paradigma lahtine?

Edasijõudnud üliinimlik kunstlik intelligents, kunagi OpenAI uurimistöö keskne teema, on teinud olulise nihke, kuna pühendunud meeskond, kes uuris ülimõistusliku AI ohutusmeetmeid, väidetavalt laiali saadeti. OpenAI oli loonud spetsiaalse osakonna, mida tunti kui Superalignment Team, eelmise aasta juulis. Selle meeskonna ülesandeks oli tuvastada meetodeid, kuidas hallata ja kontrollida AI-süsteeme, mis on targemad kui inimesed. Ambitsioonika sammuna pühendus OpenAI sellele uurimisvaldkonnale viie aasta jooksul märkimisväärse 20% oma arvutusvõimsusest.

Ent meeskond on alates selle loomisest vähem kui aasta tagasi laiali läinud. Illya Sutskever, OpenAI asutaja ja juhtiv teadlane, koos teiste võtmetegelastega, teatas lahkumisest. Lahkumised algasid pärast kõrgetasemelist CEO vahetust, milles osales Sam Altman möödunud aasta novembris, viidates jätkuvatele erimeelsustele AI arengu ja ärilisteks eesmärkideks kasutamise suhtes. Wired ja sarnased USA IT-väljaanded teatasid sellest arengust käesoleva kuu 17. päeval.

Laialiminek järgnes lähedalt Sutskeveri ja Jan Leike avalikele lahkumistele ja muredele, mida nad vahendasid kunagise Twitteri kaudu. Nad rõhutasid oma sõnumites ohutuse vajalikkust. OpenAI president Greg Brockman koos tegevjuhi Sam Altmaniga on avaldanud avalduse, tunnustades ohutuse tähtsust, toetades tihedat tagasiside tsüklit, põhjalikku testimist ja iga etapi põhjalikku kaalumist koos kõrgetasemelise turvalisusega, et ühitada ohutus ja tulemuslikkus.

Lõpuks otsustas OpenAI ohutusmeetmete integreerimise kõigist uurimistöödest, mitte säilitada eraldi struktuuri. AI ühtlustamise uurimise ülesandeid juhib nüüd üks asutajatest, John Schulman. TechCrunch on väljendanud muret, et OpenAI keskendumine ohutusele võib nende muudatuste taustal olla vähem tugev kui varem.

Kunstlik Intelligentsi (AI) Ohutus: AI ohutus on oluline valdkond AI uurimistöös, mis käsitleb tagamist, et AI süsteemid käituksid inimestele kasulikul ja kahjutul viisil. Pärast OpenAI spetsialiseeritud superintelligentse AI ohutusmeeskonna laialiminekut tekib oluline küsimus: kuidas prioriteeritakse ja integreeritakse AI ohutus arenenud AI süsteemide arendamisel?

Mured arenenud AI ümber hõlmavad potentsiaalset kahju AI eesmärkide mitteläbipaistvusest inimeste väärtustega ja autonoomsete AI-süsteemide võimet teha otsuseid ilma inimeste järelevalveta. Need mured pole ainulaadsed OpenAI-le; need on osa laiemast arutelust AI kogukonnas loodud süsteemide tagajärgede üle, mis võivad ühel päeval ületada inimintellekti.

Väljakutsed ja Vaidlused: AI ohutu arendamine hõlmab mitmeid võtmeväljakutseid. Üks neist on “ühtlustamise probleem,” mis tegeleb sellega, kuidas tagada, et AI eesmärgid ja käitumine oleksid kooskõlas inimlike väärtustega. Teine on “kontrolliprobleem,” mis keskendub sellele, kuidas säilitada inimkontroll superintelligentsete AI süsteemide üle. Läbipaistvus ja vastutus AI otsuste tegemisel on täiendavad mured, millega teadlased tegelevad.

Valdkonna peamised vaidlused hõlmavad eetilisi mõjusid AI otsustele, AI kasutamise potentsiaalset kahjulikku kasutust ja töökohtade automatiseerimise ja töökoha kadumisega seotud majanduslikku mõju, mida põhjustavad intelligentsete masinate. On ka potentsiaalne oht, et AI süsteemid võidakse välja arendada ja rakendada sobivate ohutusmeetmeteta kaubandusliku surve ja tehnoloogilise arengu võidujooksu tõttu.

Eelised ja Puudused: AI ohutuse integreerimise eelised kõigisse uurimistöödesse hõlmavad põhjalikumat lähenemisviisi ohutusele, ohutuskultuuri edendamist kõigi uurijate hulgas ja uuenduslike lahenduste soodustamist, kõrvaldades silosid. Siiski võivad puudused hõlmata keskendumise lahjenemist AI ohutusele konkureerivate prioriteetide tõttu, erialaste teadmiste vähendamist ainulaadsete superintelligentsete AI probleemidega tegelemisel ja riski, et ohutuse arvestamine võib varjutada ärieesmärke.

Neile, kes soovivad jääda informeerituks AI ja ohutusalase uurimistöö arengutest, soovitatakse külastada järgmist peamist domeeni:
OpenAI

OpenAI otsus integreerida ohutuspraktikad kogu oma uurimistöösse näitab strateegia muutust, mis jätkuvalt pakub diskussiooni ja süveneb AI kogukonnas. Arenenud AI süsteemide ohutuse tagamine jääb kriitiliseks küsimuseks, kuna nende süsteemide võimed kiiresti paranevad.

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact