Microsoft avaldab revolutsioonilise VASA-1, hoiab selle saladuses.

Microsoft on hiljuti juhtinud uut tarkvara VASA-1, revolutsioonilist kunstliku intelligentsuse tehnoloogiat, mis suudab ühest pildist, hääl salvestusest ja käsikirjast toota uskumatult realistlikke videoid. Arvestades võimalikke riske, ei lasta seda võimsat tööriista avalikkusele välja, kuid ettevõte on jaganud tööriista “rääkivate nägude” demovideoid.

VASA-1 töötab nii, et animeerib inimesi videotel, et öelda käsikirjalist teksti, täiendades seda veenva hääle ja sobivate emotsioonide väljendamisega. Märkimisväärselt piisab ainult ühest fotost ja lõigust kõnest, et luua elutruu kujutis kellegist nagu poliitik, kes peab kõnet, tekitades nii hämmeldust kui ka muret.

Mure kunstliku intelligentsuse loodud võltsvideote mõjude pärast on tõsine. Ajakirjanikud ja eksperdid on väljendanud muret sellise tehnoloogia sotsiaalse mõju pärast, olles tõsiselt mures reaalsuse hägustumise pärast. Föderaalse Kaubanduskomisjon nimetab neid sünteetilisi meediume potentsiaalselt ohtlikeks, kuna need kujutavad olulist pettuseohtu läbi imitatsiooni.

Nendest muredest hoolimata toob Microsoft esile VASA-1 kasulikud kasutusalad, rõhutades selle potentsiaali abistada inimesi suhtluse puuetega ja selle rakendusi hariduslikes ja tervishoiuseadetes, näiteks virtuaalarstide funktsioonid.

Ent tekib küsimus, kas sellist tarkvara oleks üldse pidanud looma, teades selle võimalikku väärkasutust. Microsoft, olles teadlik eetilistest dilemmadest, õigustab selle loomist rõhutades võimalikke eeliseid. Samal ajal hoiatavad tööstuse eksperdid kiire tempo eest, millega tehisintellekti arendamine ületab seadusandluse, kutsudes kiiret vajadust tõhusate kontrollimeetmete järele.

Asjakohased faktid:
– Kunstlik intelligentsus (AI) tehnoloogia, nagu Microsofti VASA-1, on osa laiemast valdkonnast, mida tuntakse sügava õppimise nime all, ning mis on viimastel aastatel teinud kiireid edusamme realistlike sünteetiliste meediumide loomisel.
– Tehnoloogiad, mis sarnanevad VASA-1-le, tekitavad küsimusi “deepfake’ide” kohta, mis kasutavad AI-d võltsvideote või helisalvestuste loomiseks, mis tunduvad ehtsad. Sellel on tõsised tagajärjed desinformatsioonile ja võimalusele levitada valeuudiseid.
– AI eetika juhiste ja raamistike, eriti vastutustundliku AI jaoks, väljatöötamine on muutunud kuuma teemaks. Organisatsioonid nagu Partnership on AI, kuhu kuulub ka Microsoft, tegelevad parimate tavade mõistmise ja loomisega AI-tehnoloogiate jaoks.
– Microsofti AI eetika lähenemine juhindub põhimõtetest nagu õiglus, usaldusväärsus ja ohutus, privaatsus ja turvalisus, kaasatus, läbipaistvus ja vastutus.

Põhiküsimused ja vastused:
Mis riskid kaasnevad VASA-1 sarnaste tehnoloogiatega? Peamine risk on deepfake’ide loomine, mida saab kuritarvitada desinformatsiooni levitamiseks, pettuse toimepanemiseks või isikuandmete varguseks.
Kuidas plaanib Microsoft VASA-1 väärkasutuse ära hoida? Kuigi artiklis pole mainitud, on Microsoftil tõenäoliselt sisejuhised ning võib teha koostööd välispartneritega, et tagada selliste tehnoloogiate vastutustundlik kasutamine ja võib arendada sünteetiliste meediumide avastamise tööriistu.

Põhilised väljakutsed või vaidlused:
– Eetilised dilemmad: Tähtis on leida tasakaal innovatsiooni ja eetiliste kaalutluste vahel. VASA-1, olles revolutsiooniline, võib potentsiaalselt olla kasutatav eetiliselt sobimatute eesmärkide saavutamiseks.
– Regulatsiooni viivitus: AI tehnoloogia areneb kiiremini kui regulatiivsed raamistikud suudavad sammu pidada, luues väljakutse normide ja seaduste kehtestamisel selle kasutamiseks.

Eelised ja puudused:
Eelised:
– Eelised puuetega inimestele, haridusvahendid, tervishoid ja teised tööstusharud.
– Potentsiaal innovatsiooniks ja uute kunsti- ja suhtlusvormide loomiseks.

Puudused:
– Risk väärkasutamiseks deepfake’ide loomisel.
– Võimalik desinformatsiooni levik ja meedia usaldusväärsuse õõnestamine.

Soovitatavad seotud lingid:
– Lisateabe saamiseks Microsofti töö kohta AI valdkonnas külastage nende peamist domeeni: Microsoft.
– Et teada saada Partnership on AI ja selle juhiste kohta AI eetika kohta: Partnership on AI.

Palun märka, et täiendavaid üksikasju, nagu konkreetsed tõkkepuumid, mida Microsoft kavatseb VASA-1-ga rakendada, tehnoloogia ulatust või koostööd teiste osapooltega nende ettevõetud eetiliste murede lahendamise osas, ei antud antud artiklis ja seetõttu ei ole siin käsitletud.

Privacy policy
Contact