Tehisintellekti ettevõtted ühendavad jõud digitaalse ärakasutamise ja deepfake’i mahasurumiseks

Maailmas oluline liitumine digitaalse ohutuse tagamiseks, suured tehnoloogiaettevõtted, sealhulgas Meta, Google ja Microsoft on koostöös lubanud tugevdada AI-tehnoloogias ohutusmeetmeid. Nende fookus on takistada AI valekasutamist deepfake’ide loomisel ja kompromiteeriva materjali loomisel, eriti lasteavalikkusega seotud.

Konsortsium, mille hulgas on ka nimekad AI-spetsialistid nagu Anthropic, OpenAI, Stability.AI ja Mistral AI, on nõustunud läbi vaatama AI-mudelite intelligentsust toitvad andmehulgad. Nad püüavad tagada, et andmed ei sisaldaks mingit lapse ärakasutamise materjali, et vähendada riski AI abil loodud lapsporno sisule.

Tunnustades tugevate avastussüsteemide hädavajalikkust, töötavad need tehnoloogiahiiglased ka selle kallal, et süvaveemärgistada AI-ga loodud sisu. See samm on suunatud digitaalsete loomingu päritolu jälgimisele ja kinnitamisele, pakkudes tõhusat meetodit autentse inimese loodud sisu ja sünteetiliste vastandite eristamiseks.

Stability AI julge väljaütlemine rõhutab nende pühendumust AI kasutamise keelamisele kahjulikel viisidel, mis on kooskõlas Meta, Microsofti ja nende kaaslaste kõrgendatud pingutustega. Nad on otsustanud võidelda mitte ainult lasteohutuse küsimuste, vaid laiemate küsimuste vastu seoses deepfake’ide levikuga.

Projektid nagu Koalitsioon Sisu Päritolu ja Autentsuse jaoks, mida toetavad tööstusjuhid nagu Google, Microsoft ja AWS, näitavad märkimisväärseid edusamme “sisu autentsuse” kaitsmise eest võitlemisel. Need autentsuse näitajad on mõeldud digitaalse sisu legitiimsuse tagamiseks, aidates seega võitluses petlike meediavormide vastu.

Need arengud tähistavad ettevõtete proaktiivse ettevõtluse ajajärku digitaalmaailmas, ettevaatlikult ennustades vajadust isoleerida ühiskonda kiiresti areneva AI potentsiaalsete kuritarvituste eest, eriti laste süütuse kaitseks.

AI-firmade ühendamine digitaalse ärakasutamise ja deepfake’ide vastu on väga oluline ning sellele on peamiselt kahte peamist vastust – miks on oluline, et suured tehnoloogiaettevõtted sellistel algatustel koostööd teeksid. Vastus peitub selles, et deepfake’id ja digitaalne ärakasutamine võivad avaldada märkimisväärset mõju nii üksikisikutele kui ka ühiskonnale. Deepfake’id võivad õõnestada usaldust digitaalmeedias, levitada desinformatsiooni ja neid võib kasutada inimeste, eriti laste ärakasutamiseks.

Väljakutsed ja vastuolud:
Väljakutsed:
– Tehniline keerukus: tehnoloogia arendamine, mis suudaks usaldusväärselt avastada deepfake’id, eriti kuna deepfake tehnoloogia jätkuvalt areneb.
– Andmekaitse: tagades, et veemärgistamine ja andmete kinnitamine ei rikuks üksikisikute privaatsusõigusi.
– Globaalne mõõde: arvestades digitaalse ärakasutamise rahvusvahelist aspekti, kuna internetil puuduvad piirid.

Vastuolud:
– Väljendusvabadus: tasakaalu leidmine pahatahtlike deepfake’ide ennetamise ning üksikisikutel sisu loomise ja jagamise õiguste vahel.
– Seadusandluse ebamäärasus: erinevus õigusraamistikus maailmas muudab ülemaailmse jõustamise väljakutseks.
– Kasutamine satiiris ja teadustöös: kuidas tehnoloogiat saab endiselt vastutustundlikult kasutada legitimatel eesmärkidel, nagu satiir või teadusuuringud.

Liidu eelised ja puudused:
Eelised:
– Ressursside jagamine: ressursside, ekspertiisi ja tehnoloogia konsolideerimine suurendab avastamise ja ennetuse strateegiate tõhusust.
– Tööstusharu standardite loomine: liit saab aidata kaasa universaalsete standardite väljatöötamisele digitaalse sisu tuvastamiseks.
– Avalik usaldus: tuntud tehnoloogiaettevõtete pingutused võivad aidata kaasa usalduse taastamisele meedia ja digitaalplatvormide vastu.

Puudused:
– Tehnoloogiline võidujooks: pahatahtlikud isikud võivad tehnoloogia innovatsiooni kiirendada, et turvameetmeid vältida, jätkates sellega relvastumisvõidujooksu.
– Valed positiivid: eksisteerib risk, et legitiimset sisu võidakse valesti märgistada valeks, mis võib potentsiaalselt põhjustada põhjendamatut tsensuuri.
– Kulu: nende tehnoloogiate arendamise ja hooldamise rahaline koorem võib olla märkimisväärne.

The source of the article is from the blog aovotice.cz

Privacy policy
Contact