Microsofti insener propageerib DALL-E 3 ohjamitigatsiooni.

Dünaamilises tehisintellekti valdkonnas on OpenAI juhtiv üksus, tuntud oma tehisintellekti tooteid, ChatGPT ja DALL-E. Kui ChatGPT-i käivitamine pani avalikkuse hämmastuma selle võimekusega autonoomselt genereerida teksti andmebaasiuuringutest, siis DALL-E on kasutajaid šokeerinud piltide loomisega minimaalsete tekstisisendite põhjal.

Siiski ei ole DALL-E uuenduslik tehnoloogia ilma oma muredest. Microsofti juht on tõstatanud tõsise haavatavuse DALL-E kolmanda iteratsiooni puhul, kus potentsiaal luua ekspansiivseid või vägivaldseid pilte on olemas. Microsofti insener Shane Jones otsustas nendest riskidest rääkida. Seistes vastu väidetavatele katsetele teda vaikima sundida, saatis Jones julge sammu astudes kommuuni USAs asuvale senaatorile Patty Murray’le, selgitades neid turbeülesandeid.

Selliste haavatavuste tagajärjed ulatuvad lihtsast pildiloomisest kaugemale. Võimalikud stsenaariumid hõlmavad deepfake’ide loomist — videoid, mis fabritseerivad stsenaariume või näivad, et inimesed ütlevad midagi, mida nad kunagi ei teinud. Eriti tõsine oht on deepfake pornograafia, kuna tehisintellekt suudab manipuleerida näoilmeid ning liita need teiste figuuridele ekspansiivsetes videotel. Sellel on kurvad tagajärjed kuulsustele, kui valesti genereeritud pildid üksikisikutest nagu Taylor Swift põhjustavad avalikkuse seas pahameelt. Kuigi fännide ja sotsiaalmeedia platvormide ühised jõupingutused võivad piirata selliste deepfake’ide levikut, ei ole need kasvava probleemi püsiv lahendus.

Nende murede valguses soovitab Shane Jones, et DALL-E 3 tuleks tagasi kutsuda avalikust kasutusest kuni OpenAI ei lahenda tuvastatud riske, kaitstes sellega avalikkust selle võimsa tehisintellekti tööriista võimaliku väärkasutamise eest.

Olulised küsimused ja vastused:

1. Mis on DALL-E 3 ja miks on riskide maandamine selle tehisintellekti mudeli jaoks oluline?
– DALL-E 3 on OpenAI poolt välja arendatud väga arenenud tehisintellekti mudel, mis suudab luua realistlikke pilte ja kunsti tekstilistest kirjeldustest. Riskide maandamine on oluline, kuna tehnoloogial on potentsiaal olla kuritarvitamisele allutatud ekspansiivse või kahjuliku sisu loomisel, kaasa arvatud deepfake’id, mis võivad kahjustada mainet ja levitada valeinformatsiooni.

2. Mis on seotud deepfake tehnoloogiaga seotud võimalikud riskid?
– Deepfake tehnoloogia peamine oht seisneb võimes luua veenvaid, kuid valelikke kujutisi isikutest, viies mitmeid kahjusid, nagu valeinformatsioon, iseloomu tapmine ja emotsionaalne stress nende jaoks, kes ei soovi oma sarnasust eksplitsiitses sisus kasutada.

Põhilised väljakutsed ja vaidlused:

Sisu modereerimine: Õige tehisintellekti kuritarvitamise vältimiseks vajaliku sisu modereerimise tagamine on suur väljakutse. Seda protsessi on raske automatiseerida ilma aeg-ajalt tehisintellekti poolse vigade või kasutajate poolt ümbersõidu tegemiseta.

Eetika ja privaatsus: Eetilised tulemid tehisintellektile nagu DALL-E, kes saab manipuleerida sarnasusi ja luua sisu, mis siseneb isikliku privaatsuse domeeni, on vastuolulised. Tegemist on pideva aruteluga nõusoleku ja tehisloojate moraalse vastutuse üle.

Tehniliste kaitsemeetmete piirangud: Kuigi tehisintellekti süsteeme saab disainida kaitsemeetmetega kuritarvitamise ärahoidmiseks, ei ole need kõigutud. Sihipäraselt kahjulikud isikud leiavad sageli võimalusi piirangute möödumiseks, luues tehnoloogia arendajate ja kuritarvitajate vahel tõelise võidurelvastumise.

Regulatiivne vastus: Tekib vaidlus selle üle, kuidas reguleerivad organid peaksid vastama tehisintellekti loodud sisu poolt esitatavatele ohtudele. Eri osapooled omavad erinevaid seisukohti tasakaalu suhtes innovatsiooni, väljendusvabaduse ja kahjude eiramise vahel.

Eelised ja puudused:

Eelised:
– DALL-E 3 saab hõlbustada erinevaid loovusprotsesse, pakkudes tööriistu kunstnikele ja disaineritele.
– Seda saab kasutada hariduslikel eesmärkidel, rikastades õppimist kohapeal loodud visuaalsete abivahenditega.

Puudused:
– DALL-E 3 tehnoloogia kuritarvitamine võib viia ebaõige sisu loomiseni, mis omab õiguslikke ja ohutuslikke tagajärgi.
– Deepfake’e saab kasutada küberkiusamises või vale narratiivide loomiseks, sekkudes demokraatlikesse protsessidesse või isiklikesse ellu.

Privacy policy
Contact