Utfordringa med generativ AI i valkonteksten

Trass i den veksande mengda bevis som støtta president Joe Bidens siger i presidentvalet i 2020, er det framleis eit betydeleg antal republikanarar som stiller spørsmål ved legitimiteten til valssigeren hans. Denne skepsisen har blitt auka av førekomsten av påstandar om valsfusk blant høgresida sine kandidatar som stiller til val. No, med framveksten av generativ kunstig intelligens (AI), kan problemet med valrelatert desinformasjon potensielt forverres.

Ein fersk rapport frå Center for Countering Digital Hate (CCDH) har kasta lys over risikoen knytt til generativ AI i spreiinga av misledande informasjon under val. Medan selskap som utviklar generativ AI-verktøy hevdar å ha implementert forsvarstiltak for å hindra spreiinga av slik desinformasjon, klarte forskarar ved CCDH å omgå desse tiltaka og skape misledande bilete likevel.

CCDH-forskara testa ulike generative AI-plattformer, inkludert ChatGPT Plus, Midjourney, Dream Studio og Image Creator. Resultata viste at Midjourney særleg var tilbøyeleg til å produsere misledande bilete knytt til val, med ein nøyaktigheitsrate på omtrent 65 prosent. Samanlikna med dette produserte ChatGPT Plus berre slike bilete 28 prosent av tida.

Ei av bekymringane som Callum Hood, hovudforskar ved CCDH, peiker på, er mangelen på klare retningslinjer og tryggingsmekanismar på desse plattformane når det gjeld produksjonen av bilete som kan brukast til å fremja falske påstandar om eit stjålet val. Hood understrekar at plattformane ikkje berre bør fokusera på å hindra produksjonen av misledande bilete, men også på å effektivt oppdaga og fjerne slikt innhald.

Sjølv om OpenAI har teke steg for å takla denne utfordringa, inkludert å ikkje tillata bilete som motverkar demokratisk deltaking, har andre plattformar som Midjourney og Dream Studio ikkje tydeleg adressert produksjonen av politisk eller misledande innhald. Dette gir grunn til bekymring om den overordna førebuinga til generativ AI-plattformar for å sikra nøyaktigheit og integritet i valrelatert informasjon.

Dei kommande vala vil vera ein ekte test for tryggingsprotokollane til generative AI-plattformar. Hood understrekar behovet for framsteg både i utviklinga av effektive verktøy for å hindre produksjon av misledande bilete og implementeringa av solide plattformar som kan oppdaga og fjerne slik innhald. Å sikra valas integritet og hindra spreiinga av desinformasjon bør vera eit delt ansvar mellom AI-utviklarar, plattformaoperatørar og beslutningstakarar.

The source of the article is from the blog lokale-komercyjne.pl

Privacy policy
Contact