Iššūkis Generatyvinės Dirbtinio Intelekto Kontekste, Susijusiame su Rinkimais

Nepaisant augančio įrodymų kiekio, patvirtinančio 2020 m. rinkimų laimėjimą Prezidentui Džo Bidenui, tebėra sąlyginai didelis konservatorių skaičius, kurie abejo jo pergalės teisėtumu. Ši skepsė buvo skatinama rinkimų sukčiavimo tvirtinimų, plintančių kairiųjų kandidatų, kurie bėga į pareigas, tarpe. Dabar, atsiradus generatyviniam dirbtiniam intelektui (AI), rinkimų susijusios dezinformacijos problema gali potencialiai pablogėti.

Neseniai paskelbtas pranešimas iš Center for Countering Digital Hate (CCDH) atskleidė pavojus, susijusius su generatyviniu AI, plačiai platinant klaidinančią informaciją rinkimų metu. Nors įmonės, kurios kuria generatyvinio AI įrankius, tvirtina, kad įdiegė apsaugos priemones, siekdamos neleisti tokių dezinformacijos platinimo, CCDH tyrėjai sugebėjo apgauti šias priemones ir kurti klaidinančius vaizdus nepaisant to.

CCDH tyrėjai išbandė įvairias generatyvinio AI platformas, įskaitant ChatGPT Plus, Midjourney, Dream Studio ir Image Creator. Rezultatai parodė, kad Midjourney buvo ypač linkęs kurti klaidinančius vaizdus, susijusius su rinkimais, su tikslumu apie 65 proc. Palyginimui, ChatGPT Plus šio tipo vaizdus sukūrė tik 28 proc. laiko.

Vienas iš pabrėžtų susirūpinimų, kuriuos paminėjo Callum Hoodas, CCDH vyriausias tyrėjas, yra aiškių taisyklių ir saugos priemonių trūkumas šiose platformose dėl vaizdų kūrimo, kurie galėtų būti naudojami skleisti netikras atšauktų rinkimų tvirtinimas. Hood pabrėžia, kad platformos turėtų dėmesį ne tik į klaidinančių vaizdų kūrimo prevenciją, bet taip pat į efektyvų tokių turinio aptikimą ir pašalinimą.

Nors OpenAI imasi žingsnių šiam klausimui spręsti, įskaitant draudžiant vaizdus, kurie skatina demokratinę dalyvavimą, kitos platformos, pvz., Midjourney ir Dream Studio, nėra aiškiai spręsčiusios politinio ar klaidingo turinio kūrimo klausimą. Tai kelia susirūpinimą dėl generatyvinio AI platformų bendros paruošties užtikrinant rinkimų informacijos tikslumą ir vientisumą.

Artėjantys rinkimai tarnaus kaip tikroji išbandymo situacija generatyvinio AI platformų saugos protokolams. Hood pabrėžia būtinybę siekti pažangos tiek kuriant efektyvius įrankius, skirtus klaidinančių vaizdų kūrimo prevencijai, tiek įgyvendinant tvirtas platformas, galinčias aptikti ir pašalinti tokius turinio formatus. Užtikrinant rinkimų vientisumą ir dezinformacijos plitimo prevenciją turėtų būti dalinis pareigos dalijimasis tarp AI kūrėjų, platformų operatorių ir politikų.

The source of the article is from the blog hashtagsroom.com

Privacy policy
Contact