Výzva Generativní AI v Kontextu Voleb

Navzdory rostoucímu množství důkazů podporujících vítězství prezidenta Joea Bidena ve volbách 2020 stále existuje značné množství republikánů, kteří zpochybňují legitimnost jeho vítězství. Tato skepse byla podporována prevalencí tvrzení o volebních podvodech mezi kandidáty pravicového zaměření, kteří kandidují do úřadu. Nyní, s nástupem generativní umělé inteligence (AI), by se problém dezinformací týkajících se voleb mohl potenciálně zhoršit.

Nedávná zpráva od Centra pro Odporování Digitálnímu  Hněvu (CCDH) přinesla informace o rizicích spojených s generativní AI při šíření zavádějících informací během voleb. Zatímco společnosti vyvíjející nástroje generativní AI tvrdí, že zavedly opatření k zabránění šíření takových dezinformací, výzkumníci v CCDH byli schopni obejít tato opatření a vytvořit zavádějící obrázky bez ohledu na to.

Výzkumníci z CCDH testovali různé platformy generativní AI, včetně ChatGPT Plus, Midjourney, Dream Studio a Image Creator. Výsledky ukázaly, že Midjourney byl zvláště náchylný k vytváření zavádějících obrázků souvisejících s volbami s přesností přibližně 65 procent. Naopak ChatGPT Plus vytvořil takové obrázky pouze 28 procent času.

Jedním z důvodů uvedených Callumem Hoodem, vedoucím výzkumníkem v CCDH, je nedostatek jasných politik a bezpečnostních opatření na těchto platformách týkajících se vytváření obrázků, které mohou být použity k propagaci falešných tvrzení o ukradených volbách. Hood zdůrazňuje, že platformy by se měly zaměřit nejen na zabránění vytváření zavádějících obrázků, ale také na efektivní detekci a odstranění takových obsahů.

Zatímco OpenAI přijal kroky ke zvládnutí tohoto problému, včetně zakazování obrázků, které découragem demokratickou účast, jiné platformy jako Midjourney nebo Dream Studio se explicitně nevypořádaly s tvorbou politických nebo zavádějících obsahů. To vyvolává obavy ohledně celkové připravenosti generativních platforem AI na zajištění přesnosti a integrity informací spojených s volbami.

Nadcházející volby budou sloužit jako skutečný test bezpečnostních protokolů generativních platforem AI. Hood zdůrazňuje potřebu pokroku jak ve vývoji efektivních nástrojů pro zabránění vytváření zavádějících obrázků, tak v implementaci robustních platforem, které dokáží detekovat a odstraňovat takový obsah. Zajištění integrity voleb a prevence šíření dezinformací by mělo být sdílenou odpovědností mezi vývojáři AI, provozovateli platforem a tvůrci politik.

The source of the article is from the blog maltemoney.com.br

Privacy policy
Contact