Aktuality v oblasti umělé inteligence (AI) a voleb: Ochrana demokracie

Umělá inteligence (AI) revolučně mění svět voleb, ale zároveň představuje značné riziko pro demokratické procesy. Jak se blíží volby v roce 2024 v Americe, obavy z AI-generovaných dezinformací, deepfake videí a klamných médií jsou aktuálnější než kdy jindy. Naštěstí vlády a technologické společnosti si uvědomují potřebu jednat, ale je stále třeba odvést mnoho práce k ochraně demokracie.

Nedávná Konference bezpečnosti v Mnichově viděla, jak se průmysloví lídři, včetně OpenAI, Apple, Meta, Microsoft, TikTok, Google a dalších, spojili k řešení výzev AI ve volbách. Přislíbili, že přijmou opatření k sledování původu AI-generovaného obsahu, detekci klamných médií a zavedení opatření proti klamavým trikům poháněným AI. I když tyto závazky jsou krok správným směrem, jejich úspěch závisí na jejich účinném provedení.

Vstup generativní technologie AI umožňuje podvodníkům vytvářet neuvěřitelně realistické falešné obrázky, videa a zvukové záznamy kandidátů a úředníků. Tyto vytvořené obsahy se mohou šířit rychle, za minimální náklady a ve velkém měřítku. Navíc AI poháněné chatboty umožňují vytváření falešných volebních webů a klamných zpravodajských webů během několika sekund. Tato schopnost poskytuje zlým hráčům, jak domácím, tak zahraničním, prostředky k vedení vlivových kampaní, které jsou obtížné sledovat.

Integrace generativní AI do vyhledávačů a chatbotů vedla ke situacím, kdy voliči hledající informace o volbách se setkávají s dezinformacemi nebo jsou směrováni na okrajové weby. Studie ukázaly, že populární AI nástroje často selhávají při určitých otázkách týkajících se voleb. Navíc tradiční technologie AI mohou přispívat k problémům s oprávněním voličů, což může vést k nesprávným výmazům z volebních seznamech.

V reakci na tyto výzvy AI společnosti, jako OpenAI, zavedly politiky na zmírnění škod souvisejících s volbami. OpenAI zakázala uživatelům vytvářet AI chatboty, které by napodobovali kandidáty a šířili falešné informace o hlasování. Navíc podnikli kroky k šifrování obrázků pro detekci neoprávněného použití. Avšak tyto akce stále mají svá omezení a je třeba udělat více.

Jedním z klíčových aspektů, který vyžaduje pozornost, je řešení falešných narrativů a zobrazení, které zatížily předchozí volební cykly. Politiky OpenAI explicitně nezakazují vytváření a šíření obsahu, který falešně ukazuje zasahování do voleb, nespolehlivé volební stroje nebo rozsáhlý volební podvod. Explicitní zákaz těchto kategorií by poskytl více jasnosti a ochrany pro voliče.

Spolupráce s vývojáři třetích stran je další oblast, která vyžaduje pozornost. Když třetí vyhledávače používají modely OpenAI, poskytnuté odpovědi mohou být nepřesné nebo zastaralé. Přísnější požadavky na partnery a integraci modelů OpenAI ve vyhledávačích a digitálních platformách by lépe ochránily voliče hledající informace o volbách a volbách.

OpenAI nedokáže tyto výzvy řešit samostatně. Ostatní hlavní technologické společnosti by měly také zveřejnit své vlastní volební politiky pro generativní AI nástroje a být transparentní ohledně svých postupů. Otevřený standard Koalice prozařízení obsahu a authenticity pro vložení obsahu s digitálními značkami by měl být široce přijat.

Často kladené otázky

The source of the article is from the blog foodnext.nl

Privacy policy
Contact