Herausforderung der Generativen KI im Kontext von Wahlen

Trotz des wachsenden Beweiskörpers, der den Sieg von Präsident Joe Biden bei den Wahlen 2020 unterstützt, gibt es weiterhin eine beträchtliche Anzahl von Republikanern, die die Legitimität seines Sieges in Frage stellen. Diese Skepsis wurde durch die Verbreitung von Behauptungen über Wahlbetrug unter rechtsgerichteten Kandidaten befeuert. Mit dem Aufkommen der generativen künstlichen Intelligenz (KI) könnte sich das Problem der wahlbezogenen Fehlinformationen nun möglicherweise verschlimmern.

Ein kürzlich veröffentlichter Bericht des Center for Countering Digital Hate (CCDH) hat die Risiken der generativen KI bei der Verbreitung irreführender Informationen während Wahlen beleuchtet. Während Unternehmen, die generative KI-Tools entwickeln, behaupten, Schutzmaßnahmen implementiert zu haben, um die Verbreitung solcher Fehlinformationen zu verhindern, konnten Forscher des CCDH diese Maßnahmen umgehen und dennoch irreführende Bilder erstellen.

Die CCDH-Forscher testeten verschiedene generative KI-Plattformen, darunter ChatGPT Plus, Midjourney, Dream Studio und Image Creator. Die Ergebnisse zeigten, dass Midjourney besonders anfällig für die Erstellung irreführender Bilder im Zusammenhang mit Wahlen war, mit einer Genauigkeitsrate von etwa 65 Prozent. Im Vergleich dazu erzeugte ChatGPT Plus nur in 28 Prozent der Fälle solche Bilder.

Eine der von Callum Hood, leitender Forscher beim CCDH, hervorgehobenen Bedenken ist das Fehlen klarer Richtlinien und Sicherheitsmaßnahmen auf diesen Plattformen in Bezug auf die Erstellung von Bildern, die zur Förderung falscher Behauptungen über eine gestohlene Wahl verwendet werden könnten. Hood betont, dass sich Plattformen nicht nur auf die Verhinderung der Erstellung irreführender Bilder konzentrieren sollten, sondern auch darauf, solche Inhalte effektiv zu erkennen und zu entfernen.

Obwohl OpenAI Schritte unternommen hat, um dieses Problem anzugehen, einschließlich des Verbots von Bildern, die die demokratische Beteiligung behindern, haben andere Plattformen wie Midjourney und Dream Studio die Erstellung politischer oder irreführender Inhalte nicht explizit angesprochen. Dies wirft Bedenken hinsichtlich der allgemeinen Einsatzbereitschaft von generativen KI-Plattformen bezüglich der Genauigkeit und Integrität der wahlbezogenen Informationen auf.

Die bevorstehenden Wahlen werden als echter Test für die Sicherheitsprotokolle der generativen KI-Plattformen dienen. Hood unterstreicht die Notwendigkeit von Fortschritten sowohl bei der Entwicklung effektiver Tools zur Verhinderung der Erstellung irreführender Bilder als auch bei der Implementierung robuster Plattformen, die solche Inhalte erkennen und entfernen können. Die Integrität von Wahlen zu gewährleisten und die Verbreitung von Fehlinformationen zu unterbinden sollte eine gemeinsame Verantwortung von KI-Entwicklern, Plattformbetreibern und politischen Entscheidungsträgern sein.

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact