Studie zeigt die Unwirksamkeit von KI-Bildfiltern bei der Verhinderung von Deepfakes

Eine Bewertung durch das CCDH in Washington D.C. hat erhebliche Unterschiede in den Fähigkeiten von KI-Programmen aufgedeckt, die die Erstellung gefälschter Bilder blockieren sollen. Bei einer Untersuchung vom 5. Juni wurde festgestellt, dass Midjourney und ChatGPT, beide auf Text-basierte Bildgenerierungssoftware, große Unterschiede in ihrem Filtererfolg aufweisen.

Laut Bericht konnten Midjourneys Vorsichtsmaßnahmen 40% der Versuche, falsche Bilder zu generieren, nicht stoppen, im Gegensatz zu lediglich 3% Versagensrate bei ChatGPT. Die Diskrepanz wurde noch deutlicher bei Tests mit Bildern von Präsident Joe Biden und dem ehemaligen Präsidenten Donald Trump.

Während dieser Tests war Midjourney in der Hälfte der Fälle erfolglos und erzeugte zahlreiche irreführende Bilder, darunter eines, auf dem Präsident Biden inhaftiert zu sein schien. Um ein gefälschtes Bild von Präsident Biden zu erstellen, wurde ein einfacher beschreibender Anstoß ohne direkte Namensnennung verwendet.

Im März wurde berichtet, dass Midjourney Anstöße, die sowohl auf Biden als auch auf Trump Bezug nahmen, blockiert hatte, um die Erstellung gefälschter Bilder zu verhindern. Dennoch entdeckte das CCDH, dass Benutzer diese Richtlinie leicht umgehen konnten. In einigen Fällen ermöglichte das einfache Hinzufügen eines einzelnen Schrägstrichs zu einem zuvor blockierten Anstoß die Erstellung manipulierter Fotos.

Wesentliche Fragen und Antworten:

– Was sind Deepfakes und warum stellen sie ein Risiko dar? Deepfakes sind synthetische Medien, in denen eine Person in einem vorhandenen Bild oder Video durch das Abbild einer anderen Person ersetzt wird, häufig mithilfe von künstlicher Intelligenz. Sie stellen ein Risiko dar, weil sie verwendet werden können, um überzeugende Fake News zu erstellen, die öffentliche Meinung zu manipulieren und politische Prozesse zu stören, indem Desinformation verbreitet wird.

– Wie effektiv sind KI-Bildfilter bei der Erkennung und Verhinderung von Deepfakes? Die Wirksamkeit variiert. Wie in der Studie angegeben, haben verschiedene KI-Programme wie Midjourney und ChatGPT unterschiedliche Erfolgsgrade gezeigt, wobei einige deutlich scheiterten, die Erstellung gefälschter Bilder zu blockieren.

– Warum könnte es Unterschiede in der Wirksamkeit von KI-Filtern geben? Dies könnte auf Unterschiede in den Algorithmen, den verwendeten Trainingsdaten, der Programmierung von akzeptablen Inhaltsparametern oder darauf zurückzuführen sein, wie die KI Benutzeranweisungen interpretiert und versucht, Beschränkungen zu umgehen.

Herausforderungen oder Kontroversen:

– Technologischer Wettrüsten: Die ständige Herausforderung besteht darin, mit der zunehmenden Raffinesse der Deepfake-Technologie Schritt zu halten. Mit der fortschreitenden Entwicklung der KI werden auch die Methoden zur Erstellung und Erkennung von Deepfakes immer fortschrittlicher.

– Ethik: Der Einsatz von KI zur Erstellung oder Filterung von Deepfakes führt zu ethischen Diskussionen über Zensur, Datenschutz und die Manipulation von Medien.

– Politik und Regulierung: Die Schaffung internationaler Rahmenbedingungen für die Regulierung der Herstellung und Verbreitung synthetischer Medien ist komplex und noch nicht vollständig realisiert.

Vorteile und Nachteile:

– Vorteile: KI-Bildfilter können potenziell die weit verbreitete Verbreitung von Deepfakes verhindern, um Personen vor Verleumdung und die Gesellschaft vor Fehlinformationen zu schützen.

– Nachteile: KI-Algorithmen sind möglicherweise nicht narrensicher und können relativ einfach umgangen werden. Darüber hinaus könnte eine übermäßige Filterung legitime Kreativität und die Meinungsfreiheit unterdrücken.

Für weitere Untersuchungen zu Deepfakes und KI-generierten Inhalten könnten Sie die Hauptwebsite des Center for Countering Digital Hate (CCDH) und die Hauptseiten von KI-Bildgenerierungsplattformen wie Midjourney und von KI-Plattformen wie OpenAI, den Entwicklern von ChatGPT, besuchen.

Denken Sie daran, vor dem Besuch immer zu überprüfen, ob URLs gültig und sicher sind.

The source of the article is from the blog rugbynews.at

Privacy policy
Contact