Studie enthüllt die Unwirksamkeit von KI-Bildfiltern bei der Verhinderung von Deepfakes

Eine Bewertung des CCDH in Washington D.C. hat erhebliche Diskrepanzen in den Fähigkeiten von KI-Programmen aufgedeckt, das Erstellen von gefälschten Bildern zu blockieren. Bei einer am 5. Juni durchgeführten Untersuchung wurde festgestellt, dass Midjourney und ChatGPT, beide textgesteuerte Bildgenerierungssoftware, in ihrer Filtererfolgsquote erheblich variieren.

Laut dem Bericht scheiterten die Vorsichtsmaßnahmen von Midjourney bei 40% der Versuche, gefälschte Bilder zu generieren, im Gegensatz zu einer bloßen Ausfallrate von 3% bei ChatGPT. Die Diskrepanz wurde noch deutlicher in Tests mit Bildern von Präsident Joe Biden und dem ehemaligen Präsidenten Donald Trump.

Während dieser Tests scheiterte Midjourney in der Hälfte der Fälle und erzeugte zahlreiche betrügerische Bilder, darunter eins, in dem Präsident Biden scheinbar inhaftiert war. Um ein gefälschtes Bild von Präsident Biden zu erstellen, wurde eine einfache beschreibende Anfrage verwendet, ohne ihn namentlich zu erwähnen.

Im März wurde berichtet, dass Midjourney Anfragen, die sowohl Biden als auch Trump erwähnten, blockiert hatte, um die Erstellung von gefälschten Bildern zu verhindern. Dennoch entdeckte das CCDH, dass Benutzer diese Richtlinie leicht umgehen konnten. In einigen Fällen ermöglichte das Hinzufügen eines einzelnen Backslashes zu einer zuvor blockierten Anfrage die Erstellung manipulierter Fotos.

Schlüsselfragen und Antworten:

Was sind Deepfakes und warum stellen sie ein Risiko dar? Deepfakes sind synthetische Medien, bei denen eine Person in einem bestehenden Bild oder Video durch das Abbild einer anderen Person ersetzt wird, oft unter Verwendung von künstlicher Intelligenz. Sie stellen ein Risiko dar, weil sie dazu genutzt werden können, überzeugende Fake News zu erzeugen, die öffentliche Meinung zu manipulieren und politische Prozesse durch die Verbreitung von Fehlinformationen zu stören.

Wie effektiv sind KI-Bildfilter bei der Erkennung und Verhinderung von Deepfakes? Die Effektivität variiert. Wie aus der Studie hervorgeht, haben verschiedene KI-Programme wie Midjourney und ChatGPT unterschiedliche Erfolgsgrade gezeigt, wobei einige erhebliche Schwierigkeiten bei der Blockierung der Erstellung gefälschter Bilder hatten.

Warum könnte es Diskrepanzen in der Effektivität von KI-Filtern geben? Dies könnte auf Unterschiede in den Algorithmen, den verwendeten Trainingsdaten, der Programmierung von akzeptablen Inhaltsparametern oder darauf zurückzuführen sein, wie die KI Benutzeranfragen interpretiert und versucht, Einschränkungen zu umgehen.

Schlüsselherausforderungen oder Kontroversen:

Technologischer Wettrüsten: Es gibt die ständige Herausforderung, mit der sich entwickelnden Raffinesse der Deepfake-Technologie Schritt zu halten. Mit der zunehmenden Weiterentwicklung von KI werden auch die Methoden zum Erstellen und Erkennen von Deepfakes komplexer.

Ethische Implikationen: Der Einsatz von KI bei der Erstellung oder Filterung von Deepfakes führt zu ethischen Diskussionen über Zensur, Datenschutz und die Manipulation von Medien.

Richtlinien und Regulierung: Die Etablierung internationaler Rahmenbedingungen für die Kontrolle der Produktion und Verbreitung synthetischer Medien ist komplex und noch nicht vollständig realisiert.

Vor- und Nachteile:

Vorteile: KI-Bildfilter können möglicherweise die weitreichende Verbreitung von Deepfakes verhindern, wodurch Einzelpersonen vor Verleumdung und die Gesellschaft vor Fehlinformationen geschützt werden.

Nachteile: KI-Algorithmen sind möglicherweise nicht narrensicher und können mit relativ einfachen Tricks umgangen werden. Zudem könnte übermäßiges Filtern legitime Kreativität und Meinungsfreiheit unterdrücken.

Für weitere Informationen zu Deepfakes und KI-generierten Inhalten können Sie die Hauptwebsite des Center for Countering Digital Hate (CCDH) sowie die Hauptwebsites von KI-Bildgenerierungsplattformen wie Midjourney und KI-Plattformen wie OpenAI, den Entwicklern von ChatGPT, besuchen.

Bitte stellen Sie immer sicher, dass die URLs gültig und sicher sind, bevor Sie sie besuchen.

The source of the article is from the blog klikeri.rs

Privacy policy
Contact