Online-Betrüger nutzen KI-Stimmklonierung für Promi-Werbescams auf YouTube aus

Online-Betrüger machen sich die KI-Stimmklonierungstechnologie zunutze, um Nutzer auf YouTube mit gefälschten medizinischen Nutzenbetrügereien zu täuschen. Anstatt auf herkömmliche Phishing-Methoden zurückzugreifen, verwenden Betrüger generative KI-Tools, um Deepfake-Stimmen von Prominenten wie Steve Harvey und Taylor Swift sowie echten menschlichen Nachahmern zu erstellen. Diese betrügerischen Videos haben erhebliche Aufmerksamkeit erregt und über 195 Millionen Aufrufe auf mehr als 1.600 YouTube-Videos verzeichnet.

Durch das Zerlegen von Clips von Prominenten und den Einsatz von KI-erstellten Voiceovers tricksen die Betrüger die Zuschauer aus und lassen sie glauben, dass diese berühmten Personen die Betrügereien unterstützen. Die Videos tragen oft irreführende YouTube-Kontonamen wie „USReliefGuide“ und „Health Market Navigators“. Ein Video, das Steve Harvey imitiert, hat über 18 Millionen Aufrufe erzielt und zeigt den Deepfake, wie er die Zuschauer dazu ermutigt, einen 6.400-Dollar-Stimulus-Scheck in Anspruch zu nehmen, der von der US-Regierung bereitgestellt wird.

Der Betrug folgt einem gängigen Muster, bei dem der Prominente oder Nachahmer das Publikum über den Stimulus-Scheck informiert und sie auffordert, auf einen Link zu klicken, um die Leistungen zu beantragen. Die URLs leiten die Nutzer jedoch auf nicht autorisierte Websites wie „secretsavingsusa.com“ um, auf denen sensible persönliche Informationen wie Einkommen, Steuerstatus, Geburtsdatum und sogar Kreditkartendaten erfasst werden. Diese Betrügereien nutzen die Verwirrung um staatliche Programme und Steuergutschriften aus und führen nichtsahnende Opfer potenziell in die Identitätsbetrug.

Die Verfügbarkeit erschwinglicher und benutzerfreundlicher KI-Technologie hat zum Aufkommen von Betrügereien mit Deepfake-Prominenten beigetragen. Die Federal Trade Commission (FTC) hatte bereits zuvor vor Betrügern gewarnt, die Deepfakes und Stimmklone für illegale Aktivitäten wie Finanzbetrug und Erpressung einsetzen. Eine Untersuchung von PLOS One ergab, dass Deepfake-Audio menschliche Hörer fast 25% der Zeit täuschen kann, was die Wirksamkeit dieser Betrügereien unterstreicht.

Während Gesetzgeber versuchen, das Problem mit vorgeschlagenen Gesetzen wie dem Deepfakes Accountability Act und dem No Fakes Act anzugehen, bleibt die Verabschiedung solcher Gesetzgebung unsicher. Kürzlich haben Gesetzgeber den No AI FRAUD Act eingeführt, der darauf abzielt, einen föderalen Rahmen zu schaffen, der die Rechte von Einzelpersonen an ihrer digitalen Ähnlichkeit schützt, insbesondere Künstler und Darsteller. Angesichts der schnellen Entwicklung der KI-Technologie könnte es jedoch schwierig sein, mit den Taktiken der Betrüger Schritt zu halten und Nutzer vor solchen Täuschungen zu schützen.

The source of the article is from the blog krama.net

Privacy policy
Contact