Bekämpfung des Anstiegs von KI-verbesserten Telefonbetrügereien

Der Aufstieg der künstlichen Intelligenz hat die Raffinesse von Telefonbetrügereien erhöht, wobei neu entwickelte „Stimmen-Klon“-Technologien Betrüger befähigen, die Stimmen Ihrer Liebsten überzeugend nachzuahmen. Sicherheitsexperten aus Frankfurt raten der Öffentlichkeit dazu, diese raffinierten betrügerischen Anrufe zu erkennen und damit umzugehen.

Ihr Telefon klingelt und zeigt einen vertrauten Namen an – vielleicht den Ihres Kindes, Ihres Ehepartners oder Ihrer Eltern. Eine allzu realistische Stimme informiert Sie über einen angeblich schweren Unfall, an dem sie beteiligt waren, oder eine andere verzweifelte Situation und bittet letztendlich um Geld. Künstliche Intelligenz hat alten Tricks wie dem „Enkeltrick“ neues Leben eingehaucht, aber mit einem High-Tech-Dreh.

Deepfakes: Eine neue Bedrohung bei Telefonbetrügereien
Die Ära der künstlichen Intelligenz hat nicht nur die Möglichkeiten erweitert, sondern auch eine „Büchse der Pandora“ geöffnet, die es Kriminellen ermöglicht, KI-Software effektiv zu nutzen, um Stimmen zu fälschen, wie Nicole Bahn vom Verbraucherzentrale in Bremen feststellte. Der BSI-Sprecher erklärte, dass moderne KI-Tools überzeugende Nachahmungen mit minimalen Audioquellen aus Sprachnachrichten oder Social-Media-Inhalten erstellen können.

Wie Betrüger überzeugende Fake-Anrufe erstellen
Betrüger beschaffen persönliche Informationen aus Darknet-Märkten, um manipulierte Stimmen den richtigen Familienmitgliedern zuzuordnen, wie der KI-Experte Michael Zerna erläutert. Mit leistungsstarker Software ziehen sie schnell Verbindungen her, um den Schwindel glaubwürdiger zu machen.

Umgang mit einem potenziell KI-bedingten betrügerischen Anruf
Von KI generierte Stimmen-Deepfakes sind für ungeübte Ohren aufgrund von Nuancen in der Sprache und Drucktaktiken, um Opfer davon abzuhalten, den Betrug zu erkennen, fast nicht von echten Stimmen zu unterscheiden. Dennoch könnten gezielte Fragen den Fälscher ins Straucheln bringen. Der BSI schlägt vor, nach Nachnamen zu fragen oder vorab festgelegte Codewörter auszutauschen.

Best Practices gegen gefälschte KI-Anrufe
Um sich vor diesen KI-Betrügereien zu schützen, befolgen Sie die Ratschläge der Sicherheitseinrichtungen:
– Bewahren Sie Ruhe, ohne dem Druck nachzugeben.
– Geben Sie niemals sensible Informationen preis.
– Tätigen Sie keine voreiligen Zahlungen.
– Versuchen Sie, den angeblichen Anrufer über ein anderes Kommunikationsmittel zu erreichen.
– Dokumentieren Sie die Anrufdetails sorgfältig und melden Sie verdächtige Vorkommnisse der Polizei.

Interessanterweise dient Stimmenklonung einem doppelten Zweck. Unternehmen wie „Voice Keeper“ setzen sie ein, um die Stimmen von Menschen mit Sprachbeeinträchtigungen zu erhalten, sodass sie auch nach dem Verlust der Artikulation mit ihrer Stimme kommunizieren können. Dies unterstreicht die dualistische Natur der KI – sowohl als Werkzeug für Fehlverhalten als auch als Mittel zur Verbesserung der Lebensqualität.

The source of the article is from the blog rugbynews.at

Privacy policy
Contact