Künstliche Intelligenz und die Zukunft der Krypto-Kriminalität

In der Welt der Krypto-Kriminalität steht die künstliche Intelligenz (KI) vor der Revolutionierung verschiedener Branchen, wie Experten der Blockchain-Intelligenzplattform Chainalysis betonen. Während KI enormes Potenzial für positive Anwendungen birgt, bringt sie auch neue Herausforderungen und Risiken in die Welt der illegalen Aktivitäten.

Bei einem kürzlich abgehaltenen privaten Video-Webinar diskutierte Eric Jardine, der Leitende Forscher für Cyberkriminalität bei Chainalysis, die aktuellen Trends in illegalen Blockchain-Aktivitäten im Jahr 2023 und gab Einblicke in die Taktiken, die Kriminelle in Zukunft anwenden könnten.

Ein signifikantes Anliegen ist die potenzielle Verwendung großer Sprachmodelle (Large Language Models, LLMs) in kriminellen Aktivitäten. Jardine hob hervor, dass KI-Modelle zur Durchführung von Code-Prüfungen eingesetzt werden könnten, um die Sicherheit von dezentralen Finanzplattformen (DeFi) zu erhöhen. Auf der anderen Seite könnten diese Modelle jedoch auch von bösartigen Akteuren ausgenutzt werden, um Schwachstellen in Smart Contracts zu identifizieren, was Diebstahl und Betrug ermöglichen würde.

DeFi war ein bevorzugtes Ziel für den Diebstahl von Kryptowährungen, wobei Hacker Schwachstellen im Code ausnutzten, private Schlüssel erlangten und Preise manipulierten, um Vermögenswerte zu stehlen. Obwohl formale Prüfungen in der Blockchain-Industrie Standardpraxis geworden sind, ist ihre Wirksamkeit bei der Verhinderung von Hacks nicht narrensicher. Die Integration von KI in die Gleichung verkompliziert die Situation weiter, da ihr Einfluss auf Smart Contracts und deren Exploitationspotenzial ungewiss bleibt.

Neben DeFi könnte sich der Einfluss von KI auch auf andere Formen von kryptobezogenen Verbrechen, wie Romance-Scams, erstrecken. Bei diesen Betrügereien bauen Betrüger Beziehungen unter falschen Vorspiegelungen auf und nutzen die Opfer für finanzielle Zwecke aus. Jardine erwähnte, dass große Sprachmodelle mit unendlicher Geduld und Kreativität von Kriminellen in Romance-Scams verheerend eingesetzt werden könnten.

Bemerkenswert ist, dass trotz eines Rückgangs des Gesamtbetrugsbetrags von 6,5 Milliarden US-Dollar auf 4,6 Milliarden US-Dollar, Romance-Betrüger im Kryptobereich ihren Umsatz im Jahr 2023 gegenüber 2022 nahezu verdoppelt haben. Die durchschnittliche Zahlung im Zusammenhang mit Romance-Betrügereien belief sich auf 4.593 US-Dollar, obwohl Opfer oft mehrere Zahlungen leisteten, was zu noch größeren finanziellen Verlusten führte.

Es ist wichtig zu beachten, dass der absolute Betrag gestohlener DeFi-Fonds von 3,1 Milliarden US-Dollar im Jahr 2022 auf 1,1 Milliarden US-Dollar im Jahr 2023 zurückgegangen ist, während auch die Anzahl der Vorfälle abnahm. Darüber hinaus fiel der Anteil illegaler Aktivitäten an allen Krypto-Transaktionen im Jahr 2023 auf nur 0,34 % der Blockchain-Aktivität.

Während die Schnittmenge von KI und Kryptowährungen weiterhin an Bedeutung gewinnt, wird es entscheidend sein, dass Cybersicherheitsexperten, Blockchain-Entwickler und Strafverfolgungsbehörden den Kriminellen stets einen Schritt voraus sind. Nur durch proaktive Maßnahmen, umfangreiche Forschung und Zusammenarbeit können wir die Risiken durch raffinierte KI-gesteuerte Krypto-Verbrechen minimieren.

FAQ

Was ist dezentralisierte Finanzierung (DeFi)?
Dezentralisierte Finanzierung, oft als DeFi bezeichnet, umfasst verschiedene finanzielle Anwendungen und Dienstleistungen, die auf Blockchain-Technologie aufbauen. Diese Plattformen zielen darauf ab, Alternativen zu traditionellen zentralisierten Finanzsystemen zu bieten, um mehr Transparenz, Zugänglichkeit und finanzielle Inklusion zu ermöglichen.

Was sind große Sprachmodelle (LLMs)?
Große Sprachmodelle, oder LLMs, sind hochentwickelte künstliche Intelligenzmodelle, die in der Lage sind, menschenähnlichen Text zu verstehen und zu generieren. Diese Modelle werden mit riesigen Datenmengen trainiert und sind darauf ausgelegt, natürliche Sprachverarbeitung und -verständnis nachzuahmen.

Wie kann KI bei Romance-Scams eingesetzt werden?
KI, insbesondere große Sprachmodelle, können bei Romance-Scams eine Rolle spielen, indem Betrüger überzeugendere und personalisierte Personas erstellen können. Diese Modelle können Textantworten generieren, Emotionen manipulieren und die Illusion einer echten Beziehung aufrechterhalten, was Opfer dazu verleitet, finanziell manipuliert zu werden.

Für weitere Informationen besuchen Sie bitte die folgenden Quellen:
Chainalysis.com
Twitter.com

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact