Att navigera farvattnen av AI-drivna bedrägliga samtal

Bedrägliga samtal, tidigare kända som ”mormorbedrägeriet,” har fått nytt liv genom artificiell intelligens. Framväxten av ”röstkloningsteknik” utgör nu en betydande utmaning i att identifiera legitima samtal, då bedragare kan exakt replikera röster från älskade.

En enkel 10 sekunders ljudinspelning kan ge skadliga aktörer möjlighet att övertygande efterlikna en familjemedlems röst tack vare avancerade AI-verktyg. Representanter från Federala kontoret för informationssäkerhet betonar det minimala ljudkravet för att utföra denna sofistikerade bedrägeri, vilket kan hämtas från olika digitala fotspår såsom röstbrevlåda, sociala medier och meddelandeappar.

När tekniken tillåter skapandet av dessa falska representationer, kända som Deepfakes, med en alarmerande hastighet, blir det en skrämmande uppgift att skilja mellan verkliga och förfalskade röster. Särskilt i nödsituationer som simuleras av bedragare är det otroligt utmanande för den genomsnittliga personen att känna igen förfalskade talpattar.

Hur matchar bedragare röster med offer?

Pusslet att matcha klonade röster med motsvarande familjemedlemmar löses oftast genom data som erhållits på olagligt vis, ofta köpt på dark web där läckta informationer sprids, förklarar AI-specialist och mjukvaruingenjör Michael Zerna.

Skydda dig mot AI-drivna telefonsamtalsbedrägerier

När du blir måltavla för sådana bedrägliga samtal finns vissa åtgärder du kan vidta för att skydda dig. Följande riktlinjer rekommenderas av säkerhetsorgan och myndigheter för konsumenters skydd:

– Ge inte vika för press; förbli lugn vid brådskande situationer.
– Undvik att lämna ut personlig information.
– Avstå från att göra hastiga finansiella transaktioner.
– Kontrollera samtalets äkthet genom att kontakta på andra sätt.
– Notera detaljer såsom datum, tid och uppringarens nummer för att rapportera till myndigheterna.

Intressant nog har röstkloningsteknik även haft en positiv inverkan inom vården, med företag som ”Voice Keeper” som lagrar röster från individer drabbade av sjukdomar som påverkar deras förmåga att tala, vilket säkerställer att deras ord fortfarande kan erkännas som deras egna, även om de förlorar förmågan att uttala dem.

Bedrägliga samtal som utnyttjar AI-drivna röstkloningstekniker utgör betydande utmaningar både för individer och rättshandhavarande myndigheter. När dessa verktyg blir mer tillgängliga blir nyckelfrågor, utmaningar och kontroverser kring denna fråga allt viktigare att ta itu med.

The source of the article is from the blog mendozaextremo.com.ar

Privacy policy
Contact