Využití umělé inteligence: Hrozba hlasového klonování

Umělá inteligence (AI) má obrovský potenciál pro zlepšení společnosti, ale nyní představuje významný problém v důsledku rostoucích podvodů. Jedním z nejnovějších podvodů je použití AI pro klonování hlasu, kde zločinci napodobují hlasy blízkých osob s cílem vydírat peníze. Tento znepokojující trend získává pozornost, protože nevinní lidé padají za oběť těmto manipulativním taktikám.

Sarita Khanna (jméno změněno) zažila děsivou událost, kdy obdržela hovor z neznámého čísla, tvrdící, že její dcera, Surbhi, je v nebezpečí. Hlas na druhém konci ji vyhrožoval a požadoval výkupné. Vystrašená a bojící se o bezpečnost dcery, Sarita souhlasila a převedla online 50 000 Rupií. O několik hodin později obdržela hovor od Surbhi, která byla v bezpečí a nic netušila o celém příběhu.

Vzniká otázka: Jak je to možné? Odpověď tkví v softwaru pro klonování hlasu poháněným umělou inteligencí. Tito zločinci mohou pomocí této technologie replikovat hlas cíle pouze za použití tří sekund zvukového záznamu. Studie provedená společností McAfee, známou softwarovou bezpečnostní firmou, odhalila, že 85 % těchto klonovaných hlasů má zarážející podobnost s originálem.

Rozšířenost sociálních médií hraje zásadní roli v umožňování těchto podvodů. Více než polovina všech dospělých dotazovaných v různých zemích, včetně Indie, pravidelně sdílí své hlasy online. Toto bohatství hlasových vzorků usnadňuje zločincům sběr dat pro jejich zlomyslné účely.

Bývalý důstojník IPS a expert na kybernetický zločin, Triveni Singh, vysvětluje, že tito podvodníci nejsou zkušení programátoři nebo informatičtí specialisté. Potřebují pouze přístup k nástrojům AI, telefonním číslům a nahrávkám hlasů ze sociálních médií k vytvoření syntetických kopií. Avšak pozorní posluchači často dokáží identifikovat falešné hlasy, pokud věnují pozornost.

Závažnost tohoto problému je zjevná z rostoucího počtu obětí padajících za oběť tomuto podvodu. Podle Singha asi 77 % obětí hlasového podvodu s umělým hlasem utrpělo finanční ztráty. Navíc s tím, jak se software pro klonování hlasu stává dostupnější, se očekává, že počet případů se bude nadále zvyšovat.

Kaveri Ahuja sdílela svou zkušenost s hlasovým podvodníkem, který používal záznam hlasu její plačící dcery k tvrzení, že byla unesena. Ačkoli Ahuja dokázala prokázat podvod a odhalit ho, mnoho jednotlivců panikaří a upadá do pasti kvůli emocionálnímu stresu způsobenému těmito hovory.

Klonování hlasu není jediným problémem; podvodníci začali také používat techniky klonování videí. Bývalý pracovník Coal India PS Radhakrishnan se stal obětí podvodu, kde podvodník tvrdil, že je jeho dlouho ztraceným přítelem v naléhavé potřebě finanční pomoci. Zločinec dokonce zavolal na videohovor a úspěšně přesvědčil Radhakrishnana, aby před podezřením vložil 40 000 rupií.

Techniky používané podvodníky neustále evoluují. Často používají zahraniční telefonní čísla nebo zneužívají vztahy k vytvoření pocitu naléhavosti. Bohužel je sledování těchto zločinců náročný úkol a mnoho obětí se rozhodne incidenty nepohlásit kvůli rozčarování.

Jak čelíme této vznikající hrozbě, je nezbytné přijmout opatření k ochraně osobních údajů a informovat se o rizicích, které tyto AI-poháněné podvody představují. Používání bezpečných online praktik, omezení sdílení osobního audio a video obsahu a bdělost mohou posloužit jako ochrana proti těmto manipulativním taktikám.

Často kladené otázky (FAQ)

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact