LastPass zaměstnanec překazí podvod s napodobováním řízený umělou inteligencí

V odvážném pokusu infiltrace do společnosti spravující hesla LastPass zneužili kyberzločinci technologie umělé inteligence k napodobení hlasu ředitele LastPass, Karima Toubby. Pod záminkou Toubby vytvořili podvodníci falešný účet WhatsApp a zahájili konverzaci se zaměstnancem společnosti tím, že posílali hlasové zprávy, jež byly pozoruhodně podobné hlasu ředitele.

Navzdory vysoké technologické lesti byla bdělost zaměřeného zaměstnance LastPass a jeho odolnost vůči stresu rozhodující při zmaření podvodného plánu. Zaměstnanec se začal mít podezření, když interakce odchýlily od typických profesionálních komunikačních kanálů na WhatsAppu. Další signál k zvednutí alarmu bylo použití taktiky tlaku známé jako „nařízená naléhavost,“ což je charakteristický znak manipulace, často používaný podvodníky k nucenému jednání jejich obětí k rychlému akci.

Tato přestrojení nenechala chytrého zaměstnance LastPassu v klamu, který si uvědomil, že celá konverzace byla vykonstruovaná. Mezitím LastPass potvrdil, že podvodné pokusy byly zmařeny a bezpečnostní tým v současné době incident zkoumá. Firmy se snaží o zvýšení povědomí o tom, jak se deepfake stává stále častěji používaným nástrojem těch, kteří se vydávají za firemní výkonné ředitele za účelem provedení podvodů.

Trend používání umělé inteligence k předstírání není omezený jen na LastPass. Nedávno byl například zaměstnanec v oblasti financí v Hongkongu oklamán k provedení převodu 25,6 milionů dolarů během toho, co věřil, že probíhá živý videohovor, podle pokynů falešného finančního ředitele sídlícího ve Velké Británii. S ohledem na takové události Spojené státy, počínaje 8. únorem 2024, zakázaly použití hlasových botů s umělou inteligencí při nevyžádaných „cold calls“ komerčními podniky.

Aktuální trendy na trhu:
S ohledem na rostoucí sofistikovanost technologií umělé inteligence se podvodné scény stávají stále pokročilejšími. Existuje rostoucí trend kyberzločinců, kteří využívají AI-strojovou hloubku zvuku a videa k předstírání jednotlivců. Taková technologie může napodobovat hlasy, mimiku a tělesnou řeč skutečných lidí, což komplikuje odlišení falešného od pravého pro neškolené oko, nebo ucho. V důsledku toho existuje zvýšený důraz na potřebu pokročilých bezpečnostních opatření, která mohou detekovat a zabránit zneužití technologie deepfake.

Předpovědi:
Odborníci předpokládají, že používání umělé inteligence v kybernetické bezpečnosti bude nepochybně růst, avšak stejně tak se bude zvětšovat i používání umělé inteligence kyberzločinci. Závod v ozbrojení mezi bezpečnostními experti a kyberzločinci může vést k sofistikovanějším bezpečnostním protokolům na jedné straně a k pokročilejším pokusům o deepfake a předstírání na straně druhé. Je také pravděpodobné,že dojde k zvýšenému investování do technologií, které dokážou detekovat deepfake, stejně jako k posílení školení zaměstnanců v rozpoznávání a řešení sofistikovaných pokus o phishing.

Klíčové výzvy a kontroverze:
Jedním z hlavních výzev je držet krok s rychlým pokrokem technologie AI u páchajícími kyberzločinci. Technologie deepfake, která byla kdysi snadno rozpoznatelná, je nyní tak pokročilá, že může být obtížné ji detekovat. Navíc se s těmito technologickými pokroky začínají vznikat etické obavy ohledně použití umělé inteligence k podvádění a manipulaci. Existuje trvající kontroverze týkající se regulace umělé inteligence a deepfake, včetně otázek na to, jak najít rovnováhu mezi inovací a obavami o soukromí proti rizikům zneužití.

Nejtěžší otázky, které se týkají tématu:
– Jak se mohou společnosti připravit a ochránit proti útokům s umělou inteligencí?
– Jaké jsou právní důsledky používání technologie deepfake pro podvody?
– Jsou současná opatření kybernetické bezpečnosti dostatečná k udržení kroku s rychlým vývojem technologie AI páchané zločinci?

Výhody a nevýhody:
Výhody použití umělé inteligence v kybernetické bezpečnosti spočívají v tom, že dokáže identifikovat vzory, anomálie a hrozby mnohem rychleji než člověk, často v reálném čase. To může pomoci zabránit podvodům a průlomům dříve, než způsobí škodu. Nevýhodou je, že stejná technologie je k dispozici kyberzločincům, kteří ji mohou použít k zlomyslným účelům, jako jsou podvodné triky. Vytváří to neustálý boj o zůstání krok před útočníky a klade tlak na týmy kybernetické bezpečnosti, aby se rychle přizpůsobili neustále se vyvíjejícím hrozbám.

Pro další poznatky o kybernetické bezpečnosti a technologiích AI můžete navštívit následující odkazy:
LastPass
Cybersecurity and Technology Forum

Všimněte si, že všechny poskytnuté odkazy jsou aktuální k datu tohoto psaní. Uživatelé by měli ověřit platnost odkazů nezávisle.

Privacy policy
Contact