Angajatul LastPass împiedică o înșelătorie de impersonare condusă de inteligenţă artificială.

Într-o încercare îndrăzneață de a se infiltra în compania de gestionare a parolelor LastPass, infractorii cibernetici au folosit tehnologii de inteligență artificială pentru a imita vocea directorului executiv LastPass, Karim Toubba. Prezentându-se ca Toubba, escrocii au creat un cont fals de WhatsApp și au inițiat o conversație cu un angajat al companiei, trimițând mesaje vocale care erau remarcabil de similare cu vocea directorului executiv.

Cu toate că înșelătoria high-tech, vigilența și rezistența la stres a angajatului LastPass țintit au fost esențiale în dejucarea schemei frauduloase. Angajatul a devenit suspicios pe măsură ce interacțiunile deviau de la canalele tipice de comunicare profesională pe WhatsApp. Ridicând și mai mult alarma a fost utilizarea unei tactici de presiune cunoscută sub numele de „urgență impusă”, un semn distinctiv al manipulării folosită în mod obișnuit de escroci pentru a-și forța victimele să acționeze în grabă.

Această mascaradă nu l-a păcălit pe atentul angajat LastPass, care a simțit că întreaga conversație era prefăcută. Între timp, LastPass a confirmat că avansurile frauduloase au fost anulate și echipa de securitate investighează în prezent incidentul. Prin partajarea deschisă a detaliilor întâlnirii, compania își propune să crescă gradul de conștientizare cu privire la modul în care deepfake-urile devin un instrument din ce în ce mai prevalență în arsenalele celor care se impersonalizează drept executivi corporativi pentru a desfășura escrocherii.

Trendul de utilizare a AI pentru impersonalizare nu este izolat la LastPass. Recent, un lucrător financiar din Hong Kong a fost păcălit să transfere 25,6 milioane dolari în timpul ceea ce ei credeau că era o videoconferință live, urmărind instrucțiunile de la un director financiar fals din Marea Britanie. Având în vedere astfel de evenimente, începând cu 8 februarie 2024, Statele Unite au interzis folosirea roboților vocali AI în apeluri „la rece” nesolicitate de către societăți comerciale.

Trenduri curente de pe piață:
Datorită creșterii sofisticării tehnologiilor de inteligență artificială (AI), escrocheriile de impersonalizare devin mai avansate. Există un trend tot mai mare al infractorilor cibernetici care folosesc deepfake-uri audio și video conduse de AI pentru a se impersonaliza pe ei înșiși. O astfel de tehnologie poate fi folosită pentru a imita voci, expresii faciale și limbajul corpului al unor persoane reale, făcând mai dificil pentru ochiul sau urechea neinstruită să distingă falsul de adevărat. Ca rezultat, există un accent sporit pe necesitatea de măsuri avansate de securitate cibernetică care pot detecta și preveni abuzul tehnologiei deepfake.

Previziuni:
Experții anticipează că utilizarea AI în securitatea cibernetică va crește fără îndoială, dar, în mod corespunzător, va crește și utilizarea AI de către infractorii cibernetici. Cursa între experții în securitate și infractorii cibernetici poate duce la protocoale de securitate mai sofisticate pe de o parte și la încercări de deepfake și impersonare mai avansate pe de altă parte. De asemenea, este probabil că va exista o investiție sporită în tehnologii care pot detecta deepfake-urile, precum și programe de pregătire mai robuste pentru angajați în recunoașterea și tratarea încercărilor sofisticate de phishing.

Principalii provocări și controverse:
Una dintre marile provocări este ținerea pasului cu progresul rapid al tehnologiei AI de către infractorii cibernetici. Tehnologia deepfake, care era cândva ușor de recunoscut, este acum atât de avansată încât poate fi dificil de detectat. În plus, preocupările etice cu privire la utilizarea AI pentru a păcăli și manipula apar odată cu aceste progrese tehnologice. Există o controversă în curs de desfășurare cu privire la reglementarea AI și a deepfake-urilor, inclusiv întrebări despre cum să se echilibreze inovația și preocupările legate de confidențialitate împotriva riscurilor de abuz.

Cele mai presante întrebări relevante pentru subiect:
– Cum pot companiile să se pregătească și să se protejeze împotriva atacurilor de impersonare conduse de AI?
– Care sunt consecințele legale ale utilizării tehnologiei deepfake pentru fraudă?
– Sunt măsurile curente de securitate cibernetică adecvate pentru a ține pasul cu dezvoltarea rapidă a tehnologiei AI de către actorii răi?

Avantaje și Dezavantaje:
Avantajele utilizării AI în securitatea cibernetică sunt că poate identifica modele, anomalii și amenințări mult mai repede decât oamenii pot, adesea în timp real. Acest lucru poate ajuta la prevenirea escrocăriilor și încălcărilor înainte să provoace pagube. Cu toate acestea, dezavantajul este că aceeași tehnologie este disponibilă și infractorilor cibernetici, care o pot folosi în scopuri malefice precum escrocările de impersonare. Acest lucru creează o bătălie constantă pentru a rămâne un pas înaintea atacatorilor și pune presiune asupra echipelor de securitate cibernetică de a se adapta rapid la amenințările în continuă evoluție.

Pentru mai multe informații despre securitatea cibernetică și tehnologiile AI, puteți vizita următoarele linkuri:
LastPass
Forumul de Securitate Cibernetică și Tehnologie

Vă rugăm să rețineți că orice linkuri furnizate sunt oferite cu convingerea că URL-urile sunt valabile la momentul redactării. Utilizatorii ar trebui să verifice URL-urile independent.

Privacy policy
Contact