Vulnerabilitatea Chatbot-urilor AI la Atacuri de Tip Canal Secundar: Ce Trebuie să Știi

Interacțiunea cu chatbot-urile bazate pe inteligență artificială (AI) a devenit din ce în ce mai populară, oferind utilizatorilor răspunsuri rapide și convenabile la întrebările lor. Cu toate acestea, o descoperire recentă făcută de cercetătorii de la Universitatea Ben-Gurion din Israel a scos la iveală o vulnerabilitate îngrijorătoare în conversațiile cu chatbot-urile AI. Hackerii pot exploata această vulnerabilitate pentru a spiona conversațiile private și pentru a accesa potențial informații sensibile.

Vulnerabilitatea în discuție este cunoscută sub numele de „atac de tip canal secundar”. Spre deosebire de metodele tradiționale de hacking care implică încălcarea zidurilor de securitate, atacurile de tip canal secundar se bazează pe inferența pasivă a datelor folosind metadate sau alte expuneri indirecte. Acest tip de atac poate fi efectuat de actori malefici pe aceeași rețea sau chiar de cineva de pe internet care poate observa traficul.

Ceea ce face ca chatbot-urile AI să fie în mod deosebit susceptibile la atacuri de tip canal secundar este practica lor de criptare. În timp ce dezvoltatorii de AI, cum ar fi OpenAI, folosesc criptare pentru a proteja traficul chatbot-urilor, cercetarea efectuată de echipa de la Universitatea Ben-Gurion sugerează că metodele de criptare folosite sunt defectuoase. Ca rezultat, conținutul mesajelor private schimbate cu chatbot-urile AI poate fi expus potențialilor ascultători.

Prin exploatarea acestei vulnerabilități, atacatorii pot aproxima în mod grosier comenzile date chatbot-urilor AI cu un grad semnificativ de exactitate. Cercetătorii au descoperit că întrebările sensibile adresate chatbot-urilor AI puteau fi detectate cu aproximativ 55% precizie de către actorii malefici. Acest lucru reprezintă o amenințare serioasă la adresa confidențialității și securității utilizatorilor.

Este important de menționat că această vulnerabilitate se extinde dincolo de OpenAI. Potrivit cercetării, majoritatea chatbot-urilor de pe piață, cu excepția lui Gemini de la Google, sunt susceptibile la aceste tipuri de atacuri. Rădăcina problemei constă în utilizarea datelor codate cunoscute sub numele de „token-uri” de către chatbot-uri pentru a facilita fluxul de conversație fără probleme. Deși procesul de livrare este în general criptat, token-urile în sine creează un canal secundar prin care atacatorii pot accesa și aproxima comenzile date chatbot-ului.

Pentru a demonstra exploatarea, cercetătorii de la Ben-Gurion au folosit date brute dobândite prin canalul secundar și au antrenat un model de limbaj pentru a identifica cuvinte cheie legate de comenzile date. Rezultatele au fost îngrijorătoare, cu modelul de limbaj aproximând cu precizie comenzile generale 50% din timp și prezicându-le cu o precizie remarcabilă 29% din timp.

Implicațiile acestei vulnerabilități sunt profund îngrijorătoare, în special în contextul subiectelor sensibile cum ar fi avortul sau problemele LGBTQ. Deoarece aceste subiecte se confruntă cu o creștere a criminalizării, persoanele care caută informații sau sprijin prin intermediul chatbot-urilor AI ar putea expune involuntar la pericol sau pedeapsă.

Microsoft, care deține OpenAI și Copilot AI, a recunoscut vulnerabilitatea. Cu toate acestea, aceștia asigură utilizatorii că detalii personale, cum ar fi numele, nu sunt probabil să fie prezise. Microsoft este hotărât să abordeze problema printr-o actualizare pentru a îmbunătăți protecția utilizatorilor.

În contextul acestor revelații, este crucial ca atât dezvoltatorii de AI, cât și utilizatorii să prioritizeze securitatea și confidențialitatea conversațiilor cu chatbot-urile AI. Măsuri solide de criptare ar trebui implementate pentru a preveni atacurile de tip canal secundar și pentru a asigura confidențialitatea informațiilor sensibile.

Întrebări Frecvente

The source of the article is from the blog macholevante.com

Privacy policy
Contact