Artificiell Intelligens: Autonom Hacking Väcker Oro

Artificiell intelligens (AI)-modeller har länge varit föremål för oro på grund av potentialen för snedvridna och skadliga resultat. Men nylig forskning från University of Illinois Urbana-Champaign (UIUC) avslöjar en ännu större risk. Dessa AI-modeller, när de kombineras med verktyg som möjliggör automatisk interaktion med andra system, kan agera som skadliga agenter och autonomt hacka webbplatser.

Forskarna vid UIUC visade denna förmåga genom att väpna flera stora språkmodeller (LLM) och använda dem för att kompromettera sårbara webbplatser utan mänsklig vägledning. Deras experiment visade att LLM-drivna agenter, utrustade med verktyg för att komma åt API:er, automatiserad webbläsning och feedbackbaserad planering, kunde navigera på webben självständigt och bryta sig in i buggiga webbapplikationer utan tillsyn.

UIUC-akademikerna förklarar i sin artikel, ”LLM-agenter kan autonomt hacka webbplatser,” att dessa agenter kan utföra komplexa uppgifter som SQL union attacker, extrahera databasinformation och utföra hacker utan förkunskap om sårbarheten. Experimenten utfördes på verkliga webbplatser inom en sandboxmiljö, vilket säkerställde att ingen skada skedde och ingen personlig information komprometterades.

Resultaten visade att proprietära modeller som GPT-4 och GPT-3.5 presterade bättre än öppna modeller sett till framgångsgraden. GPT-4 uppnådde en total framgångsgrad på 73,3% med fem passeringar och 42,7% med en passering. Jämfört med detta hade GPT-3.5 en framgångsgrad på endast 6,7% med fem passeringar och 2,7% med en passering. Forskarna tillskrev denna skillnad till bättre funktionsanrop och förmågan att bearbeta stora sammanhang i de proprietära modellerna.

En oroande aspekt av denna forskning är kostnadsanalysen. Forskarna fann att användningen av LLM-agent för att hacka webbplatser är mycket mer prisvärt än att anställa en mänsklig penetreringstestare. Med en genomsnittskostnad på $9,81 per webbplats och en total framgångsgrad på 42,7% visar LLM-agenter sig vara ett kostnadseffektivt alternativ. Även om kostnaden för närvarande kan begränsa bred användning, förutspår forskarna att LLM:er kommer att ingå alltmer i penetreringstestregimer i framtiden.

Medan säkerhetsbekymmer relaterade till snedvriden träningsdata och modellutdata är viktiga, betonar forskarna att risken eskalerar när LLM:er omvandlas till autonoma agenter. Dessa AI-modellers förmåga att navigera på webben självständigt och utföra komplexa hackaruppgifter väcker betydande säkerhetsbekymmer som måste hanteras.

När AI-teknologin fortsätter att utvecklas framhäver potentialen för autonoma skadliga agenter behovet av robusta säkerhetsåtgärder och etiska överväganden. Det är avgörande att hitta en balans mellan fördelarna med AI och de potentiella risker som är förknippade med dess autonoma kapacitet.

The source of the article is from the blog revistatenerife.com

Privacy policy
Contact