AI Chatbots: A New Perspective on Risks and Opportunities

Kunstlik intelligentsus (AI) juturobotid ja pildigeneraatorid on viimastel aastatel populaarsust kogunud, kuid nendega kaasnevad ka puudused ja kallutatused. Need tööriistad on tuntud indiviididele sildistamise, valeinfo levitamise, diskrimineeriva sisu loomise ning ebatäpsete vastuste pakkumise poolest. Kuigi neid probleeme on põhjalikult kirjeldatud, puudub endiselt põhjalik arusaam nende levimusest ja raskusastmest.

Viimane tööriistade aruannet ettevõtlus- ja kodanikuühiskonna grupid on püüdnud valgust heita erinevatele viisidele, kuidas AI juturobotid võivad ebaõnnestuda. Uuring toob esile Valge Maja poolt toetatud võistluse tulemused, mis toimusid Def Con häkkijate konverentsil. Osalejad üritasid manipuleerida kaheksat juhtivat AI juturobotit genereerima probleemseid vastuseid, hõlmates valdkondi nagu poliitiline valeinfo, demograafilised kallutatused, küberturbe rikkumised ja väited AI teadlikkuse kohta.

Uuringu tulemused paljastavad, et AI juturobotid on üldiselt vastupidavad omaenda reeglite ja juhiste rikkumisele, mis teeb nende eksliku käitumise trikitamise keeruliseks. Siiski näitab uuring ka, et nende sundimine ebatäpset teavet esitama on suhteliselt lihtne. Osalejad saavutasid kõrgeid edulugusid vigaste matemaatika (76%) ja geograafilise valeinfo genereerimisel (61%). Lisaks näitasid juturobotid õigusliku valeteabe pakkumisel kalduvust, kui neile esitati küsimusi advokaatidelt, 45% edu määraga.

Aruanne tõstab ka esile juturobotite haavatavuse seoses tundlike andmete käsitlemisega. Osalejad suutsid edukalt välja nõuda peidetud krediitkaardi numbreid ja saada administratiivõigusi fiktiivse ettevõtte võrgus enam kui pooltel esitatud lahendustest.

Teisalt seisid osalejad silmitsi väljakutsetega püüdes manipuleerida juturoboteid inimõiguste rikkumiste andeksandmisel või teatud gruppide alavääristamise väitmisel. Nendel katsetel oli piiratud edu määr 20% ja 24%. Lisaks saavutasid esitatud lahendused “ülekorrektsiooni” testimiseks juturobotite poolt, nagu positiivsete omaduste omistamine vähemusgruppidele, samal ajal kui seda ei tehtud enamuse grupile, 40% edu määra. See lei
näitab, et ka teised AI mudelid, nagu näiteks Google Gemini, võivad kasutada kohmakaid lahendusi potentsiaalselt kahjulike stereotüüpide vastu võitlemiseks.

Huvitaval kombel selgitab aruanne, et kõige efektiivsem strateegia juturoboti eksiteele juhtimiseks pole mitte selle häkkimine, vaid alustada valesooniga. Tuntud tehnikad, nagu paluda juturobotil mängida kurja kaksikut või lahket vanaema, osutusid ebaefektiivseks. Selle asemel viis juturobotile valeväite või eelduse sisaldava küsimuse esitamine tõenäoliselt kuid ebatäpse vastuseni. See rõhutab juturobotite piiranguid fakti ja väljamõeldise vahel diferentseerimisel.

Nende järelduste tagajärjed on ulatuslikud. See kutsub AI ettevõtteid, kriitikuid ja regulaatoreid keskenduma keerukatele käsu häkkidele selle asemel, et uurida, kuidas juturobotid võivad kinnitada või võimendada kasutajate eelarvamusi ning valearusaamu. Nende potentsiaalsete kahjude mõistmine on oluline vastutustundlike AI süsteemide arendamise ja rakendamise jaoks.

Kuna nõue hinnata AI riske kasvab, võtavad paljud AI ettevõtted ja regulaatorid kasutusele “punase meeskonna” lähenemised. Punane meeskonnatöö hõlmab süsteemide privaatset hindamist häkkerite palkamise kaudu nende haavatavuste tuvastamiseks enne süsteemi väljalaset. Aruanne soovitab, et avalikud punase meeskonnatreeningud, nagu Def Con sündmus, omavad lisaväärtust, kaasates laiema avalikkuse mitmekesiseid seisukohti. Need harjutused annavad põhjalikuma arusaamise AI süsteemide poolt tekitatud väljakutsetest.

Veel üks uuringu tegevus nõrgendab AI mudeleid pikalevestluste osas. Kuigi käsu häkkimine võib olla viimaste AI mudelitega arvestatud, esitab pikemate vestluste võime uue ekspluateerimise vormi, mida nimetatakse “paljude laskude jailbreakinguks.” See näitab, et samad omadused, mis teevad AI süsteemid kasulikuks, võivad neid ka potentsiaalselt ohtlikuks muuta.

Kokkuvõttes pakub aruanne AI juturobotite haavatavuste kohta väärtuslikke teadmisi kunstliku intelligentsuse tehnoloogiate keerukas maastikus. See rõhutab jätkuva uurimistöö, avaliku kaasatuse ja vastutustundliku arenduse vajadust riskide leevendamiseks nendes süsteemides.

KKK

The source of the article is from the blog aovotice.cz

Privacy policy
Contact