Microsofto generuojančiojo dirbtinio intelekto AI rodė netikslius atsakymus, įvairovė, kurią atskleidė įsirožęs garso įrašas

Įsirožusio vidinės prezentacijos garso įrašo metu buvo aptarta Microsofto generuojančiojo dirbtinio intelekto įrankio „Security Copilot“ ir jo kovos su tiksliais atsakymais sunkumai. Pristatyme buvo aptarti „grėsmių medžiotojo“ testų rezultatai, kuriuose AI analizavo „Windows“ saugumo žurnalą siekdamas nustatyti galimą kenksmingą veiklą. Pasak „Microsoft“ tyrėjo, įrankis dažnai „haliucinavo“ neteisingais atsakymais, tai komplikavo patikimų informacijos gavimą. Siekdama parodyti įrankio galimybes, „Microsoft“ turėjo rinktis pavyzdžius, kurie atrodytų teisingi, nes AI generavo skirtingus atsakymus į tą patį klausimą dėl savo stochastinio pobūdžio.

„Security Copilot“ veikia panašiai kaip pokalbio robotas, teikiantis atsakymus kaip klientų aptarnavimo atstovas. Jis remiasi OpenAI „GPT-4“ dideliu kalbos modeliu, kuris taip pat suteikia „Microsoft“ kitoms generuojančioms AI programoms, pvz., „Bing Search“ asistentui. Įsirožusiojo garso įrašas rodo, kad „Microsoft“ turėjo ankstyvą prieigą prie „GPT-4“ ir demonstracijos buvo pradiniai tyrimai jo potencialo atžvilgiu.

Tačiau tyrėjai atskleidė, kad per ankstesnes iteracijas AI dažnai davė neteisingus atsakymus. Haliucinacijos reiškinys, kai AI generuoja atsakymus, nesusijusius su užklausa, buvo didelis iššūkis. „Microsoft“ bandė spręsti šią problemą pamatindama AI realiais duomenimis, tačiau „Security Copilot“, kuriam buvo naudojamas didelio kalbos modelio (GPT-4), nebuvo specialiai treniruojamas su saugumo duomenimis. Vietoj to jis remėsi savo dideliu, bendruoju duomenų rinkiniu.

Neaišku, ar „Microsoft“ pristatė šiuos rinktus pavyzdžius vyriausybei ir potencialiems klientams, ar bendrovė buvo skaidri dėl atrankos proceso. „Microsoft“ teigė, kad susitikime aptartos technologijos buvo užmezgamos prieš „Security Copilot“ ir jos buvo testuojamos su iš viešųjų duomenų rinkinių sukurtomis simuliacijomis, nenaudojant jokių klientų duomenų.

Šis įsirožimas kelia klausimus dėl generuojančiųjų AI įrankių patikimumo ir tikslumo, ypač kritiškose srityse, tokiose kaip saugumas. Būtina atlikti tolesnių tyrimų ir plėtros pastangas, siekiant eliminuoti haliucinacijas ir pagerinti šių AI sistemų veikimo rezultatus.

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact