Nopea tekoälyn kehitys kohtaa useita uhkia, varoittaa NIST

Äskettäin julkaistu artikkeli Yhdysvaltain kansallisen standardointi- ja teknologialaitoksen (NIST) toimesta korostaa tekoälyn (AI) nopean kehityksen kohtaamia erilaisia uhkia. Raportin mukaan AI-järjestelmät ovat haavoittuvaisia esimerkiksi harhautuksen, tietojen myrkyttämisen ja yksityisyydenloukkausten kaltaisille hyökkäyksille.

Yksi raportissa esiin tuotu tärkeä huolenaihe on kyvyttömyys suojata AI-järjestelmiä täysin vihamielisiltä lainkovilta, jotka voivat hyökätä ja hämmentää niitä. Tämä aiheuttaa merkittävän haasteen, sillä vastuullisen tekoälytyökalujen kehityksen ja käyttöönoton edistäminen on elintärkeää eri teollisuudenaloilla.

Raportissa korostetaan myös potentiaalisia riskejä, joita liittyy AI-mallien kouluttamiseen suurilla kielidatasarjoilla. Suuren datamäärän vuoksi jokaisen syötettävän datan tarkastaminen on vaikeaa. Tämä luo haavoittuvuuksia tarkkuuden, sisällön ja vastausten suhteen. Jotkut myrkytetyn datan avulla koulutetut AI-järjestelmät ovat osoittaneet rasistista ja loukkaavaa käyttäytymistä vastauksissaan.

Toinen raportissa esiin tuotu huolenaihe on välttelyhyökkäykset. Näillä jälkikäyttöhyökkäyksillä pyritään muuttamaan sitä, miten AI-järjestelmät tunnistavat syötteitä tai reagoivat niihin. Esimerkiksi lisäämällä lisämerkkejä stop-merkkiin hyökkääjät voivat aiheuttaa itsestään ajavien autojen epäonnistumisen merkin tunnistamisessa, mikä voi johtaa onnettomuuksiin.

NIST-raportti kiinnittää myös huomiota siihen, että tekoälyjärjestelmiä voidaan kääntää taaksepäin, jotta niiden lähteet voidaan tunnistaa ja niihin voidaan lisätä haitallisia esimerkkejä tai tietoja. Tämä voi aiheuttaa sopimatonta käyttäytymistä AI:ltä ja vaarantaa sen tarkoituksenmukaisen käytön.

Mikä tekee näistä hyökkäyksistä vielä hälyttävämpiä, on se, että niitä voidaan toteuttaa vain vähäisellä tiedolla AI-järjestelmistä. Näiden hyökkäysten black-box-näkökulma tekee niiden tehokkaasta puolustautumisesta haasteellista.

NIST:n tietotekniikantutkija Apostol Vassilev, joka on osallistunut raportin luomiseen, korosti parempien puolustusratkaisujen tarvetta. Vaikka joitakin lieventäviä strategioita on olemassa, niiden kyky täysin lieventää näiden hyökkäysten aiheuttamia riskejä on tällä hetkellä rajallinen.

Raportti toimii herättelynä tekoälyyhteisölle, jotta vahvempien puolustuskeinojen kehittäminen ja vastuullinen tekoälyteknologian käyttö priorisoidaan uhkien kehittymistä vastaan suojautumisessa.

The source of the article is from the blog scimag.news

Privacy policy
Contact