Artificial Intelligence Systems and the Challenge of Adversarial Attacks

Tekoälyjärjestelmiä voidaan manipuloida visuaalisilla kikoilla ja harhaanjohtavilla signaaleilla, mikä herättää huolta näiden järjestelmien haavoittuvuudesta. Pentagoni on tunnustanut nämä haavoittuvuudet ja pyrkii aktiivisesti käsittelemään niitä tutkimusohjelmansa avulla, jota kutsutaan nimellä Guaranteeing AI Robustness Against Deception (GARD). GARD on tutkinut vuodesta 2022 lähtien ”hyökkäyksiä”, jotka voivat saada tekoälyjärjestelmät tunnistamaan kohteet väärin, mikä voisi olla tuhoisaa erityisesti sotilaallisissa ympäristöissä.

Yksi tutkimuksen keskeisistä havainnoista on se, että näennäisesti harmiton kuvio voi harhauttaa tekoälyjärjestelmiä. Esimerkiksi tekoälyjärjestelmä voisi erehtyä luulemaan bussia täyteen matkustajia panssarivaunuksi, jos bussiin on merkitty tietty ”visuaalinen kohina.” Tämä korostaa vaaranpaikkoja, jotka liittyvät tekoälyjärjestelmien luottamiseen kriittisessä päätöksenteossa, erityisesti tilanteissa, joissa ihmishenget ovat uhattuina.

Kasvavan yleisön ahdistuksen keskellä Pentagonin kehittäessä autonomisia aseita, puolustusministeriö on viime aikoina päivittänyt tekoälyn kehityssääntöjään painottaakseen ”vastuullista käyttäytymistä” ja vaatii hyväksynnän kaikille käytössä oleville tekoälyjärjestelmille. Kuitenkin puolustusjärjestöt nostavat edelleen huolta mahdollisista väärinymmärryksistä tai tahattomista eskalaatioista tekoälyllä varustettujen aseiden toiminnassa, riippumatta tahallisesta manipulaatiosta. Nämä huolenaiheet ovat erityisen voimakkaita jännitteisillä alueilla, missä mahdolliset virhelaskelmat voivat johtaa vakaviin seurauksiin.

Vastaan ​​näihin huolenaiheisiin GARD-ohjelma on edistynyt merkittävästi kehittäessään puolustuksia hyökkäyksiä vastaan. Uuden puolustusministeriön tieto- ja tekoälyosaston (CDAO) on jopa saanut työkaluja ja resursseja GARD-ohjelmasta, jotka auttavat näiden haavoittuvuuksien torjumisessa. Nämä ponnistelut osoittavat Pentagonin sitoutumisen varmistaa tekoälyteknologian vastuullinen kehitys ja sen tunnustuksen kiireellisyydestä käsitellä näitä haavoittuvuuksia.

Tukena alan jatkotutkimukselle GARD-tutkijat Two Six Technologiesilta, IBM:ltä, MITRE:ltä, Chicagon yliopistolta ja Google Researchilta ovat luoneet joukon resursseja ja materiaaleja. Nämä sisältävät GitHubissa saatavilla olevan Armory-virtuaalialustan, joka toimii kattavana ”testiympäristönä” tutkijoille suorittaa arviointeja puolustustoimista toistettavalla, skaalautuvalla ja vakaalla tavalla. Adversarial Robustness Toolbox (ART) tarjoaa kehittäjille ja tutkijoille erilaisia työkaluja puolustautua ja arvioida koneoppimismallejaan ja -sovelluksiaan erilaisia hyökkäyksiä vastaan. Lisäksi Adversarial Patches Rearranged In COnText (APRICOT) -datajoukko mahdollistaa toistettavan tutkimuksen fyysisten vastustuskyvyttömyyden suhteen. Visual Noise – GitHub.

Kun tekoäly jatkaa merkittävää rooliaan lukuisilla aloilla, sotilaskäyttösovelluksista jokapäiväisiin teknologioihin, on tärkeää ymmärtää ja suojautua haavoittuvuuksia vastaan, jotka voivat vaarantaa niiden luotettavuuden. Vahvan tutkimuksen, vastuullisten kehityskäytäntöjen ja jatkuvan yhteistyön avulla yritysten ja akatemian välillä voidaan pyrkiä varmistamaan, että tekoälyjärjestelmät ovat luotettavia ja vastustuskykyisiä hyökkäyksille.

FAQ

Privacy policy
Contact