Instytut Narodowy NIST ustanawia strategie zwalczania zagrożeń cybernetycznych związanych z sztuczną inteligencją

Instytut Narodowy NIST Stanów Zjednoczonych podejmuje znaczące kroki w celu zwalczania zagrożeń cybernetycznych skierowanych przeciwko chatbotom opartym na sztucznej inteligencji oraz samochodom autonomicznym. W ostatnim artykule opublikowanym 4 stycznia 2024 roku, NIST przedstawia znormalizowane podejście do charakteryzowania i obrony przed atakami cybernetycznymi na sztuczną inteligencję.

Artykuł zatytułowany „Adversarial Machine Learning: Taxonomia i terminologia ataków i łagodzących działań” jest efektem współpracy między NIST, środowiskiem akademickim i przemysłem. Jego celem jest udokumentowanie różnych rodzajów ataków nauczania maszynowego (AML) oraz proponowanie technik łagodzenia ich skutków.

Taxonomia NIST kategoryzuje ataki AML na dwie grupy: ataki skierowane przeciwko „predykcyjnej sztucznej inteligencji” i ataki skierowane przeciwko „generatywnej sztucznej inteligencji”. Predykcyjna sztuczna inteligencja odnosi się do systemów sztucznej inteligencji i uczenia maszynowego, które przewidują zachowania i zjawiska, takie jak urządzenia do rozpoznawania obrazów i samochody autonomiczne. Generatywna sztuczna inteligencja, będąca podzbiorem predykcyjnej sztucznej inteligencji, obejmuje generatywne sieci antagonistyczne, generatywne transformersy z wyuczeniem, oraz modele dyfuzji.

W artykule wyróżniono ataki unikania, zatrucia i naruszenia prywatności jako główne typy ataków na systemy predykcyjne sztucznej inteligencji. Ataki unikania mają na celu generowanie przykładów przeciwnych, które mogą zmienić klasyfikację próbek testowych z minimalnym zakłóceniem. Ataki zatrucia występują na etapie szkolenia algorytmu sztucznej inteligencji, natomiast ataki na prywatność polegają na próbie wykorzystania wrażliwych informacji.

Ataki skierowane przeciwko systemom generatywnej sztucznej inteligencji, sklasyfikowane jako ataki nadużywania, polegają na wprowadzaniu błędnych informacji do prawomocnych źródeł w celu wprowadzenia w błąd sztucznej inteligencji. Przykłady ataków nadużywania obejmują ataki na łańcuch dostaw sztucznej inteligencji, bezpośrednie wstrzyknięcia poleceń oraz pośrednie wstrzyknięcia poleceń.

W artykule przedstawiono techniki łagodzenia skutków każdej kategorii ataku, ale NIST przyznaje, że te strategie są wciąż niewystarczające. Istnieje pilna potrzeba bardziej skutecznych środków obrony przed podatnościami systemów sztucznej inteligencji, ponieważ katastrofalne awarie mogą mieć poważne konsekwencje.

Działania NIST zgadzają się z naciskiem rządu USA na rozwój zaufanej sztucznej inteligencji. Niniejszy artykuł wspiera wdrożenie Ramy Zarządzania Ryzykiem AI NIST, która została opublikowana w styczniu 2023 roku. Ponadto, powstanie Instytutu Bezpieczeństwa AI w ramach NIST ma na celu ustalenie standardów dla bezpieczeństwa, ochrony i testowania sztucznej inteligencji, a także stworzenie sprzyjającego środowiska dla badaczy, którzy zajmują się nowymi ryzykami AI.

W sumie, pionierska praca NIST w zakresie opracowywania strategii zwalczania zagrożeń cybernetycznych związanych z AI świadczy o ich zaangażowaniu w zapewnienie bezpieczeństwa i niezawodności systemów sztucznej inteligencji w dzisiejszym światem napędzanym technologią.

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact