Rola nowoczesnych technologii w walce z dezinformacją AI

Technologia znakowania wodnego zdobywa coraz większe uznanie jako potencjalne rozwiązanie rosnącego problemu dezinformacji AI w sieci. Jednak eksperci oraz przegląd przeprowadzony przez NBC News wykazują, że obecne metody znakowania wodnego mają znaczne ograniczenia i nie są tak skuteczne, jak pierwotnie się spodziewano.

Jednym z głównych wyzwań dotyczących znakowania wodnego jest jego podatność na obchodzenie. Współczesne technologie znakowania wodnego zazwyczaj polegają na niewidocznych znacznikach w metadanych obrazu i widocznych etykietach nakładanych na obraz. Niestety zarówno niewidoczne znaczniki, jak i widoczne etykiety można łatwo usunąć za pomocą prostych metod, takich jak zrzuty ekranu czy przycinanie. To podważa bezpieczeństwo i autentyczność, które ma zapewnić znakowanie wodne.

Kolejną kwestią jest brak rygorystycznego egzekwowania przez główne społecznościowe i technologiczne firmy stosowania etykiet na treściach wygenerowanych przez AI lub edytowanych przez AI. Bez ścisłych przepisów wpływ działań znakowania wodnego jest ograniczony. Na przykład, gdy CEO Meta Mark Zuckerberg zaktualizował swoje zdjęcie na okładce Facebooka za pomocą obrazu wygenerowanego przez AI, etykieta wskazująca na jego pochodzenie z AI nie była widoczna, chyba że użytkownicy kliknęli w zdjęcie. To pokazuje wady obecnej technologii znakowania wodnego.

Mimo że Meta podjęła kroki w celu rozwiązania tego problemu, ogłaszając w lutym swoje plany zidentyfikowania treści wygenerowanych przez AI za pomocą technologii znakowania wodnego i oznaczenie takich treści na platformach takich jak Facebook, Instagram i Threads, firma uznaje, że znakowanie wodne nie jest niezawodne i łatwo podatne na manipulację. Firma planuje wprowadzić surowsze standardy w przyszłości, wymagając od użytkowników ujawnienia treści wygenerowanych przez AI i nakładając kary za niezgodność.

Widoczność etykiet znakowania wodnego również stwarza wyzwania. Usunięcie widocznych znaków wodnych zajmuje zaledwie kilka sekund, podważając bezpieczeństwo, jakiego mają one na celu zapewnienie. To budzi wątpliwości co do niezawodności znakowania wodnego w weryfikowaniu autentycznych treści i dokładnym identyfikowaniu mediów wygenerowanych przez AI.

Ponadto, pomimo wysiłków głównych graczy technologicznych, takich jak Meta, Google, Microsoft i Adobe, aby przyjąć wspólne standardy znakowania wodnego, istnieje tysiące dostępnych do pobrania modeli AI, które nie przestrzegają tych standardów. To tworzy znaczącą lukę w skutecznym zwalczaniu dezinformacji AI.

Ograniczenia znakowania wodnego stają się szczególnie widoczne, biorąc pod uwagę wzrost deepfake’ów. Deepfake’i to media wygenerowane przez AI, często używane do celowania w jednostki za pomocą manipulowanych obrazów i filmów bez ich zgody. Samo znakowanie wodne nie jest w stanie w pełni poradzić sobie z złożonościami i wyzwaniami etycznymi stawianymi przez deepfake’i.

W miarę jak deepfake’i są nadal wykorzystywane w oszustwach, dezinformacji politycznej i naruszeniach prywatności, staje się jasne, że konieczne jest zastosowanie podejścia wieloaspektowego, które wykorzystuje zaawansowane technologie, silne regulacje i świadomość społeczną, aby skutecznie zwalczyć ich nadużycia.

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact