Badanie ujawnia nieskuteczność filtrów obrazów AI w zapobieganiu deepfake’om

Ocena przeprowadzona przez CCDH w Waszyngtonie wykazała istotne rozbieżności w zdolnościach programów AI do blokowania tworzenia fałszywych obrazów. W przeprowadzonym 5 czerwca badaniu stwierdzono, że programy generujące obrazy na podstawie tekstu takie jak Midjourney i ChatGPT znacząco różnią się w skuteczności filtrowania.

Zgodnie z raportem, środki ostrożności Midjourney nie powstrzymały 40% prób generowania fałszywych obrazów, podczas gdy ChatGPT doświadczył zaledwie 3% poziomu niepowodzeń. Rozbieżność ta stała się jeszcze bardziej widoczna podczas testów obejmujących obrazy prezydenta Joe Bidena i byłego prezydenta Donalda Trumpa.

W trakcie tych testów, Midjourney odniósł porażkę w połowie przypadków, generując liczne wprowadzające w błąd obrazy, w tym jeden, gdzie prezydent Biden wydawał się być zatrzymany. Aby skonstruować fałszywy obraz prezydenta Bidena, użyto prostego opisowego polecenia, nie wspominając o nim wprost.

W marcu zgłoszono, że Midjourney zablokował polecenia odnoszące się zarówno do Bidena, jak i Trumpa, aby zapobiec tworzeniu fałszywych obrazów. Niemniej jednak, CCDH odkryło, że użytkownicy mogli łatwo ominąć tę politykę. W niektórych przypadkach dodanie pojedynczego ukośnika do wcześniej zablokowanego polecenia umożliwiło stworzenie sfabrykowanych zdjęć.

Kluczowe pytania i odpowiedzi:

Czym są deepfake’i i dlaczego stanowią ryzyko? Deepfake’i to sztuczne media, w których osoba w istniejącym obrazie lub wideo jest zastępowana przez podobiznę kogoś innego, często za pomocą sztucznej inteligencji. Stanowią ryzyko, ponieważ mogą być używane do tworzenia przekonujących fałszywych informacji, manipulowania opinią publiczną i zakłócania procesów politycznych poprzez szerzenie dezinformacji.

Jak skuteczne są filtry obrazów oparte na AI w wykrywaniu i zapobieganiu deepfake’om? Skuteczność jest zróżnicowana. Jak wskazano w raporcie, różne programy AI takie jak Midjourney i ChatGPT wykazały zróżnicowany sukces, z niektórymi wykazującymi znaczne braki w blokowaniu tworzenia fałszywych obrazów.

Dlaczego może występować rozbieżność w skuteczności filtrów AI? Może to być spowodowane różnicami w algorytmach, danych treningowych, programowaniu parametrów akceptowalnej zawartości lub tym, jak AI interpretuje polecenia użytkownika i próby unikania ograniczeń.

Kluczowe wyzwania lub kontrowersje:

Wyścig technologiczny: Istnieje nieustanne wyzwanie w dotrzymywaniu kroku postępowi w zakresie coraz bardziej zaawansowanej technologii deepfake’ów. Wraz z rozwojem technologii AI rozwijają się metody tworzenia i wykrywania deepfake’ów.

Implikacje etyczne: Wykorzystanie AI w tworzeniu lub filtrowaniu deepfake’ów stwarza dyskusje etyczne dotyczące cenzury, prywatności i manipulacji mediów.

Polityka i regulacja: Ustanowienie międzynarodowych ram dla zarządzania produkcją i dystrybucją sztucznych mediów jest złożone i wciąż nie do końca zrealizowane.

Zalety i wady:

Zalety: Filtry obrazów oparte na AI mogą potencjalnie zapobiec rozpowszechnianiu się deepfake’ów, co pomaga w ochronie osób przed zniesławieniem i społeczeństwa przed dezinformacją.

Wady: Algorytmy AI mogą nie być w pełni niezawodne i mogą być obejściane stosunkowo prostymi trikami. Dodatkowo, zbyt restrykcyjne filtrowanie może ograniczać legitymną kreatywność i wolność wyrażania się.

W celu dalszego zgłębienia tematu deepfake’ów i treści generowanych przez AI, możesz odwiedzić stronę główną Center for Countering Digital Hate (CCDH) oraz główne strony platform generacji obrazów AI takich jak Midjourney i platform AI takich jak OpenAI, twórców ChatGPT.

Pamiętaj, zawsze sprawdzaj, czy adresy URL są ważne i bezpieczne przed odwiedzeniem.

The source of the article is from the blog rugbynews.at

Privacy policy
Contact