Meta’s Revolutionary Approach to AI-Generated Content Labeling

Meta, gigant internetowy, ogłosił niedawno decyzję o rozszerzeniu oznakowania treści generowanych za pomocą sztucznej inteligencji w odpowiedzi na rosnące obawy dotyczące rozprzestrzeniania się „deepfake’ów”. Firma ma na celu rozwiązanie problemu dezinformacji poprzez stosowanie etykiet „Wyprodukowano za pomocą AI” do różnych treści wideo, dźwiękowych i obrazowych. Ten krok oznacza znaczącą ekspansję wcześniejszych polityk Meta, które skupiały się jedynie na manipulowanych treściach wideo.

Decyzja Meta o rozszerzeniu praktyk oznakowania przyszła po tym, jak firma spotkała się z krytyką ze strony swojej Rady Nadzorczej wcześniej w tym roku. Rada określiła istniejące polityki firmy jako „niespójne” i wzywała do szerszego podejścia do zwalczania rozprzestrzeniania się zmodyfikowanych treści, w tym dźwiękowych i wideo, które błędnie przedstawiają osoby angażujące się w określone działania. Rada Nadzorcza, zewnętrzna grupa wspierana przez Meta, zaapelowała do firmy o rozszerzenie swoich polityk w celu rozwiązania tych problemów.

„Mamy zgodę na argument Rady Nadzorczej, że nasze istniejące podejście jest zbyt wąskie” – powiedziała Monika Bickert, Wiceprezes ds. Polityki Treści w Meta. Dodatkowo podkreśliła, że oryginalna polityka dotycząca manipulowanych mediów została sformułowana w 2020 roku, kiedy treści generowane przez AI były mniej powszechne, a głównym zmartwieniem było ograniczenie się wyłącznie do treści wideo.

W odpowiedzi na zalecenia Rady Nadzorczej, Meta podjęła decyzję o zmianie swojego stanowiska wobec mediów stworzonych cyfrowo. Firma nie będzie już usuwać takich treści, chyba że naruszają inne zasady, zamiast tego dołączając konkretną etykietę informującą, że treść została zmodyfikowana. Nowa polityka zostanie wdrożona w przyszłym miesiącu, a firma będzie również stosować etykietę „Wyprodukowano za pomocą AI” do treści zidentyfikowanych jako stworzone przez AI lub gdy użytkownicy ujawnią, że przesyłają treści generowane przez AI.

Ponadto, Meta zaprezentowała w lutym swoje plany dotyczące stworzenia systemu zdolnego do identyfikowania treści generowanych przez AI przez użytkowników za pomocą usług innych firm technologicznych. Te firmy zgodziły się osadzać identyfikator AI lub znak wodny, aby pomóc w rozróżnieniu treści generowanych przez AI w celu zwalczania dezinformacji.

To rozszerzenie polityki AI Meta powinno zostać pozytywnie przyjęte przez grupy społeczne i ekspertów, którzy byli zaniepokojeni rosnącą obecnością dezinformacji generowanej przez AI, zwłaszcza podczas kluczowych okresów wyborczych. Jednak ważne jest zauważenie, że eksperci także ostrzegli, iż strategia oznakowania może nie uchwycić wszystkich przypadków wprowadzających w błąd treści generowanych przez AI. Podczas gdy Meta i niektóre inne firmy przyjęły oznakowanie wodne treści generowanych przez AI, inne usługi jeszcze nie wprowadziły takich praktyk.

FAQ

The source of the article is from the blog mivalle.net.ar

Privacy policy
Contact