Technologiczne firmy zobowiązują się do walki z oszukańczą sztuczną inteligencją i ochrony wyborów

Grupa 20 firm technologicznych, w tym Google, Meta, OpenAI i X (dawniej Twitter), podjęła wspólne zobowiązanie do zwalczania oszukańczych treści generowanych przez sztuczną inteligencję (AI) w celu ochrony globalnych wyborów zaplanowanych na ten rok. Firmy połączyły siły i podpisały Tech Accord to Combat Deceptive Use of AI w 2024 roku podczas Konferencji Bezpieczeństwa w Monachium.

Porozumienie ustanawia dobrowolną platformę, która określa zasady i działania mające na celu zapobieganie, wykrywanie, reagowanie, ocenę i identyfikację źródła oszukańczych treści wyborczych generowanych przez AI. Sygnatariusze tej umowy, do których należą także TikTok, Amazon, IBM, Anthropic i Microsoft, zobowiązali się do zwiększenia świadomości publicznej na temat ochrony przed manipulacją spowodowaną takimi treściami.

W ramach porozumienia, 20 organizacji zaangażowało się w kilka inicjatyw. Będą one dążyć do wykrywania i zapobiegania dystrybucji oszukańczych treści wyborczych generowanych przez AI, zapewnienia przejrzystości publiczności w odniesieniu do swojego podejścia do rozwiązywania takich treści oraz opracowania i wdrożenia narzędzi do identyfikowania i ograniczania rozpowszechniania oszukańczych treści. Podejmowane będą również wysiłki w celu śledzenia pochodzenia treści, potencjalnie poprzez wykorzystanie klasyfikatorów, metodyki pochodzenia, znakowania wodnego lub dołączania informacji możliwych do odczytu przez maszynę do treści wygenerowanych przez AI.

Zobowiązania podjęte przez te firmy będą miały zastosowanie do usług, których dostarczają. Tech Accord obejmuje przekonujące, generowane przez AI nagrania audio, wideo i obrazy, które oszukańczo fałszują lub zmieniają wygląd, głos lub działania kandydatów politycznych, urzędników wyborczych i innych kluczowych interesariuszy, a także rozpowszechnianie fałszywych informacji na temat procedur wyborczych.

Porozumienie uznaje rosnące znaczenie AI w procesie demokratycznym i podkreśla potrzebę działania zbiorowego w celu ochrony wyborów i procesu wyborczego. Sygnatariusze uznają, że zwalczanie oszukańczego wykorzystania AI to nie tylko wyzwanie techniczne, ale także polityczne, społeczne i etyczne. Podkreślają, że ochrona integralności wyborczej i zaufania publicznego to wspólna odpowiedzialność, która przekracza interesy partyjne i granice narodowe.

Poprzez zgodne działania, firmy technologiczne mają na celu zarządzanie ryzykiem związanym z oszukańczymi treściami wyborczymi generowanymi przez AI na swoich publicznych platformach lub otwartych modelach podstawowych. Porozumienie nie obejmuje modeli ani demonstracji przeznaczonych do celów badawczych lub głównie do użytku w przedsiębiorstwach. Sygnatariusze podkreślają, że AI ma potencjał służący do przeciwdziałania złym aktorom i umożliwiania szybszego wykrywania oszukańczych kampanii, jednocześnie zmniejszając ogólne koszty obrony.

Tech Accord stanowi istotny krok w kierunku poprawy integralności wyborów i odporności społecznej, wspierając tworzenie godnych zaufania praktyk technologicznych. Ponieważ dezinformacja i manipulacja stanowią istotne ryzyko dla spójności społecznej, globalna społeczność powinna pozostać aktywna w ochronie legalności nowych rządów.

FAQ na temat Tech Accord to Combat Deceptive Use of AI in 2024 Elections:

1. Jaki jest cel Tech Accord?
Tech Accord ma na celu zwalczanie oszukańczych treści generowanych przez sztuczną inteligencję (AI) w celu ochrony globalnych wyborów zaplanowanych na 2024 rok.

2. Jakie firmy dołączyły do porozumienia?
Accord został podpisany przez 20 firm technologicznych, w tym Google, Meta, OpenAI, X (dawniej Twitter), TikTok, Amazon, IBM, Anthropic i Microsoft.

3. Co ustanawia porozumienie?
Porozumienie ustanawia dobrowolną platformę, która określa zasady i działania mające na celu zapobieganie, wykrywanie, reagowanie, ocenę i identyfikację źródła oszukańczych treści wyborczych generowanych przez AI.

4. Do jakich inicjatyw zobowiązały się firmy?
Sygnatariusze porozumienia zobowiązali się do wykrywania i zapobiegania dystrybucji oszukańczych treści wyborczych generowanych przez AI, zapewnienia przejrzystości publiczności w odniesieniu do swojego podejścia do rozwiązywania takich treści oraz opracowania narzędzi do identyfikowania i ograniczania rozpowszechniania oszukańczych treści.

5. Jak będzie śledzone pochodzenie oszukańczych treści?
Podejmowane będą wysiłki w celu śledzenia pochodzenia oszukańczych treści, potencjalnie poprzez wykorzystanie klasyfikatorów, metodyki pochodzenia, znakowania wodnego lub dołączania informacji możliwych do odczytu przez maszynę do treści wygenerowanych przez AI.

6. Czy porozumienie ma zastosowanie do wszystkich usług świadczonych przez firmy sygnatariusze?
Tak, zobowiązania podjęte przez firmy będą miały zastosowanie do usług, których dostarczają.

7. Jakie treści obejmuje porozumienie?
Tech Accord obejmuje oszukańcze, generowane przez AI nagrania audio, wideo i obrazy, które oszukańczo fałszują lub zmieniają wygląd, głos lub działania kandydatów politycznych, urzędników wyborczych i innych kluczowych interesariuszy, a także rozpowszechnianie fałszywych informacji na temat procedur wyborczych.

8. Dlaczego potrzebna jest zbiorowa akcja w celu zwalczania oszukańczego wykorzystania AI?
Porozumienie uznaje rosnące znaczenie AI w procesie demokratycznym i podkreśla, że zwalczanie oszukańczego wykorzystania AI to nie tylko wyzwanie techniczne, ale również polityczne, społeczne i etyczne. Jest to wspólna odpowiedzialność, która przekracza interesy partyjne i granice narodowe.

9. Czy porozumienie obejmuje wszystkie modele AI?
Porozumienie nie obejmuje modeli ani demonstracji przeznaczonych do celów badawczych lub głównie do użytku w przedsiębiorstwach. Koncentruje się na publicznych platformach lub otwartych modelach podstawowych.

10. W jaki sposób porozumienie przyczynia się do integralności wyborów i odporności społecznej?
Tech Accord stanowi istotny krok w kierunku poprawy integralności wyborów i odporności społecznej, wspierając tworzenie godnych zaufania praktyk technologicznych. Ma na celu ochronę legalności nowych rządów i zaufanie publiczne.

Definicje:
– Sztuczna inteligencja (AI): Symulacja ludzkiej inteligencji w maszynach, które są zaprogramowane do myślenia i uczenia się jak ludzie.
– Oszałamiająca treść: Treść, która ma na celu wprowadzenie w błąd lub manipulację ludźmi poprzez prezentowanie fałszywych lub wprowadzających w błąd informacji.
– Integralność wyborcza: Zasady i praktyki zapewniające wolne, uczciwe i transparentne wybory.
– Odporność społeczna: Zdolność społeczeństwa do wytrzymania i odzyskiwania po szokach, takich jak rozprzestrzenianie się dezinformacji i manipulacji.

Sugerowane powiązane linki:
– Oficjalna strona Tech Accord
– Konferencja Bezpieczeństwa w Monachium
– Oficjalna strona OpenAI
– Google
– Twitter (Aktualnie X)
– Meta
– IBM

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact