Wpływ sztucznej inteligencji na wybory: nowe podejście do zapobiegania dezinformacji

W miarę jak Stany Zjednoczone przygotowują się do swoich pierwszych wyborów prezydenckich w erze dostępnych narzędzi sztucznej inteligencji, główni twórcy chatbotów, takich jak Google, OpenAI i Microsoft, podejmują kroki w celu zmniejszenia ryzyka dezinformacji w okresie wyborczym. Firmy te rozpoznały potencjalne szkody spowodowane treściami generowanymi przez AI, w tym wprowadzającym w błąd klonowaniem głosu i rozpowszechnianiem fabrykowanych faktów przez chatboty.

Jedną z strategii zmniejszania dezinformacji jest unikanie udzielania informacji związanych z wyborami. Google ogłosił w grudniu, że jego chatbot, Gemini, będzie odmawiał odpowiadania na zapytania dotyczące wyborów, kierując użytkowników na stronę Google Search w poszukiwaniu informacji. Podobnie, ChatGPT OpenAI obecnie odsyła użytkowników do CanIVote.org, zaufanego źródła informacji o lokalnych wyborach. Obie firmy wprowadziły zasady mające na celu zapobieganie podawaniu się za kandydatów, władze lokalne oraz nadużywania narzędzi AI do prowadzenia kampanii lub manipulowania wyborcami.

Microsoft z kolei skupia się na poprawie dokładności odpowiedzi swojego chatbota, aby zapobiec fałszywym informacjom dotyczącym wyborów. W odpowiedzi na raport, który wykazał, że Bing (obecnie Copilot) regularnie dostarczał dezinformacje o wyborach, Microsoft dąży do wzmocnienia rzetelności swojego chatbota. Jednak konkretne szczegóły dotyczące polityk Microsoftu nie zostały ujawnione.

Mimo że te środki różnią się od wcześniejszych podejść firm do wyborów, takich jak inicjatywy fact-checkingowe Google’a i linki do rejestracji wyborców na Facebooku, nadchodzące wybory prezydenckie w USA stanowią okazję do sprawdzenia skuteczności chatbotów AI w udostępnianiu wiarygodnych informacji.

Jak użyteczne są chatboty AI dla pytań wyborczych?
Aby ocenić przydatność chatbotów AI w udzielaniu dokładnych informacji wyborczych, zadałem kilka pytań związanych z głosowaniem różnym chatbotom. ChatGPT OpenAI 4 poprawnie wymienił siedem ważnych form identyfikacji wyborcy i zidentyfikował zbliżające się pierwsze partyjne głosowanie w drugiej turze 28 maja. Perplexity AI również udzieliło poprawnych odpowiedzi na te pytania i podało wiele zweryfikowanych źródeł. Copilot nie tylko podał poprawne odpowiedzi, ale zaproponował także alternatywne opcje dla osób nieposiadających żadnej z określonych form ID. Z kolei Gemini skierowało mnie do Google Search, który zapewnił dokładne informacje o wymaganiach dotyczących ID, ale podał przestarzałą datę wyborów.

Zapobieganie nadużyciom AI w wyborach
Zdając sobie sprawę z potencjalnych zagrożeń, firmy AI zadeklarowały różne zobowiązania mające na celu zapobieganie zamiernemu nadużyciu ich produktów podczas wyborów. Microsoft planuje współpracować z kandydatami i partiami politycznymi w celu walki z dezinformacją wyborczą. Firma wprowadziła również platformę, na której politycy mogą zgłaszać treści deepfake. Google ma na celu zwiększenie przejrzystości poprzez cyfrowe znakowanie obrazów stworzonych za pomocą narzędzi AI. SynthID, rozwinięte przez DeepMind Google’a, będzie wykorzystywane w tym celu. Ponadto OpenAI i Microsoft dołączyły do inicjatywy Coalition for Content Provenance and Authenticity (C2PA), aby oznaczać obrazy generowane przez AI symbolem CR, zapewniając przejrzystość i wiarygodność. Jednak wszystkie firmy przyznają, że te środki są niewystarczające.

Porozumienie dotyczące wyborów AI i wspólna odpowiedzialność
W zeszłym miesiącu kilka dużych firm, w tym wymienione powyżej, podpisało porozumienie, zobowiązując się do zajęcia stanowiska w sprawie dezinformacji przy użyciu AI w wyborach. Porozumienie określa siedem głównych celów, w tym rozwój metod zapobiegania, udostępnianie pochodzenia treści, zwiększanie możliwości wykrywania AI oraz wspólne ocenianie i wyciąganie wniosków z wpływu wprowadzającej w błąd treści generowanej przez AI. Ten wspólny wysiłek ma na celu ochronę integralności wyborów i zmniejszenie ryzyka związanego z technologią AI.

FAQ

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact