Sztuczna inteligencja Chatboty a Rozprzestrzenianie Fałszywych Informacji

Niedawne badanie ujawniło, że chatboty AI takie jak ChatGPT, Grok, Gemini i inne rozpowszechniają dezinformację na korzyść Rosji. Wyniki podkreślają niepokojącą tendencję, w której fałszerstwa nie tylko są generowane przez platformy sztucznej inteligencji, ale są również utrzymywane i wzmacniane przez nie.

Według badań przeprowadzonych przez NewsGuard, wiodące modele AI, takie jak ChatGPT firmy OpenAI, propagują pro-rosyjską dezinformację. W obliczu rosnących obaw dotyczących rozpowszechniania fałszywych informacji przez AI, zwłaszcza podczas globalnych wyborów, takich jak nadchodzące wybory w 2024 roku, użytkownicy korzystający z chatbotów w poszukiwaniu wiarygodnych informacji nieświadomie mogą napotkać dezinformację.

Studium wskazuje, że choć obawy dotyczące AI rozpowszechnianego dezinformacji są obecne, dane na temat stopnia, w jakim fałszywe informacje rozpowszechniane przez chatboty mogą być powtarzane i uzasadniane, są ograniczone. Gdy wprowadzono 57 zapytań do 10 chatbotów, okazało się, że rozpowszechniały one propagandę na korzyść Rosji w tempie 32%.

Warto zauważyć, że sfałszowane historie pochodzące od Johna Marka Dougan, amerykańskiego zbiega znanego z tworzenia dezinformacji w Moskwie, zostały zaprezentowane tym chatbotom. W badaniach brali udział ChatGPT-4, Smart Assistant firmy You.com, Grok, Inflection, Mistral, Copilot firmy Microsoft, Meta AI, Claude firmy Anthropic, Google Gemini i Perplexity.

Mimo że nie została przeprowadzona analiza indywidualnej wydajności każdego chatbota, spośród 570 odpowiedzi 152 zawierały jawną dezinformację, 29 powtórzyło fałszywe twierdzenia z oświadczeniem, a 389 nie zawierały fałszywych informacji, rezygnując (144) lub obalając twierdzenie (245).

Te wyniki podkreślają pilną potrzebę działań regulatorów na całym świecie w celu rozpatrzenia potencjalnych szkód AI związanych z rozprzestrzenianiem dezinformacji i uprzedzeń. NewsGuard przekazał swoje badania do Instytutu Bezpieczeństwa AI Narodowego Instytutu Standaryzacji i Technologii w USA oraz Komisji Europejskiej w ramach działań mających na celu ochronę użytkowników przed dezinformacją ułatwioną przez technologie AI.

Dodatkowe Istotne Fakty:
1. Chatboty AI są coraz częściej wykorzystywane do różnych celów poza rozpowszechnianiem dezinformacji, w tym obsługi klienta, wsparcia zdrowia psychicznego i edukacji.
2. Technologia stojąca za chatbotami AI nadal szybko się rozwija, a nowe modele i algorytmy są opracowywane w celu poprawy zdolności konwersacyjnych i dokładności.
3. Niektóre chatboty AI zostały zaprogramowane specjalnie do zwalczania dezinformacji, dostarczając usługi weryfikacji faktów i poprawiając fałszywe twierdzenia w czasie rzeczywistym.

Kluczowe Pytania:
1. Jak możemy zapewnić odpowiedzialność i przejrzystość w procesie rozwoju i wdrażania chatbotów AI, aby zapobiec rozprzestrzenianiu się dezinformacji?
2. Jakie środki mogą być podjęte, aby edukować użytkowników na temat ryzyka polegania na chatbotach AI do uzyskiwania informacji i promować myślenie krytyczne?
3. Czy należy wprowadzić ramy regulacyjne dotyczące stosowania chatbotów AI i zmniejszenia ryzyka rozprzestrzeniania się dezinformacji?

Zalety:
1. Chatboty AI mogą zapewnić szybki i łatwy dostęp do informacji, poprawiając wygodę i efektywność.
2. Mogą być używane do skalowania operacji obsługi klienta i poprawy czasów reakcji.
3. Chatboty AI mają potencjał do personalizacji interakcji i dostarczania spersonalizowanych rekomendacji użytkownikom na podstawie ich preferencji.

Wady:
1. Bez odpowiedniego nadzoru i regulacji, chatboty AI mogą zwiększyć rozprzestrzenianie się dezinformacji i przyczynić się do erozji zaufania do treści online.
2. Chatboty mogą brakować zdolności do odróżniania między dokładnymi i fałszywymi informacjami, co może prowadzić do niezamierzonego propagowania nieścisłości.
3. Poleganie na chatbotach AI do uzyskiwania informacji może potencjalnie sprawić, że użytkownicy staną się bardziej podatni na manipulację i wpływ „złych aktorów”.

Linki Powiązane:
1. www.economist.com
2. www.wired.com

Privacy policy
Contact