“Kunstig intelligens chatbots og spredningen af misinformation”

En nylig undersøgelse afslørede, at AI-chatbots som ChatGPT, Grok, Gemini og andre udbreder misinformation til fordel for Rusland. Resultaterne fremhæver en bekymrende tendens, hvor falskheder ikke kun genereres af kunstig intelligens, men også bliver perpetueret og forstærket af dem.

I henhold til en forskning udført af NewsGuard spreder ledende AI-modeller såsom OpenAI’s ChatGPT pro-russisk desinformation. Imens der er stigende bekymringer om, at AI udbreder falske oplysninger, især under globale valg som de kommende valg i 2024, kan brugere, der søger chatbots for pålidelige oplysninger, uforvarende støde på misinformation.

Studiet antydede, at mens der fortsat er bekymringer om AI-drevet misinformation, er der begrænset data om i hvilket omfang falske oplysninger spredt af chatbots kan gentages og bekræftes. Da der blev indtastet 57 forespørgsler i 10 chatbots, blev det fundet, at de spredte pro-russisk propaganda med en hastighed på 32%.

Bemærkelsesværdigt blev opdigtede historier, der stammer fra John Mark Dougan, en amerikansk flugtforbryder kendt for at skabe desinformation i Moskva, præsenteret for disse chatbots. De undersøgte chatbots inkluderede ChatGPT-4, You.com’s Smart Assistant, Grok, Inflection, Mistral, Microsoft’s Copilot, Meta AI, Anthropic’s Claude, Google Gemini og Perplexity.

Mens den individuelle præstation for hver chatbot ikke blev gennemanalyseret, indeholdt 152 ud af 570 svar åbenlyse misinformationer, 29 gentog falske påstande med en disclaimer, og 389 indeholdt ikke falske oplysninger enten ved at undlade at svare (144) eller afkræfte påstanden (245).

Disse resultater understreger det presserende behov for, at regulatorer globalt skal håndtere de potentielle skader ved AI i udbredelsen af misinformation og partiskhed. NewsGuard har indsendt sin forskning til National Institute of Standards and Technology’s AI Security Institute i USA og til Europa-Kommissionen til overvejelse som led i bestræbelserne på at beskytte brugerne mod misinformation faciliteret af AI-teknologier.

Yderligere relevante fakta:
1. AI-chatbots bliver i stigende grad brugt til en række formål ud over at sprede misinformation, herunder kundeservice, mental sundhedsstøtte og uddannelse.
2. Teknologien bag AI-chatbots fortsætter med at udvikle sig hurtigt, med nye modeller og algoritmer, der udvikles for at forbedre samtaleegenskaber og nøjagtighed.
3. Nogle AI-chatbots er blevet programmeret specifikt til at bekæmpe misinformation ved at yde faktaundersøgelses-tjenester og rette falske påstande i realtid.

Nøglespørgsmål:
1. Hvordan kan vi sikre ansvarlighed og gennemsigtighed i udviklingen og implementeringen af AI-chatbots for at forhindre spredningen af misinformation?
2. Hvilke foranstaltninger kan træffes for at oplyse brugere om risiciene ved at stole på AI-chatbots for information og opfordre til kritisk tænkning?
3. Bør der være reguleringsrammer på plads for at styre brugen af AI-chatbots og mindske risikoen for spredning af misinformation?

Fordele:
1. AI-chatbots kan give hurtig og nem adgang til oplysninger for brugerne, hvilket øger bekvemmeligheden og effektiviteten.
2. De kan bruges til at skalere kundeserviceoperationer og forbedre svartiderne.
3. AI-chatbots har potentiale til at personalisere interaktioner og give skræddersyede anbefalinger til brugerne baseret på deres præferencer.

Ulemper:
1. Uden ordentlig tilsyn og regulering kan AI-chatbots forstærke spredningen af misinformation og bidrage til nedbrydningen af tilliden til onlineindhold.
2. Chatbots kan mangle evnen til at skelne mellem nøjagtige og falske oplysninger, hvilket fører til utilsigtet spredning af unøjagtigheder.
3. Afhængigheden af AI-chatbots for information kan potentielt resultere i, at brugerne bliver mere modtagelige for manipulation og påvirkning af dårlige aktører.

Relaterede links:
1. www.economist.com
2. www.wired.com

Privacy policy
Contact