Kunstig intelligens chatbots og spredningen af misinformation

En nylig undersøgelse afslørede, at AI-chatbots som ChatGPT, Grok, Gemini og andre spreder misinformation til fordel for Rusland. Resultaterne fremhæver en bekymrende tendens, hvor falske oplysninger ikke kun genereres af kunstig intelligens, men også bliver udbredt og forstærket af dem.

Ifølge en undersøgelse foretaget af NewsGuard, er førende AI-modeller som OpenAIs ChatGPT ved at sprede pro-russiske desinformationer. I lyset af stigende bekymringer om AI, der udspreder falske oplysninger, især under globale valg som det kommende valg i 2024, risikerer brugere, der søger på chatbots efter pålidelig information, uden at vide det at støde på misinformation.

Undersøgelsen indikerede, at selvom der er bekymringer om AI-drevne desinformation, er der begrænsede data om i hvilket omfang falske oplysninger spredt af chatbots kan gentages og bekræftes. Da der blev indtastet 57 forespørgsler hos 10 chatbots, blev det opdaget, at de formidlede pro-russiske propagandamateriale med en frekvens på 32%.

Det bør bemærkes, at fabrikerede historier, der stammer fra John Mark Dougan, en amerikansk flygtning kendt for at skabe desinformation i Moskva, blev præsenteret for disse chatbots. Chatbots, der blev undersøgt, inkluderede ChatGPT-4, You.com’s Smart Assistant, Grok, Inflection, Mistral, Microsofts Copilot, Meta AI, Anthropics Claude, Google Gemini og Perplexity.

Mens den individuelle præstation for hver chatbot ikke blev analyseret, indeholdt 152 ud af 570 svar åbenlys misinformation, 29 gentog falske påstande med en fraskrivelse, og 389 indeholdt ikke falsk information enten ved ikke at svare (144) eller afvise påstanden (245).

Disse resultater understreger det presserende behov for, at myndigheder verden over adresserer de potentielle skader ved AI i at sprede misinformation og forudindtagede holdninger. NewsGuard har indsendt deres forskning til National Institute of Standards and Technology’s AI Security Institute i USA og til Europa-Kommissionen, med henblik på at beskytte brugerne mod misinformation faciliteret af AI-teknologier.

Yderligere relevante fakta:
1. AI-chatbots bliver i stigende grad brugt til en række formål ud over kun at sprede misinformation, herunder kundeservice, støtte til mental sundhed og uddannelse.
2. Teknologien bag AI-chatbots fortsætter med at udvikle sig hurtigt, med nye modeller og algoritmer der udvikles for at forbedre samtalekapaciteten og nøjagtigheden.
3. Nogle AI-chatbots er blevet programmeret specifikt til at bekæmpe misinformation ved at tilbyde faktatjek og rette falske påstande i realtid.

Centrale spørgsmål:
1. Hvordan kan vi sikre ansvarlighed og gennemsigtighed i udviklingen og implementeringen af AI-chatbots for at forhindre spredningen af misinformation?
2. Hvilke foranstaltninger kan træffes for at oplyse brugere om risiciene ved at stole på AI-chatbots til information og opfordre til kritisk tænkning?
3. Bør der være lovgivningsmæssige rammer på plads for at styre brugen af AI-chatbots og mindske risikoen for at sprede misinformation?

Fordele:
1. AI-chatbots kan give hurtig og let tilgængelig information til brugerne, hvilket øger bekvemmeligheden og effektiviteten.
2. De kan bruges til at skalere kundeserviceoperationer og forbedre svartiderne.
3. AI-chatbots har potentiale til at personalisere interaktioner og give skræddersyede anbefalinger til brugerne baseret på deres præferencer.

Ulemper:
1. Uden ordentlig tilsyn og regulering kan AI-chatbots forstærke spredningen af misinformation og bidrage til nedbrydningen af tilliden til onlineindhold.
2. Chatbots kan mangle evnen til at skelne mellem korrekt og falsk information, hvilket fører til utilsigtet spredning af unøjagtigheder.
3. Afhængigheden af AI-chatbots for information kan potentielt gøre brugerne mere modtagelige for manipulation og indflydelse fra dårlige aktører.

Relaterede links:
1. www.economist.com
2. www.wired.com

Privacy policy
Contact