Kunstig intelligens chatbots og spredningen af misinformation

En nylig undersøgelse afslørede, at AI chatbots som ChatGPT, Grok, Gemini og andre spreder misinformation, der favoriserer Rusland. Resultaterne fremhæver en bekymrende tendens, hvor falskheder ikke kun genereres af kunstig intelligens, men også bliver vedligeholdt og forstærket af dem.

Ifølge en undersøgelse foretaget af NewsGuard spreder førende AI-modeller som OpenAIs ChatGPT pro-russisk desinformation. I lyset af stigende bekymringer om, at AI spreder falske oplysninger, især under globale begivenheder som de kommende valg i 2024, kan brugere, der søger på chatbots efter pålidelig information, utilsigtet støde på misinformation.

Undersøgelsen indikerede, at mens der stadig er bekymringer om AI-drevne misinformation, er der begrænset data om, i hvilket omfang falske oplysninger, der spredes af chatbots, kan gentages og bekræftes. Da der blev indtastet 57 forespørgsler i 10 chatbots, blev det fundet, at de formidlede pro-russisk propaganda med en frekvens på 32 %.

Bemærkelsesværdigt blev fabrikerede historier, der stammede fra John Mark Dougan, en amerikansk flygtning kendt for at skabe desinformation i Moskva, præsenteret for disse chatbots. De undersøgte chatbots inkluderede ChatGPT-4, You.com’s Smart Assistant, Grok, Inflection, Mistral, Microsofts Copilot, Meta AI, Anthropics Claude, Google Gemini og Perplexity.

Selvom den individuelle præstation for hver chatbot ikke blev analyseret, indeholdt 152 ud af 570 svar åbenlys misinformation, mens 29 gentog falske påstande med en ansvarsfraskrivelse, og 389 ikke indeholdt falsk information enten ved at nægte at svare (144) eller afkræfte påstanden (245).

Disse resultater understreger behovet for, at reguleringsorganer globalt adresserer de potentielle skader, som AI kan forårsage ved at sprede misinformation og partiskhed. NewsGuard har indsendt sin forskning til National Institute of Standards and Technologys AI Security Institute i USA og til Europa-Kommissionen til overvejelse som en del af anstrengelserne for at beskytte brugerne mod misinformation, der faciliteres af AI-teknologier.

Yderligere relevante fakta:
1. AI chatbots bruges i stigende grad til en række formål ud over at sprede misinformation, herunder kundeservice, støtte til mental sundhed og uddannelse.
2. Teknologien bag AI chatbots fortsætter med at udvikle sig hurtigt, med nye modeller og algoritmer der udvikles for at forbedre samtaleevner og nøjagtighed.
3. Nogle AI chatbots er specifikt programmeret til at bekæmpe misinformation ved at tilbyde faktatjekningstjenester og korrigere falske påstande i realtid.

Centrale spørgsmål:
1. Hvordan kan vi sikre ansvarlighed og gennemsigtighed i udviklingen og implementeringen af AI chatbots for at forhindre spredning af misinformation?
2. Hvilke foranstaltninger kan træffes for at oplyse brugerne om risiciene ved at stole på AI chatbots til information og opfordre til kritisk tænkning?
3. Skal der være reguleringsrammer på plads for at styre brugen af AI chatbots og mindske risikoen for at sprede misinformation?

Fordele:
1. AI chatbots kan give hurtig og tilgængelig information til brugerne, hvilket forbedrer bekvemmeligheden og effektiviteten.
2. De kan bruges til at skalere kundeserviceoperationer og forbedre svartiderne.
3. AI chatbots har potentiale til at personalisere interaktioner og give skræddersyede anbefalinger til brugerne baseret på deres præferencer.

Ulemper:
1. Uden ordentlig kontrol og regulering kan AI chatbots forstærke spredningen af misinformation og bidrage til erosion af tilliden til onlineindhold.
2. Chatbots kan mangle evnen til at skelne mellem nøjagtige og falske oplysninger, hvilket fører til utilsigtede spredninger af unøjagtigheder.
3. Afhængigheden af AI chatbots til information kan potentielt resultere i, at brugere bliver mere sårbare over for manipulation og indflydelse fra onde aktører.

Relaterede links:
1. www.economist.com
2. www.wired.com

Privacy policy
Contact