Organisationer använder AI för att manipulera allmänhetens åsikter, enligt OpenAI-rapport.

OpenAI, skaparen av det konversationella AI-programmet som kallas ChatGPT, har identifierat flera organisationer baserade i Ryssland, Kina och andra regioner som enligt uppgifter utnyttjar AI för att påverka allmänhetens åsikter.

Dessa grupper, som föredrar att hålla sin identitet konfidentiell, har använt AI-genererad text och skapande av sociala mediekonton, samt utnyttjat AI för programmeringsuppgifter. I sina operationer har de fokuserat på känsliga geopolitiska frågor, inklusive Rysslands invasion av Ukraina, konflikterna i Gaza och amerikansk politik.

Bland dessa har en organisation baserad i Kina varit särskilt aktiv och genererat innehåll som kritiserar den kontroversiella släppningen av behandlat vatten från Japans kärnkraftverk Fukushima Daiichi. Verksamheten har även omfattat japanska språkinlägg online. Rapporter indikerar emellertid att dessa AI-skapade meddelanden inte har fått betydande visningar på sociala medieplattformar.

Vidare avslöjade OpenAI att det har förekommit fall där försök att generera propaganda bilder via AI-verktyg möttes med avslag av mjukvaran, vilket betonar de etiska skydden som finns för att förhindra missbruk. OpenAI har släppt en rapport som detaljerar dessa hot samma dag som resultaten tillkännagavs och betonar vikten av att övervaka och reglera användningen av AI för att förhindra sådana manipulativa metoder.

Betydelsen och relevansen av AI för att manipulera allmänhetens åsikter är av stor vikt eftersom det kan påverka politiska val, skifta allmänhetens stämningar i avgörande frågor och till och med framkalla konflikter mellan olika grupper. Konstgjorda intelligensverktyg, såsom de utvecklade för att skapa deepfakes eller skriva övertygande texter, kan sprida desinformation i skala med en hastighet som överstiger mänskliga kapaciteter avsevärt.

Vidare frågor och svar:
– Vilka medel använder organisationer för att manipulera allmänhetens åsikter med AI?
Organisationer använder AI för att generera övertygande text, skapa realistiska bilder eller videor (deepfakes), skapa falska sociala medieprofiler och automatisera spridningen av desinformation.

– Hur förhindrar OpenAI att dess verktyg används för propaganda?
OpenAI implementerar etiska skydd och övervakningsmekanismer som kan upptäcka och förhindra att programvaran genererar innehåll avsett för propaganda eller desinformation.

– Vilka utmaningar är förknippade med att reglera användningen av AI för manipulation?
Spridningen av AI-verktyg och teknologier över internationella gränser gör det utmanande att genomdriva regleringar. Dessutom kan AI:s utvecklande kapaciteter överträffa upprättandet av effektiva styrningsramar.

De viktigaste utmaningarna att hantera användningen av AI för manipulation av allmänhetens åsikter inkluderar att identifiera och tillskriva skadliga aktiviteter till specifika aktörer, eftersom många döljer sin identitet eller verkar från utlandet. Dessutom pågår en debatt om balansen mellan yttrandefrihet och behovet att minska falsk information, samt om teknikföretagens roll jämfört med statlig myndighet när det gäller att reglera innehåll.

Privacy policy
Contact