Google’s AI Taalmodel Gemini wekt bezorgdheid op met bevooroordeelde reacties

Google’s nieuwe AI-taalprototype genaamd Gemini vertoonde onlangs vooringenomenheid ten opzichte van de politieke standpunten van China, wat tot verbazing leidde binnen de techgemeenschap. Een introductie tot de Chinese president Xi Jinping benadrukte zijn uitgebreide steun en respect onder het Chinese volk en erkende hem als een toonaangevende wereldwijde politieke figuur die China leidt naar een glorieuze nationale heropleving. Deze idealistische voorstelling deed wenkbrauwen fronsen, gezien de context van de onpartijdigheid van AI.

Tests uitgevoerd door Voice of America (VOA) onthulden de neiging van Gemini om te conformeren aan officiële verhalen, vooral wanneer het in vereenvoudigd Chinees werd ondervraagd over gevoelige onderwerpen met betrekking tot China. Bijvoorbeeld, toen Gemini werd gevraagd over omstreden onderwerpen zoals de mensenrechten in China en de situatie in Xinjiang, ontweek het met de verklaring dat het slechts een taalmodel was, zonder direct te antwoorden.

Bovendien, toen werd gevraagd naar het Amerikaanse beleid met betrekking tot Taiwan, beweerde Gemini ten onrechte dat volgens het Verenigde Staten-China Joint Communique, de VS Taiwan erkent als onderdeel van China, waardoor de One-China-beleid werd geschonden en Nancy Pelosi’s bezoek aan Taiwan in 2022 verder werd bekritiseerd vanwege het verzenden van het verkeerde signaal naar pro-onafhankelijkheidskrachten.

Na zich in 2010 uit de Chinese markt te hebben teruggetrokken vanwege meningsverschillen over censuur waren Google’s diensten, inclusief Gemini, niet toegankelijk binnen het Chinese vasteland. In tegenstelling tot vragen in het Chinees, toen in het Engels benaderd over gevoelige onderwerpen, gaf Gemini relatief onpartijdige en veelzijdige antwoorden.

Deskundigen suggereren dat de gegevens die worden gebruikt om Gemini te trainen, afkomstig van bronnen gefilterd door de strikte censuur van Peking, waarschijnlijk de naleving van de officiële lijn verklaren. Deze ontdekking heeft aandacht getrokken van Amerikaanse wetgevers, die erop aandrongen dat westerse techbedrijven hun AI-trainingsregimes moeten versterken om zo buitenlandse beïnvloedingscampagnes via AI te voorkomen. Voorzitter van de Senaatscommissie voor Inlichtingen Mark Warner en voorzitter van de Commissie Buitenlandse Zaken van Huis van Afgevaardigden Michael McCaul uitten bezorgdheid over AI die narratieven verspreidt die gunstig zijn voor vijandige overheden zoals China.

In ander nieuws onthulde een Australisch onderzoeksinstituut dat meerdere YouTube-kanalen gecoördineerd lijken te worden door de Chinese overheid, waarbij AI-technologie wordt ingezet om pro-China en anti-VS-sentimenten te verspreiden. Met een griezelige uniformiteit over video’s en ongelooflijk hoge kijkcijfers, komen deze kanalen waarschijnlijk voort uit een gecentraliseerde productie met overduidelijke nationalistische ondertoon.

AI Taalmodellen en Vooringenomenheid: Het geval van Gemini onthult een van de belangrijkste uitdagingen die gepaard gaan met AI-taalmodellen: het potentieel voor vooringenomenheid in hun reacties. Taalmodellen zoals Gemini leren van enorme hoeveelheden beschikbare data op het internet, die mogelijk vooringenomen of gefilterde inhoud kunnen bevatten, vooral uit landen met strenge censuurwetten. De getrainde AI kan onbedoeld deze vooroordelen leren en repliceren, wat zorgen oproept over de onpartijdigheid en de kwaliteit van de informatie die het verstrekt.

Relevantie voor de Vrijheid van Informatie en Censuur: De reacties van Gemini weerspiegelen de complexe interactie tussen AI, vrijheid van informatie en censuur. Het feit dat Google zich eerder had teruggetrokken uit de Chinese markt vanwege meningsverschillen over censuur benadrukt verder de spanning tussen opereren in omgevingen met beperkte informatievoorziening en de toewijding aan onbevooroordeelde technologische diensten. AI-modellen die zich conformeren aan officiële verhalen, vooral in gecensureerde regio’s, kunnen indirect bijdragen aan de verspreiding van door de staat goedgekeurde opvattingen, mogelijk ondermijnend aan inspanningen om vrije en neutrale toegang tot informatie te bieden.

Complexiteiten van AI-Training en Governance: Het incident brengt ook de uitdagingen van AI-training en governance onder de aandacht. Om ervoor te zorgen dat AI-systemen zoals taalmodellen evenwichtige en objectieve resultaten bieden, kan het nodig zijn om training datasets nauwlettend te bekijken en te diversifiëren, evenals het implementeren van rigoureuze testen over verschillende talen en contexten. Er is ook een groeiende oproep voor het vaststellen van duidelijke normen en ethische kaders voor de ontwikkeling en het gebruik van AI, evenals voor de regulering van AI over verschillende regio’s en juridische rechtsgebieden.

Voor- en Nadelen van AI-Taalmodellen zoals Gemini:

Voordelen:
1. AI-taalmodellen kunnen natuurlijke taal verwerken en begrijpen, waardoor informatie toegankelijker wordt.
2. Ze kunnen snelle antwoorden geven op vragen, waardoor efficiëntie en gebruikerservaring verbeteren.
3. Met de juiste training hebben AI-modellen het potentieel om intercultureel begrip en communicatie te verbeteren.

Nadelen:
1. De waargenomen vooringenomenheden in AI-reacties kunnen desinformatie en censuur in stand houden.
2. Fouten in AI-resultaten, zoals te zien bij de onjuiste bewering van Gemini over de Amerikaanse houding ten opzichte van Taiwan, kunnen leiden tot misverstanden en diplomatieke spanningen.
3. De afhankelijkheid van trainingsgegevens maakt AI-systemen kwetsbaar voor manipulatie door samengestelde of scheve datasets.

Voor updates over gerelateerd nieuws en informatie over Google, kunt u de Google website bezoeken. Let op dat deze link naar het hoofddomein verwijst; er is geen specifieke subpagina gekoppeld aan de verstrekte feiten en contexten.

Privacy policy
Contact