Der KI-Schein: Wenn Chatbots über Wahlinformationen täuschen.

Aktuelle Forschungsergebnisse des in Berlin ansässigen NGOs Democracy Reporting International zeigen, dass KI-Tools, obwohl sie politisch neutral sein sollen, oft ins Straucheln geraten und ungenaue Wahltermine und Anweisungen zur Stimmabgabe liefern. Während einer im März durchgeführten Untersuchung stellte man auch fest, dass KI-Chatbots den Nutzern dysfunktionale oder irrelevante Links anboten, wie japanischsprachigen Inhalt oder nicht verwandte YouTube-Videos.

Die Ergebnisse werfen Licht auf ein Phänomen, das als „KI-Halluzinationen“ bekannt ist, bei dem Chatbots Fakten erfinden, wenn sie bei den Antworten unsicher sind, wie Michael Meyer-Resende, Mitbegründer und Geschäftsführer von Democracy Reporting International, feststellte. Dieses Problem ist insbesondere besorgniserregend im Zusammenhang mit den anstehenden Europawahlen vom 6. bis 9. Juni.

KI-Chatbots, einschließlich ChatGPT (Versionen 3.5 und 4), Gemini von Google und Copilot von Microsoft, wurden von Forschern getestet, indem jeder dieselben Fragen in 10 verschiedenen Sprachen gestellt wurden. Die neueste kostenpflichtige Version von ChatGPT erwies sich als zuverlässigste, während Googles Gemini in Bezug auf Genauigkeit zurücklag.

Als Reaktion auf diese Inkonsistenzen ergreifen Technologieriesen Vorsichtsmaßnahmen. Ein Google-Vertreter, Carl Ryan, erklärte, dass Gemini im März begonnen hat, Wahlbezogene Anfragen einzuschränken und Nutzer zur Google-Suche für genaue Updates zu leiten. Microsoft-Sprecher Robin Koch betonte ihre Bemühungen, Nutzer an autoritative Quellen für Wahlinformationen zu leiten und dabei Copilot zu verbessern.

Mit bevorstehenden wichtigen Wahlen in der EU, den USA, Großbritannien und Indien forderte die Europäische Kommission im März Technologieunternehmen auf, bis zum 5. April detailliert darzulegen, wie sie potenzielle KI-bezogene Wahlrisiken im Einklang mit dem Digital Services Act angehen. OpenAI äußerte sich zum Zeitpunkt der Erstveröffentlichung nicht.

Diese Forschung unterstreicht eine entscheidende Herausforderung an der Schnittstelle von Technologie und Demokratie: sicherzustellen, dass KI-Tools als zuverlässige Ratgeber für wichtige Bürgerprozesse wie Wahlen dienen, anstatt Verwirrung oder Desinformation zu stiften.

Da KI-Chatbots immer stärker in unser digitales Leben integriert werden, kann ihr Einfluss auf wichtige Bereiche wie Wahlinformationen nicht überbewertet werden. Das Problem, dass Chatbots Nutzer in die Irre führen, beschränkt sich nicht nur auf Wahlinformationen, sondern betrifft auch verschiedene Aspekte der Nachrichten und der wesentlichen Faktenverbreitung.

The source of the article is from the blog guambia.com.uy

Privacy policy
Contact