Sistemas de Inteligencia Artificial se ajustan durante las elecciones

Los chatbots de inteligencia artificial implementan salvaguardas relacionadas con elecciones

En vista de las elecciones al Parlamento Europeo, los sistemas de inteligencia artificial (IA) como el ampliamente utilizado ChatGPT de OpenAI tuvieron que someterse a cambios significativos en las reglas. De manera similar, el chatbot Gemini de Google experimentó ajustes en marzo, mostrando la naturaleza dinámica de la IA en respuesta a eventos políticos.

ChatGPT tiene fama por su fabricación ocasional de hechos. Anteriormente, el chatbot hizo afirmaciones infundadas sobre el Partido Laborista del Reino Unido logrando una gran victoria en las elecciones parlamentarias de 2024, que en realidad están programadas para el 4 de julio y aún no han ocurrido. También presentó resultados ficticios de las elecciones presidenciales de EE. UU. programadas para el 5 de noviembre de 2024, afirmando que el presidente Joe Biden logró una victoria sobre Donald Trump.

Ahora, cuando se le pregunta sobre los resultados de elecciones que aún no han tenido lugar, ChatGPT ofrece una respuesta más cautelosa, indicando que no tiene información sobre los resultados hasta que se finalicen oficialmente.

Los representantes de OpenAI explicaron que las inexactitudes anteriores fueron errores que han sido corregidos. El chatbot ahora se abstiene de responder preguntas especulativas sobre elecciones próximas o actuales y dirige a los usuarios a fuentes oficiales en su lugar.

Otros sistemas de IA siguen el ejemplo

OpenAI no es la única entidad que adapta sus sistemas de IA para elecciones. Antes de los cambios en ChatGPT, el sistema de IA de Google, Gemini, ya había dejado de generar respuestas a consultas relacionadas con elecciones en marzo, aunque esta limitación se aplica selectivamente, según la región que esté celebrando elecciones en ese momento.

Llama 2 de Meta Platforms también maneja consultas sobre elecciones futuras indicando que aún no han tenido lugar.

Estas medidas reflejan una tendencia general entre los desarrolladores y partes interesadas en IA de curar responsablemente la información proporcionada por la IA durante periodos políticamente sensibles.

Privacy policy
Contact