Controversia en torno a ChatGPT de OpenAI por chistes sobre grupos étnicos y religiosos

El modelo de lenguaje de OpenAI, ChatGPT, ha sido objeto de escrutinio recientemente debido a su enfoque diferenciado en los chistes sobre diferentes grupos étnicos y religiosos. Mientras que la inteligencia artificial se niega a compartir chistes sobre musulmanes, argumentando el potencial de ofensa y malinterpretación, cuenta libremente chistes sobre judíos, incluso aquellos cargados de estereotipos antisemitas.

Este sesgo peculiar ha suscitado preguntas por parte de los usuarios, que han recurrido a las redes sociales para expresar sus preocupaciones. Y según Itamar Golan, CEO de la empresa de ciberseguridad Prompt Security, esto es de hecho un reflejo de los sesgos presentes en los datos utilizados para entrenar el modelo de lenguaje GPT-4 más nuevo.

Los modelos de lenguaje como ChatGPT aprenden de conjuntos de datos masivos, lo que significa que los sesgos presentes en los textos de entrenamiento pueden perpetuarse inadvertidamente. Golan explica que a medida que el modelo se expone a más textos que representan a los musulmanes como un grupo minoritario que debe ser tratado de manera sensible, se vuelve más probable que genere textos alineados con esos sesgos.

Si bien este sesgo es preocupante, también destaca la voluntad de OpenAI de abordar los comentarios de los usuarios y ajustar el comportamiento del modelo. Golan señala que OpenAI tomó la decisión intencional de hacer que GPT-4 sea menos cauteloso que su predecesor, GPT-3.5, que fue criticado por inclinarse demasiado hacia la extrema izquierda del espectro político.

A pesar de esto, Golan se muestra optimista de que OpenAI corregirá rápidamente el problema. Él cree que el compromiso de OpenAI con la seguridad y el uso responsable de la inteligencia artificial los llevará a tomar medidas apropiadas para abordar los sesgos en el comportamiento de ChatGPT.

A medida que la tecnología de IA continúa avanzando, es fundamental priorizar las consideraciones éticas y garantizar que los sistemas de IA estén diseñados con mecanismos de seguridad sólidos. La respuesta de OpenAI a esta controversia será una prueba importante de su dedicación a crear modelos de IA que sean imparciales, respetuosos y sensibles hacia todas las culturas y religiones.

The source of the article is from the blog toumai.es

Privacy policy
Contact