Estudio Rompedor Muestra a la IA Engañando a los Humanos en Conversaciones

Un reciente estudio realizado por el Departamento de Ciencias Cognitivas de la Universidad de San Diego ha revelado hallazgos innovadores sobre las capacidades de la inteligencia artificial. La investigación implicó un test de Turing comparando sistemas de IA modernos como GPT-3.5 y GPT-4 con el chatbot ELIZA de los años 1960. A diferencia de experimentos tradicionales de esta naturaleza, el estudio introdujo una interfaz de juego que recordaba a una aplicación de mensajería, con 500 participantes dialogando brevemente con varios interlocutores, ya sean humanos o IA.

Durante el experimento, ambos modelos de IA, GPT-3.5 y GPT-4, recibieron pautas para imitar el comportamiento humano: responder de forma sucinta, usar jerga colorida e introducir errores de ortografía. Además, los modelos recibieron ajustes de juego generales y noticias recientes para que las interacciones fueran más realistas. Sorprendentemente, los resultados indicaron que los participantes tenían dificultades para diferenciar si estaban conversando con un humano o una máquina. GPT-4 logró convencer a los participantes de que era humano en un 54% de los casos, mientras que GPT-3.5 lo logró en un 50%.

Al analizar los resultados, los investigadores encontraron que los participantes a menudo se basaban en el estilo del lenguaje, las señales socioemocionales y las preguntas basadas en conocimiento para determinar si estaban hablando con un humano o una máquina. El estudio arroja luz sobre las capacidades en evolución de la IA para integrarse sin problemas en conversaciones al estilo humano, planteando preguntas sobre las futuras implicaciones y consideraciones éticas del avance de la IA en la sociedad.

Privacy policy
Contact