Desarrollo de la Inteligencia Artificial: Entrenando Sistemas para Razonar

En un estudio innovador, investigadores han descubierto que otorgar a los sistemas de inteligencia artificial (IA) un «monólogo interno» mejora significativamente su capacidad de razonamiento. Mediante la enseñanza a la IA de pensar antes de responder a estímulos, de manera similar a cómo los humanos consideran sus próximas palabras antes de hablar, se ha desarrollado una metodología revolucionaria llamada «Quiet-STaR». Este enfoque innovador instruye a los sistemas de IA a generar múltiples razonamientos internos simultáneamente antes de formular una respuesta, permitiendo así a la IA ofrecer la mejor respuesta posible.

A diferencia de los chatbots de IA tradicionales como ChatGPT, que no contemplan sus respuestas o anticipan diferentes posibilidades de conversación, el algoritmo Quiet-STaR dota a los agentes de IA con la capacidad de generar una gama de predicciones acompañadas de razonamientos. Al proporcionar respuestas, la IA combina y presenta la respuesta más adecuada, que posteriormente puede ser evaluada por un participante humano en función de la naturaleza de la pregunta. A través de este proceso, se descartan razonamientos incorrectos, lo que permite a la IA anticipar conversaciones futuras y aprender de interacciones continuas.

Al utilizar el modelo de lenguaje grande (LLM) de código abierto Mistral 7B, los investigadores aplicaron el algoritmo Quiet-STaR y observaron mejoras notables. La versión de Mistral 7B entrenada con Quiet-STaR alcanzó una puntuación de razonamiento del 47.2% en comparación con la puntuación previa al entrenamiento del 36.3%. Aunque aún tuvo dificultades con una prueba de matemáticas escolares, obteniendo un 10.9%, esta fue una mejora significativa respecto a la puntuación inicial de la versión básica, que era del 5.9%.

Es importante tener en cuenta que los investigadores se han centrado en abordar las limitaciones de los modelos de IA existentes en la comprensión del razonamiento del sentido común y la contextualización. Los modelos de lenguaje como ChatGPT y Gemini, basados en redes neuronales que intentan imitar la estructura del cerebro humano y los patrones de aprendizaje, actualmente no son capaces de comprender genuinamente. Intentos anteriores de mejorar las capacidades de razonamiento han sido predominantemente específicos de dominio, lo que restringe su aplicabilidad a diversos modelos de IA.

La metodología Quiet-STaR destaca por su versatilidad, su capacidad de funcionar en silencio en segundo plano y su potencial para implementarse con diferentes tipos de LLM. Al construir sobre la base del algoritmo autoenseñado (STaR), los investigadores tienen como objetivo cerrar la brecha entre los sistemas de IA basados en redes neuronales y las capacidades de razonamiento similares a las humanas. Esta investigación prometedora abre nuevas puertas en la búsqueda de avanzar en la tecnología de IA.

FAQ

The source of the article is from the blog myshopsguide.com

Privacy policy
Contact