Tech Experts Expresan Dudas de que ChatGPT y las ‘Alucinaciones’ de la IA Desaparezcan

Expertos tecnológicos están planteando preocupaciones sobre el persistente problema de las falsedades generadas por los chatbots, a menudo conocidas como alucinaciones o invenciones. Tanto empresas, organizaciones como estudiantes confían en los sistemas de IA generativa como ChatGPT para componer documentos y realizar diversas tareas. Sin embargo, las inexactitudes y fabricaciones representan un problema en tareas con consecuencias de alto riesgo, como la psicoterapia y la redacción de escritos legales.

Según Daniela Amodei, co-fundadora de Anthropic, empresa creadora del chatbot Claude 2, prácticamente todos los modelos actuales sufren de alucinaciones en cierta medida. Estos modelos están diseñados principalmente para predecir la siguiente palabra con precisión, pero siempre habrá un grado inherente de inexactitud.

Desarrolladores como Anthropic y OpenAI, los creadores de ChatGPT, reconocen el problema y aseguran estar trabajando para que los sistemas de IA sean más veraces. Sin embargo, el plazo para lograr esto y si alguna vez alcanzarán un nivel de confiabilidad adecuado para tareas como brindar consejos médicos permanecen inciertos.

Esta confiabilidad es crucial, dado el impacto económico proyectado de la tecnología de IA generativa, que se estima que contribuirá con billones de dólares a la economía global. Los chatbots son solo un aspecto de esta tecnología, que también abarca la generación de imágenes y videos, la composición musical y la escritura de código informático. El lenguaje juega un papel vital en todas estas herramientas.

Grandes organizaciones como Google y Associated Press ya han mostrado interés en utilizar la tecnología de IA para diversos propósitos, como la redacción de noticias y el análisis de texto histórico. La precisión del contenido generado es especialmente importante en estos contextos.

Además, las posibles consecuencias de las inexactitudes van más allá de los artículos de noticias. Por ejemplo, el científico de la computación Ganesh Bagler ha estado trabajando en el desarrollo de sistemas de IA capaces de inventar recetas. Sin embargo, un solo ingrediente alucinado podría resultar en un plato incomible, resaltando las graves implicaciones de los errores en los sistemas de IA generativa.

Aunque algunos expertos tienen optimismo, otros argumentan que las mejoras en la tecnología no serán suficientes. La lingüista Emily Bender cree que el desajuste fundamental entre la tecnología y sus aplicaciones propuestas hace que sea un problema insoluble. Los modelos de lenguaje, como ChatGPT, están diseñados para generar texto seleccionando la siguiente palabra más plausible, lo que en algunos casos hace que los errores sean difíciles de percibir.

No obstante, empresas como Jasper AI están aprovechando el potencial creativo de estas alucinaciones, ya que los clientes aprecian las ideas inesperadas que generan. Jasper AI colabora con organizaciones como OpenAI, Anthropic, Google y Meta para proporcionar modelos de lenguaje de IA personalizados que satisfacen sus requisitos únicos.

Si bien se reconoce la dificultad de corregir las alucinaciones, el presidente de Jasper AI, Shane Orlick, espera un esfuerzo significativo por parte de compañías como Google para abordar el problema y mejorar la precisión de los sistemas de IA con el tiempo.

A pesar de los desafíos en curso, los tecno-optimistas como Bill Gates siguen siendo optimistas de que los modelos de IA pueden ser enseñados para distinguir entre hechos y ficción. Sin embargo, aún queda mucho trabajo por hacer para superar las limitaciones inherentes de los modelos de lenguaje actuales.

The source of the article is from the blog meltyfan.es

Privacy policy
Contact