Sora: Una herramienta de IA revolucionaria con riesgos potenciales

Sora, la última herramienta de texto a video desarrollada por OpenAI, está causando sensación en el ámbito de la IA generativa. Si bien la tecnología detrás de Sora es innegablemente innovadora, los expertos han expresado preocupaciones sobre su potencial para crear videos deepfake que perpetúan estereotipos raciales y de género.

A diferencia de su predecesor ChatGPT, Sora toma indicaciones de texto y las transforma en videos de un minuto de duración. OpenAI describe a Sora como una herramienta con la capacidad de generar escenas complejas, incorporando múltiples personajes, movimiento específico y detalles precisos del sujeto y el fondo. El alto nivel de realismo de la herramienta se logra mediante una combinación de dos enfoques de IA. El primero es el uso de modelos de difusión, como DALLE-E, que convierten los píxeles de imagen aleatorizados en visuales coherentes. El segundo enfoque es la ‘arquitectura transformadora’, utilizada para contextualizar y unir datos secuenciales.

Si bien el acceso a Sora está actualmente limitado a un grupo selecto de artistas visuales, cineastas y diseñadores, hay indicios de que se creará una lista de espera para un acceso más amplio en un futuro próximo. Las personas con acceso, denominadas miembros del equipo rojo, tienen experiencia en áreas como la desinformación, el contenido odioso y el sesgo para comprender mejor los riesgos asociados con la herramienta.

OpenAI reconoce los riesgos potenciales que plantea Sora y asegura a los usuarios que están tomando medidas para combatir contenido engañoso. Planea desarrollar un clasificador de detección capaz de reconocer videos creados por Sora y adaptará procedimientos de seguridad existentes de herramientas como DALLE3. La empresa afirma que han implementado clasificadores de imágenes sólidos para revisar cada fotograma de los videos generados antes de otorgar acceso.

Mientras que OpenAI tiene como objetivo compartir el progreso de su investigación y recopilar comentarios de socios externos, la disponibilidad de la herramienta para el público sigue siendo incierta. Las preocupaciones sobre la creación de videos deepfake que refuerzan estereotipos negativos siguen siendo planteadas. La desinformación y la información falsa alimentadas por contenido generado por IA siguen siendo preocupaciones significativas en diversas industrias.

Sora representa un cambio de paradigma en el campo de la IA generativa. A medida que su accesibilidad aumenta, OpenAI debe priorizar la mitigación de los riesgos asociados con el posible mal uso de esta poderosa tecnología.

**Sección de preguntas frecuentes:**

1. ¿Qué es Sora?
– Sora es una herramienta de texto a video desarrollada por OpenAI que puede transformar indicaciones de texto en videos de un minuto de duración.

2. ¿Cómo logra Sora un alto nivel de realismo en los videos generados?
– Sora combina dos enfoques de IA: modelos de difusión como DALLE-E, que convierten los píxeles de imagen aleatorizados en visuales coherentes, y la ‘arquitectura transformadora’, que contextualiza y une datos secuenciales.

3. ¿Quién tiene actualmente acceso a Sora?
– El acceso a Sora está actualmente limitado a un grupo selecto de artistas visuales, cineastas y diseñadores denominados miembros del equipo rojo.

4. ¿Se ampliará en el futuro el acceso a Sora?
– Hay indicios de que OpenAI podría crear una lista de espera para un acceso más amplio a Sora en un futuro próximo.

5. ¿Qué medidas está tomando OpenAI para combatir el contenido engañoso generado por Sora?
– OpenAI planea desarrollar un clasificador de detección diseñado específicamente para reconocer videos creados por Sora. También adaptarán procedimientos de seguridad existentes de herramientas como DALLE3 e implementarán clasificadores de imágenes sólidos para revisar cada fotograma de los videos generados.

6. ¿OpenAI es consciente de los riesgos potenciales asociados con Sora?
– Sí, OpenAI reconoce los riesgos potenciales que plantea Sora y está trabajando activamente para mitigarlos. Están buscando la experiencia de personas con conocimientos en áreas como desinformación, contenido odioso y sesgo para comprender y abordar mejor los riesgos.

**Definiciones:**
– IA generativa: Se refiere a sistemas o modelos de IA capaces de crear nuevo contenido, como texto, imágenes o videos, en función de una entrada o indicaciones dadas.
– Videos deepfake: Videos que son creados o manipulados utilizando IA para hacer que parezca que alguien dijo o hizo algo que en realidad no dijo o hizo, generalmente intercambiando rostros o alterando la voz.

**Enlace relacionado:**
[OpenAI](https://www.youtube.com/embed/nYTRFKGR9wQ)

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact