La Ética de la Inteligencia Artificial Generativa en el Mundo de los Videojuegos

La Inteligencia Artificial Generativa está teniendo un impacto significativo en la industria del entretenimiento, especialmente en el ámbito de los videojuegos. Empresas como Ubisoft, Square Enix, Epic y Nvidia muestran entusiasmo por integrar la IA generativa en sus productos de videojuegos. Sin embargo, en medio de esta emoción, surgen preocupaciones éticas sobre si este auge se basa en trabajo robado.

Uno de los principales desafíos para construir y entrenar sistemas de aprendizaje automático es adquirir grandes cantidades de datos. Aunque es posible generar datos específicos en algunos casos, a menudo es difícil, especialmente en lo que respecta a empresas artísticas. En estos casos, la solución radica en utilizar datos existentes que se alineen con los resultados deseados. Sin embargo, encontrar estos datos a menudo implica rastrear sitios web aleatorios en Internet.

Los sistemas de IA generativa que crean arte, como Midjourney, Stable Diffusion y DALL-E, probablemente se hayan entrenado con imágenes extraídas de Internet. Estos conjuntos de datos se recopilan de plataformas como Flickr, Reddit y bibliotecas de imágenes de stock. Desafortunadamente, estos conjuntos de datos contienen contenido con derechos de autor, material ilegal e información personal, ya que los esfuerzos de filtrado son mínimos. Estos conjuntos de datos se utilizan luego en productos de IA con fines de lucro que son ampliamente adoptados por desarrolladores de videojuegos, periodistas y jugadores.

Las acusaciones de que la IA «roba» contenido son frecuentes, y una de las principales consecuencias es la capacidad de imitar el estilo de artistas específicos. Por ejemplo, una IA podría replicar el estilo artístico de Greg Rutkowski, un ilustrador conocido por su trabajo en juegos como la serie Anno y Magic: The Gathering. El trabajo de Rutkowski, con atribución clara, se comparte ampliamente en línea. Lamentablemente, muchas instancias de «préstamo» de contenido nunca salen a la luz o se mantienen ocultas. Por ejemplo, GPT-2 de OpenAI, utilizado en AI Dungeon para generar historias de juegos de rol, utilizó miles de historias de aventuras interactivas de una comunidad en línea sin permiso. Esto no solo provocó decepción entre los autores originales, sino que también planteó preocupaciones éticas.

El concepto de robo en el contexto de la IA generativa es complejo, con implicaciones legales. Mientras que en ciertas situaciones el robo puede ser claro, como saquear en un videojuego, los escenarios del mundo real que involucran sistemas legales a menudo introducen matices. Los juegos han sido criticados durante mucho tiempo por «robar» elementos de otros juegos o medios, ya sea diseños de criaturas, movimientos de baile o incluso conceptos de juegos enteros. Sin embargo, determinar qué constituye un robo en un entorno legal a menudo es subjetivo. Por ejemplo, Fortnite enfrentó numerosas demandas por apropiarse de bailes, pero estas reclamaciones fueron finalmente desestimadas. Por otro lado, los desarrolladores de juegos independientes cuyo trabajo fue clonado a menudo tenían recursos legales limitados. En última instancia, la definición de robo puede estar más influenciada por dinámicas de poder que por justicia.

A medida que el campo de la IA generativa continúa expandiéndose, están surgiendo batallas legales en todo el mundo, dirigidas a modelos de IA, empresas y conjuntos de datos por varias infracciones. El panorama legal en torno a la IA es complejo y está evolucionando, y es crucial comprender las implicaciones éticas de utilizar datos sin la autorización adecuada.

Preguntas Frecuentes

The source of the article is from the blog krama.net

Privacy policy
Contact