OpenAI Revisa su Política de Uso y Amplía el Alcance de las Aplicaciones Permitidas

OpenAI, el laboratorio de investigación de inteligencia artificial, ha actualizado recientemente su política de uso para permitir la utilización de su tecnología en aplicaciones militares y de guerra. El cambio, que fue notado por primera vez por The Intercept, se produce mientras OpenAI busca clarificar y refinar sus pautas.

Anteriormente, la política de uso de OpenAI prohibía explícitamente el uso de su tecnología para el «desarrollo de armas» y «militarismo y guerra». Sin embargo, la política actualizada ahora solo restringe el uso de las herramientas de OpenAI para el desarrollo de armas, permitiendo su aplicación en contextos militares y de guerra.

En una declaración a TechCrunch, OpenAI enfatizó que su política aún prioriza la prevención de daños y prohíbe el uso de su tecnología para dañar a individuos o propiedades. La compañía también señaló que existen casos de uso en seguridad nacional que se alinean con su misión, como colaborar con organizaciones como DARPA para desarrollar herramientas de ciberseguridad para infraestructuras críticas.

La decisión de revisar la política de uso refleja el compromiso de OpenAI con el desarrollo ético de la inteligencia artificial y su implementación responsable. Al ampliar el alcance de las aplicaciones permitidas, la organización busca fomentar discusiones y colaboraciones que puedan contribuir a avances positivos en la tecnología de inteligencia artificial.

Sin embargo, persisten las preocupaciones en torno a las posibles consecuencias de la inteligencia artificial en la guerra. Expertos de la industria llevan tiempo advirtiendo sobre los riesgos asociados con el mal uso de la IA, comparándolo con el desarrollo de armas nucleares antes de la Segunda Guerra Mundial. El lanzamiento de tecnologías poderosas de IA generativa, como el ChatGPT de OpenAI y el Bard de Google, ha intensificado aún más estas preocupaciones.

La política de uso revisada de OpenAI señala un reconocimiento de la necesidad de claridad y transparencia al abordar los posibles beneficios y riesgos de la tecnología de inteligencia artificial. A medida que el campo continúa evolucionando, es crucial que las organizaciones se comprometan activamente en el desarrollo responsable de la inteligencia artificial y consideren las implicaciones éticas de su trabajo.

Privacy policy
Contact