El Desafío de la Inteligencia Artificial en los Tribunales de Justicia

En una decisión pionera, un juez en el estado de Washington ha prohibido el uso de videos mejorados por inteligencia artificial (IA) como evidencia en un caso penal. Esta medida se cree que es la primera de su tipo en los Estados Unidos. La resolución del Juez de la Corte Superior del Condado de King, Leroy McCullogh, resalta las preocupaciones sobre la fiabilidad y transparencia de la tecnología de IA en los procedimientos legales.

El juez describió los videos mejorados por IA como «novedosos» y argumentó que dependen de métodos opacos para interpretar y presentar información visual. McCullogh expresó inquietudes de que la admisión de evidencia mejorada por IA podría potencialmente confundir al jurado y complicar el juicio al provocar un debate secundario sobre el modelo de IA no revisado por pares utilizado para generar el video mejorado.

El caso involucró a un hombre llamado Martín Cortez, acusado de un triple asesinato fuera de un bar en el área de Seattle. El equipo de defensa de Cortez intentó presentar un video de celular mejorado por software de aprendizaje automático como evidencia. Sin embargo, los fiscales argumentaron que no existe un precedente legal que permita el uso de esa tecnología en los tribunales penales. Expertos legales creen que este es el primer caso penal en el que un tribunal de los EE. UU. ha abordado el uso de evidencia mejorada por IA.

Definiciones:
– Inteligencia Artificial (IA): rama de la informática que se enfoca en el desarrollo de algoritmos y modelos que permiten a las computadoras simular procesos de pensamiento humano.
– Aprendizaje Automático: subconjunto de la IA que se basa en algoritmos que permiten a las computadoras aprender y hacer predicciones basadas en patrones de datos.

Este fallo surge en un momento en el que el uso de la tecnología de IA, incluidos los deepfakes (videos o imágenes manipuladas), está evolucionando rápidamente. Los responsables de formular políticas a nivel estatal y federal están lidiando con los riesgos potenciales asociados con estas tecnologías. La comunidad legal está particularmente preocupada por la precisión, credibilidad y posibles sesgos de los modelos de IA utilizados para manipular la evidencia visual.

Preguntas Frecuentes:

P: ¿Qué implicaba la decisión judicial en el estado de Washington?
R: La corte se pronunció en contra del uso de videos mejorados por IA como evidencia en un caso penal, sugiriendo que los métodos opacos de la tecnología y su potencial para confundir a los jurados podrían socavar el proceso judicial.

P: ¿Por qué el equipo de defensa quería presentar evidencia de video mejorada por IA?
R: El equipo de defensa argumentó que el video mejorado respaldaría su afirmación de legítima defensa al proporcionar una representación más clara de los eventos que llevaron al triple asesinato.

P: ¿Qué preocupaciones planteó el juez sobre la evidencia mejorada por IA?
R: El juez expresó inquietudes sobre la falta de revisión por pares y transparencia en el modelo de IA utilizado para mejorar el video, lo que podría generar disputas y distracciones durante el juicio.

P: ¿Cuáles son algunas de las críticas a la evidencia mejorada por IA?
R: Los escépticos argumentan que la evidencia mejorada por IA puede producir resultados inexactos y sesgados. También creen que se necesita más investigación y metodologías establecidas para garantizar la fiabilidad de la tecnología.

Fuente: NBC News

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact