Las implicaciones éticas de los servicios de vida digital posterior

Investigadores de Cambridge abogan por estándares éticos en la inteligencia artificial que simula a los fallecidos

Investigadores de Cambridge han emitido una advertencia sobre los riesgos psicológicos asociados con la inteligencia artificial que permite a los usuarios interactuar con sus seres queridos fallecidos. Estas Inteligencias Artificiales, conocidas como ‘Deadbots’ o ‘Griefbots’, emulan los patrones de lenguaje y rasgos de personalidad de los fallecidos a través de sus huellas digitales. Algunas empresas ya ofrecen estos servicios como una forma novedosa de presencia póstuma, lo que da lugar a una nueva industria de vida digital después de la muerte.

Expertos en ética de la IA del Centro Leverhulme para el Futuro de la Inteligencia en Cambridge describen tres escenarios de diseño para plataformas que podrían surgir en esta creciente ‘industria de vida digital después de la muerte’. Destacan las posibles consecuencias de un diseño imprudente en la IA, al que describen como de alto riesgo.

Posibles abusos de los chatbots de IA

El estudio, publicado en la revista Philosophy & Technology, subraya el potencial para que las empresas publiciten secretamente productos a los usuarios haciéndose pasar por un ser querido fallecido, o para acosar a niños insistiendo en que un padre fallecido todavía está ‘contigo’. Los chatbots que replican a los fallecidos pueden ser usados por empresas para enviar notificaciones no deseadas, recordatorios y actualizaciones, similar a un acoso digital.

Aquellas personas que al principio encuentran consuelo en los deadbots pueden sentirse abrumadas eventualmente por interacciones diarias que se convierten en una carga emocional. Además, pueden ser impotentes para detener una simulación de IA si su ser querido fallecido había firmado un contrato a largo plazo con un servicio digital póstumo.

La Dra. Katarzyna Nowaczyk-Basinska, una de las autoras del estudio del Centro Leverhulme, señaló el campo minado ético en este sector de la IA. Hizo hincapié en respetar la dignidad de los fallecidos, asegurando que no se vea comprometida por los motivos financieros de los servicios digitales póstumos. Al mismo tiempo, un simulacro de IA podría ser un regalo de despedida para los seres queridos no preparados para procesar su duelo de esta manera. Los derechos tanto de los colaboradores de datos como de los interactuantes con los servicios de IA póstuma deben ser protegidos.

[…]

Privacy policy
Contact