Le Implicazioni Etiche dei Servizi di Vita Digitale Post Morte

I ricercatori di Cambridge promuovono standard etici nell’IA che simula i defunti

I ricercatori di Cambridge hanno lanciato un avvertimento sui rischi psicologici associati all’intelligenza artificiale che consente agli utenti di interagire con i propri cari defunti. Queste Intelligenze Artificiali, conosciute come ‘Deadbots’ o ‘Griefbots’, emulano i modelli linguistici e i tratti di personalità dei defunti attraverso le loro impronte digitali. Alcune aziende offrono già questi servizi come una nuova forma di presenza postuma, consentendo l’emerger di un’industria digitale dell’aldilà.

Gli esperti di etica legati all’IA del Leverhulme Centre for the Future of Intelligence di Cambridge descrivono tre scenari di design per piattaforme che potrebbero emergere in questa crescente ‘industria digitale dell’aldilà’. Mettono in evidenza le potenziali conseguenze di un design imprudente nell’IA, che definiscono a rischio elevato.

Possibili usi impropri dei chatbot con IA

Lo studio, pubblicato sulla rivista Philosophy & Technology, sottolinea il potenziale per le aziende di pubblicizzare in modo subdolo prodotti agli utenti sotto mentite spoglie di un caro defunto, o di molestare i bambini insistendo sul fatto che un genitore defunto sia ancora ‘con te’. I chatbot che replicano i defunti possono essere utilizzati dalle aziende per inviare notifiche indesiderate, promemoria e aggiornamenti, simili a un’ossessione digitale.

Coloro che trovano un primo conforto nei deadbots potrebbero alla fine sentirsi sopraffatti dalle interazioni quotidiane che diventano un peso emotivo. Inoltre, potrebbero essere impotenti nel fermare una simulazione di IA se il loro caro defunto avesse firmato un contratto a lungo termine con un servizio digitale postumo.

La dott.ssa Katarzyna Nowaczyk-Basinska, una degli autori dello studio del Leverhulme Centre, ha evidenziato il campo minato etico di questo settore dell’IA. Ha sottolineato il rispetto per la dignità del defunto, garantendo che non venga compromessa dai motivi finanziari dei servizi digitali postumi. Allo stesso tempo, un simulacro di IA potrebbe essere un regalo d’addio per i cari impreparati a elaborare il loro dolore in questo modo. I diritti dei contributori di dati e degli interattori con i servizi di IA post-mortem devono essere protetti.

[…]

Privacy policy
Contact