Progetto europeo Hatedemics mira a utilizzare l’IA contro l’odio online e la disinformazione.

La Fondazione Bruno Kessler di Trento assume il comando nello sviluppo di una piattaforma di intelligenza artificiale

Una temeraria iniziativa è stata avviata sotto la guida della Fondazione Bruno Kessler di Trento, Italia, che mira ad aiutare ONG, giornalisti, verificatori di fatti, autorità pubbliche e studenti nella lotta contro l’odio online e le fake news. Il progetto europeo denominato Hatedemics si appresta a essere lanciato questo mese, segnando una svolta verso misure tempestive ed efficaci contro i crimini informatici alimentati dalla disinformazione, in particolare quelli rivolti ai gruppi più vulnerabili della società.

Il progetto Hatedemics, guidato da Marco Guerini dell’Unità LanD presso l’FBK, si concentra in modo appropriato sull’importante necessità di rendere Internet un luogo più sicuro e informativo. L’intenzione di Hatedemics è radicata nell’ideologia di plasmare la rete come una piattaforma improntata alla ricerca della verità e al rispetto reciproco.

Attraverso l’implementazione di questa piattaforma, avanzati strumenti di intelligenza artificiale consentiranno la rilevazione automatica dell’odio online e della disinformazione. Inoltre, analizzeranno il potenziale diffusione di tali contenuti e aiuteranno a costruire contro-narrazioni che incoraggino il dialogo. La piattaforma sarà in grado anche di valutare l’impatto di tali interventi per perfezionare e accelerare le risposte future, lavorando contemporaneamente per prevenire la diffusione di narrazioni razziste, xenofobe e intolleranti.

Sfide e controversie
Una delle sfide critiche legate all’uso dell’intelligenza artificiale per combattere l’odio online e la disinformazione è bilanciare la rimozione aggressiva dei contenuti dannosi con la salvaguardia della libertà di espressione. L’eccessiva censura può essere una preoccupazione, poiché l’IA potrebbe non comprendere appieno il contesto o le sfumature del linguaggio umano, portando alla rimozione di contenuti non genuinamente odiosi o fuorvianti. C’è anche la sfida di definire cosa costituisce l’odio online e la disinformazione, poiché tali definizioni possono variare per cultura e località.

Un’altra controversia riguarda il potenziale di parzialità negli algoritmi di intelligenza artificiale. Se i dati di addestramento usati per insegnare all’IA sono tendenziosi, l’IA potrebbe perpetuare tali parzialità nel suo funzionamento, prendendo di mira o censurando ingiustamente determinati gruppi o punti di vista.

Vantaggi e svantaggi
I vantaggi dell’utilizzo dell’IA contro l’odio online e la disinformazione includono un aumento dell’efficienza e della scalabilità. L’IA può analizzare grandi quantità di contenuti a una velocità impareggiabile rispetto ai moderatori umani. Può anche operare 24 ore su 24, assicurando una moderazione continua.

Gli svantaggi possono includere una ridotta accuratezza nel capire il contesto e la possibilità di falsi positivi, dove contenuti legittimi vengono segnalati come odiosi o fuorvianti. Potrebbero anche esserci preoccupazioni sulla privacy poiché gli strumenti di intelligenza artificiale spesso richiedono l’accesso e il trattamento di grandi quantità di dati personali.

Link correlati
Per ulteriori informazioni sui progressi tecnologici nella lotta contro l’odio online e la disinformazione, puoi visitare i seguenti siti:
– La strategia digitale della Commissione europea
– Il sito web ufficiale della Fondazione Bruno Kessler

Privacy policy
Contact