Τεχνολογία Τεχνητής Νοημοσύνης και Εξτρεμισμός: Κίνδυνοι και Προκλήσεις

Η τεχνητή νοημοσύνη (AI) χρησιμοποιείται όλο και συχνότερα όχι μόνο για θετικές εφαρμογές, αλλά και από εξτρεμιστικά στρατεύματα για δόλιους σκοπούς. Ενώ το ακριβές μέγεθος της υλοποίησης της AI παραμένει αβέβαιο, οι ενδεχόμενες επιπτώσεις είναι ανησυχητικές.

Ο Stephen Stalinski, διευθυντής ερευνών μέσων ενημέρωσης, εξέφρασε ανησυχία για το ενδεχόμενο χρήσης της AI από τρομοκρατικές οργανώσεις. Υπογράμμισε τη γρήγορη υιοθέτηση νέων τεχνολογιών από ομάδες όπως ο ISIS και εικάστηκε για τη δημιουργία τμημάτων μέσων ενημέρωσης με χρήση της AI. Πρόσφατες συνεργασίες μεταξύ συνδεδεμένων με την Αλ Κάιντα για διαδικτυακά εργαστήρια σχετικά με την πληροφορική ενισχύουν ακόμα περισσότερο την αυξανόμενη διασταύρωση της τεχνολογίας και του εξτρεμισμού.

Ο Stalinski τόνισε τις προκλήσεις που αντιμετωπίζει από πλατφόρμες όπως το Telegram και το Rocket.Chat σε θέματα διαχείρισης περιεχομένου. Η ταχεία δημιουργία εξτρεμιστικού περιεχομένου μέσω της AI δυσκολεύει τις προσπάθειες των ρυθμιστικών αρχών και των υπηρεσιών καταπολέμησης της τρομοκρατίας στην αναγνώριση και την αφαίρεση επιβλαβών υλικών.

Παρότι εταιρίες όπως το Rocket.Chat, γνωστές για την ανοιχτή πηγή τους, αντιμετωπίζουν δυσκολίες στην αφαίρεση περιεχομένου λόγω της κρυπτογράφησης μηνυμάτων. Με πλατφόρμες όπως το Telegram να μην ανταποκρίνονται στις ερωτήσεις σχετικά με τη διαχείριση περιεχομένου, η εργασία για την καταπολέμηση της εξτρεμιστικής προπαγάνδας γίνεται ακόμα πιο πολύπλοκη.

Εμφανίζονται διαφωνίες στους εξτρεμιστικούς κύκλους σχετικά με τη χρήση περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη και περιλαμβάνει απαγορευμένες εικόνες προσώπων. Οι πρωτοβουλίες για την απόκρυψη των προσώπων σε βίντεο, μετά από συμβουλές από θρησκευτικές αρχές, υπογραμμίζουν τα ηθικά διλήμματα που συνοδεύουν τις τεχνολογικές εξελίξεις και της εξτρεμιστικές αφηγήσεις.

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact