Προσπάθειες Ρυθμιστικών Διακυβερνητικών Νοημοσύνης για τη Διατήρηση της Ακεραιότητας των Εκλογών

Η επιτάχυνση των εξελίξεων στην τεχνολογία της τεχνητής νοημοσύνης (AI) έχει φέρει στο φως εργαλεία που μπορούν να πείσουν αλλά και να παρακάμψουν πειστικά το περιεχόμενο χωρίς ανθρώπινη παρέμβαση, χρησιμοποιώντας προηγμένους αλγόριθμους. Από στοχευμένο περιεχόμενο που καλύπτει συγκεκριμένες ομάδες στόχου με μηνύματα που έχουν σχεδιαστεί με ακρίβεια, μέχρι εντελώς φανταστικές εικόνες, ηχογραφήσεις και βίντεο, ο γραμμικός διαχωρισμός μεταξύ αληθούς και ψευδούς θολώνει ολοένα και περισσότερο.

Μέσα στα πλεονεκτήματα της AI, η δυνατότητά της για απάτη αντιπροσωπεύει μια σοβαρή απειλή. Το γραφείο δικηγόρων Weinberger και συνεργάτες, εξειδικευμένο στην τεχνολογία AI, φέρνει στο φως πρωτοποριακή νομοθεσία ρύθμισης που στοχεύει στην προστασία μας από την πιθανή παρανομία που μπορεί να προκύψει από αυτήν τη διαδεδομένη τεχνολογία. Το στόχος του προτεινόμενου νόμου είναι να εξετάσει τόσο τις ευκαιρίες όσο και τις προκλήσεις που παρουσιάζει η AI, ιδιαίτερα όσον αφορά τις επερχόμενες εκλογές.

Η δύναμη της AI να σχεδιάζει τη συνείδηση και να επηρεάζει σημαντικά τη δημόσια γνώμη και πεποιθήσεις δικαιολογεί τον ρυθμιστικό έλεγχο. Με την ικανότητά της να συγχωνεύει βίντεο, εικόνες και ήχο μέχρι το σημείο της αδιαγνωσίας, αυτές οι τεχνολογίες μπορούν να υποστηρίξουν ή να καταστρέψουν υποψήφιους εκλογές δημιουργώντας φανταστικές ομιλίες, γεγονότα ή εικόνες.

Η περίπτωση του Michal Šimečka, ηγέτη του προοδευτικού κόμματος στη Σλοβακία που έχασε την επιρροή του μετά το νόθο AI-δημιουργημένο ηχογράφημα που φαινόταν να τον απεικονίζει να προσπαθεί να δωροδοκήσει δημοσιογράφο αναδεικνύει αυτόν τον κίνδυνο. Το κακό είχε καταστραφεί παρά τις αργότερες αποκαλύψεις για τη ψευδή φύση της ηχογράφησης.

Για να αντιμετωπίσουμε την διάδοση των λεγόμενων “deep fakes” και των ψευδών ειδήσεων, υπάρχει μια επείγουσα ανάγκη για ρύθμιση – για να περιοριστούν οι απειλές για την ελευθερία της επιλογής μας και η ικανότητα του κοινού να πάρει αποφάσεις βασισμένες σε αξιόπιστες πληροφορίες.

Προς αυτόν το σκοπό, οι Weinberger, Bartental και συνεργάτες έχουν εκπονήσει έναν ιστορικό νόμο. Αυτός ο νόμος απαιτεί την ρητή αποκάλυψη της χρήσης της τεχνητής νοημοσύνης στο υλικό προεκλογικής εκστρατείας, συμπεριλαμβανομένων των μεθόδων χρήσης. Απαγορεύει τη χρήση της AI για τη διαστρέβλωση, την επεξεργασία ή τη δημιουργία περιεχομένου προεκλογικής εκστρατείας χωρίς αποκάλυψη, καθιστώντας υψηλές τιμές και ποινικές διαδικασίες για παραβάσεις. Η προτεινόμενη νομοθεσία καθορίζει επίσης: “Κανένα άτομο δεν πρέπει να δημοσιεύσει διαφήμιση/ανάρτηση/βίντεο εκλογικής εκστρατείας που περιέχει περιεχόμενο που δημιουργήθηκε ή τροποποιήθηκε από τεχνητή νοημοσύνη χωρίς να περιλαμβάνει μια σαφή και κατανοητή δήλωση χρήσης AI, καθώς επίσης και ένα λογότυπο.” Ο δικηγόρος Yanor Bartental από το γραφείο επιμένει: “Τώρα είναι η ώρα να αναπτύξουμε εργαλεία που θα προστατεύσουν την ικανότητά μας να επιλέγουμε και να εμποδίζουμε την παρεμβολή στις σκέψεις μας, τα συμπεράσματα και τις δημόσιες εκλογές μας από τέτοιες ξένες επιρροές. Καθώς η AI γεμίζει όλη μας τη ζωή, πρέπει να εξελιχθούμε με την πρόοδο και να προσαρμόσουμε τα νομικά μας συστήματα στη νέα πραγματικότητα.”

Σχετικά Στοιχεία
– Η Τεχνητή Νοημοσύνη μπορεί να δημιουργήσει τα λεγόμενα “deepfakes”, τα οποία είναι πειστικά ακουστικοαναληπτικά μέσα που μπορούν να παραποιούν την πραγματικότητα και ενδεχομένως να επηρεάσουν τη δημόσια γνώμη, ειδικά κατά τη διάρκεια των εκλογών.
– Υπάρχουν νομικά μέτρα που εξετάζονται παγκοσμίως, με διαφορετικά είδη εφαρμογών. Για παράδειγμα, η προτεινόμενη Νομοθεσία για την Τεχνητή Νοημοσύνη της ΕΕ περιλαμβάνει διατάξεις για την αντιμετώπιση των συστημάτων AI με βάση το επίπεδο κινδύνου τους, το οποίο μπορεί να εμπεριέχει τεχνολογίες AI που σχετίζονται με εκλογές.
– Οι ΗΠΑ έχουν δει ενέργειες όπως η προτεινόμενη Νομοθεσία DEEP FAKES Accountability που προτείνεται στο Κογρέσο, με στόχο τον περιορισμό των δυσμενών επιπτώσεων της τεχνολογίας deepfake με απαίτηση επισήμανσης και προσφορά κυρώσεων για εκείνους που υπέφεραν.
– Οι πλατφόρμες κοινωνικών μέσων, όπως το Facebook και το Twitter, έχουν τις δικές τους πολιτικές και εργαλεία ανίχνευσης της τεχνολογίας AI για την αναγνώριση και τη σημείωση ή την αφαίρεση παραπλανητικού περιεχομένου, συμπεριλαμβανομένων των deepfakes, αν και αυτές οι μέθοδοι δεν είναι αδιάβροχες.

Σημαντικές Ερωτήσεις και Απαντήσεις
Ποιο είναι το κύριο στόχο των προτεινόμενων προσπαθειών ρύθμισης της AI;
Ο κύριος στόχος είναι η διατήρηση της εγκυρότητας των εκλογών εξασφαλίζοντας ότι τα εκλογικά υλικά που χρησιμοποιούν AI, ειδικά για τη δημιουργία ή τροποποίηση περιεχομένου, αποκαλύπτονται ρητά, επιτρέποντας έτσι στο κοινό να κάνει ενημερωμένες αποφάσεις.

Ποιες είναι οι προκλήσεις στη ρύθμιση της AI στο πλαίσιο των εκλογών;</

Privacy policy
Contact