Ένα κρατικό ερευνητικό ίδρυμα πρόκειται να δημοσιεύσει οδηγίες τον Αύγουστο με στόχο την πρόληψη της διάδοσης παραπληροφόρησης που σχετίζεται με την εξάπλωση της τεχνητής νοημοσύνης (AI). Θα διατεθεί, επίσης, ένα εγχειρίδιο διαδικασίας για την έρευνα ελαττωμάτων της AI και ακατάλληλων δεδομένων από την οπτική γωνία της πιθανής κατάχρησης.
Ο κύριος στόχος αυτών των οδηγιών είναι να παρέχουν σαφήνεια σχετικά με το τι αποτελεί μια ασφαλή AI, επιτρέποντας στις επιχειρήσεις να χρησιμοποιούν με αυτοπεποίθηση τεχνολογίες AI. Το νεοσυσταθέν Ινστιτούτο Ασφάλειας της AI, υπό την καθοδήγηση της Διευθύντριας Ακίκο Μουρακάμι, τόνισε τη σημασία της ενεργοποίησης των εταιρειών και των τεχνολόγων να επικεντρωθούν στην καινοτομία ενώ αντιμετωπίζουν κινδύνους όπως η διάδοση παραπληροφόρησης και η διακριτική μεταχείριση στον τομέα της AI.
Ο Διευθυντής Μουρακάμι υπογράμμισε τη σημασία της συνεργασίας με ερευνητικά ιδρύματα στις Ηνωμένες Πολιτείες και στο Ηνωμένο Βασίλειο για τον εντοπισμό των κινδύνων που σχετίζονται με την AI σε περιβάλλοντα παραγωγής όπου η Ιαπωνία εξειδικεύεται. Οι συζητήσεις μεταξύ του κυβερνητικού και του ιδιωτικού τομέα βρίσκονται ακόμα στα πρώτα τους βήματα, γνωρίζοντας την ανάγκη για την πλοήγηση σε μέτρα ασφαλείας μέσα στις γρήγορες τεχνολογικές εξελίξεις χωρίς να εμποδίζουν την καινοτομία.