Οι εταιρείες Τεχνητής Νοημοσύνης καλούν τη Βρετανική Κυβέρνηση να βελτιώσει τις διαδικασίες ασφαλούς δοκιμής

Πολλές κορυφαίες εταιρείες Τεχνητής Νοημοσύνης, συμπεριλαμβανομένων των OpenAI, Google DeepMind, Microsoft και Meta, έχουν ζητήσει από τη Βρετανική κυβέρνηση να επιταχύνει τις διαδικασίες ασφάλειας δοκιμής για τα συστήματα Τεχνητής Νοημοσύνης. Αυτές οι εταιρείες έχουν συμφωνήσει να επιτρέψουν την αξιολόγηση των μοντέλων Τεχνητής Νοημοσύνης τους από τον προσφάτως ιδρυθέντα Ινστιτούτο AI Safety (AISI), αλλά έχουν εκφράσει ανησυχίες για τον τρέχοντα ρυθμό και τη διαφάνεια της διαδικασίας αξιολόγησης. Παρά την προθυμία των επιχειρήσεων να διορθώσουν οποιεσδήποτε αδυναμίες εντοπισθούν από το AISI, δεν υποχρεούνται να καθυστερήσουν ή να τροποποιήσουν την κυκλοφορία των τεχνολογιών τους βάσει των αποτελεσμάτων αξιολόγησης.

Ένα από τα κύρια σημεία διαφωνίας για τους προμηθευτές AI είναι η έλλειψη σαφήνειας σχετικά με τους πρωτόκολλους δοκιμών. Αναζητούν περισσότερες λεπτομερείς πληροφορίες για τις δοκιμές που διεξάγονται, τη διάρκεια της αξιολόγησης και τον μηχανισμό ανάδρασης. Επίσης, υπάρχει αβεβαιότητα σχετικά με το εάν οι δοκιμές πρέπει να επαναλαμβάνονται κάθε φορά που υπάρχει μια μικρή ενημέρωση στο μοντέλο της Τεχνητής Νοημοσύνης, μια απαίτηση που οι προγραμματιστές AI μπορεί να θεωρήσουν επιβαρυντική.

Οι ανησυχίες που εκφράζονται από αυτές τις εταιρείες είναι επιβεβλημένες εάν ληφθεί υπόψη η ασάφεια που περιβάλλει τη διαδικασία αξιολόγησης. Καθώς άλλες κυβερνήσεις σκέφτονται παρόμοιες αξιολογήσεις ασφάλειας AI, οποιαδήποτε τρέχουσα σύγχυση στις διαδικασίες του Ηνωμένου Βασιλείου θα ενταθεί μόνο όσο περισσότερες αρχές αρχίζουν να καταθέτουν παρόμοιες απαιτήσεις στους προγραμματιστές AI.

Σύμφωνα με την Financial Times, η Βρετανική κυβέρνηση ήδη ξεκίνησε τη δοκιμή των AI μοντέλων μέσω συνεργασίας με τους αντίστοιχους προγραμματιστές. Η δοκιμή περιλαμβάνει πρόσβαση σε εξελιγμένα μοντέλα AI για προδοκιμαστικές δοκιμές, ακόμα και για μη απελευθερωμένα μοντέλα όπως το Gemini Ultra της Google. Αυτή η πρωτοβουλία ήταν μία από τις κύριες συμφωνίες που υπέγραψαν οι εταιρείες στην Παγκόσμια Διάσκεψη Ασφάλειας AI που πραγματοποιήθηκε τον Νοέμβριο.

Είναι απαραίτητο η Βρετανική κυβέρνηση και άλλοι οργανισμοί να συνεργαστούν στενά με τις εταιρείες Τεχνητής Νοημοσύνης για τη θέσπιση σαφών, κανονιοποιημένων διαδικασιών ασφάλειας δοκιμών. Διαφανείς και αποδοτικές αξιολογήσεις θα βελτιώσουν όχι μόνο την εμπιστοσύνη στις τεχνολογίες Τεχνητής Νοημοσύνης, αλλά θα εξασφαλίσουν επίσης την υπεύθυνη εισαγωγή αυτών των συστημάτων σε διάφορους τομείς.

The source of the article is from the blog lanoticiadigital.com.ar

Privacy policy
Contact