Ο Ανοδος των Ηθικά Συνειδητών Chatbots: Το Goody-2 Πηγαίνει σε Ακραία Επίπεδα Ασφαλείας της Τεχνητής Νοημοσύνης

Καθώς οι δυνατότητες των συστημάτων τεχνητής νοημοσύνης που βασίζονται στη γενετική εμπνευσμένη τεχνητή νοημοσύνη, όπως το ChatGPT, συνεχίζουν να επεκτείνονται, η ανάγκη για βελτιωμένα χαρακτηριστικά ασφαλείας έχει γίνει όλο και πιο επείγουσα. Ωστόσο, ενώ τα chatbots μπορούν να μειώσουν τους πιθανούς κινδύνους, οι άκαμπτες και μερικές φορές ιεροπρεπείς απαντήσεις τους έχουν προκαλέσει κριτική. Η εισαγωγή του Goody-2, ενός νέου chatbot, επαναστατεί στα πρωτόκολλα ασφαλείας AI, απορρίπτοντας κάθε αίτημα και εξηγώντας πώς η ικανοποίησή τους θα μπορούσε να προκαλέσει βλάβη ή ηθικές παραβιάσεις.

Η αφοσίωση του Goody-2 στις ηθικές κατευθυντήριες γραμμές είναι φανερή στις αλληλεπιδράσεις του. Για παράδειγμα, όταν το WIRED ζήτησε από το chatbot να γεννήσει ένα δοκίμιο για την Αμερικανική Επανάσταση, αυτό αρνήθηκε, αναφέροντας τον πιθανό κίνδυνο εσφαλμένης δόξας του πολέμου και της αποκλεισμένης φωνής ορισμένων ατόμων. Ακόμη και όταν ρωτήθηκε γιατί ο ουρανός είναι μπλε, το Goody-2 απέφυγε να απαντήσει, φοβούμενο ότι θα μπορούσε να οδηγήσει κάποιον να κοιτάξει απευθείας τον ήλιο. Το chatbot προειδοποίησε ακόμη και για την παροχή συστάσεων για νέα μπότες, προειδοποιώντας για την πιθανότητα υπερκατανάλωσης και την προσβολή ορισμένων ανθρώπων με βάση τις προτιμήσεις τους στη μόδα.

Ενώ οι υπεροπτικές απαντήσεις του Goody-2 μπορεί να φαίνονται παράλογες, φωτίζουν τον εκνευρισμό που αισθάνονται όταν τα chatbots όπως το ChatGPT και το Gemini της Google εκτιμούν παρακανόντας μια ερώτηση ως παραβίαση κανόνων. Ο δημιουργός του Goody-2, ο καλλιτέχνης Mike Lacher, επισημαίνει ότι το chatbot αποτελεί παράδειγμα της αμετακίνητης δέσμευσης της βιομηχανίας της τεχνητής νοημοσύνης στην ασφάλεια. Ο Lacher εξηγεί ότι με σκοπό να υπογραμμίσει τις προκλήσεις στον καθορισμό της ευθύνης εντός των μοντέλων τεχνητής νοημοσύνης, επιτεθήκαν σκόπιμα το ύφος της υπεροψίας.

Πράγματι, το Goody-2 λειτουργεί ως ένα σημαντικό υπενθύμισμα ότι, παρά τα ευρέως διαδεδομένα επιχειρησιακά λόγια για την υπεύθυνη τεχνητή νοημοσύνη, υπάρχουν σημαντικές ανησυχίες ασφαλείας στα μεγάλα μοντέλα γλώσσας και συστήματα γενετικής τεχνητής νοημοσύνης. Η πρόσφατη εξάπλωση deepfakes της Taylor Swift στο Twitter, που προήλθε από έναν γεννήτορα εικόνας που αναπτύχθηκε από τη Microsoft, τονίζει την επείγουσα ανάγκη αντιμετώπισης αυτών των ζητημάτων.

Οι περιορισμοί που επιβάλλονται στους chatbots AI και η πρόκληση της επίτευξης ηθικής ευθυγράμμισης έχουν προκαλέσει διαφωνίες στον τομέα. Ορισμένοι προγραμματιστές κατηγορούν το ChatGPT του OpenAI για πολιτική προκατάληψη και προσπαθούν να δημιουργήσουν πολιτικά ουδέτερες εναλλακτικές λύσεις. Ο Elon Musk, για παράδειγμα, δήλωσε ότι ο αντίπαλός του chatbot, ο Grok, θα διατηρήσει την αμεροληψία, ωστόσο, συχνά αμφισβητεί κατά τρόπο παρόμοιο με τον Goody-2.

Παρόλο που το Goody-2 είναι κυρίως μια διασκεδαστική επιχείρηση, προσελκύει την προσοχή στη δυσκολία επίτευξης της σωστής ισορροπίας στα μοντέλα AI. Το chatbot έχει συγκεντρώσει θετικά σχόλια από πολλούς ερευνητές AI που εκτιμούν το χιούμορ του έργου και κατανοούν την ενδόμυχη σημασία του. Ωστόσο, οι διάφορες απόψεις εντός της κοινότητας της τεχνητ

The source of the article is from the blog regiozottegem.be

Privacy policy
Contact