Εταιρείες Τεχνητής Νοημοσύνης Υπερασπίζονται το Πνευματικό Δικαίωμα για την Εκπαίδευση Προηγμένων Μοντέλων

Οι εταιρείες τεχνητής νοημοσύνης αντιμετωπίζουν αυξανόμενη πίεση όσον αφορά τη χρήση πνευματικά δικαιοδοτημένου υλικού για την εκπαίδευση των προηγμένων τους μοντέλων. Η OpenAI, η εταιρεία πίσω από το επαναστατικό chatbot ChatGPT, έχει δηλώσει ότι η δημιουργία εργαλείων όπως το ChatGPT θα ήταν αδύνατη χωρίς πρόσβαση σε πνευματικά δικαιοδοτημένα δεδομένα. Η εταιρεία βρίσκεται σε μια αγωγή με τη New York Times και τη Microsoft, κατηγορώντας τους για “παράνομη χρήση” πνευματικά δικαιοδοτημένων έργων για τη δημιουργία των προϊόντων τους.

Μέσα από την υποβολή της στη Βουλή των Λόρδων, η OpenAI επισήμανε ότι ο νόμος περί πνευματικής ιδιοκτησίας επηρεάζει σχεδόν κάθε μορφή ανθρώπινης έκφρασης, καθιστώντας αναγκαία τη χρήση πνευματικά δικαιοδοτημένων υλικών κατά την εκπαίδευση των μοντέλων της τεχνητής νοημοσύνης. Η OpenAI ισχυρίστηκε ότι η περιοριστική χρήση των δεδομένων εκπαίδευσης μόνο σε έργα που δεν εμπίπτουν στα πνευματικά δικαιώματα θα οδηγήσει σε αναποτελεσματικά συστήματα τεχνητής νοημοσύνης που δεν ανταποκρίνονται στις ανάγκες των πολιτών σήμερα.

Η υπεράσπιση των εταιρειών τεχνητής νοημοσύνης αποτελεί ζήτημα της νομικής αρχής της “δίκαιης χρήσης”, που επιτρέπει τη χρήση πνευματικού περιεχομένου υπό συγκεκριμένες περιστάσεις χωρίς την ανάγκη για άδεια από τον κάτοχο. Η OpenAI υποστηρίζει ότι ο νόμος περί πνευματικής ιδιοκτησίας δεν απαγορεύει την εκπαίδευση των μοντέλων της.

Αυτό το ζήτημα ξεπερνάει την OpenAI. Η Getty Images, για παράδειγμα, μήνυσε τη Stability AI, τον δημιουργό του Stable Diffusion, για παραβάσεις πνευματικών δικαιωμάτων. Στις Ηνωμένες Πολιτείες, εκδοτικές εταιρείες όπως η Universal Music μηνύουν την Anthropic, την εταιρεία υποστηριζόμενη από την Amazon που βρίσκεται πίσω από τον chatbot Claude, κατηγορώντας τη για κατάχρηση πνευματικών στίχων τραγουδιών για την εκπαίδευση του μοντέλου της.

Σε μια εποχή ανησυχιών για την ασφάλεια της τεχνητής νοημοσύνης, η OpenAI έχει εκφράσει την υποστήριξή της για ανεξάρτητη ανάλυση των μέτρων ασφαλείας της. Η εταιρεία υποστηρίζει το “red-teaming”, όπου ερευνητές από τρίτα μέρη προσομοιώνουν τη συμπεριφορά των κακόβουλων προσώπων για να δοκιμάσουν την ασφάλεια των συστημάτων τεχνητής νοημοσύνης.

Οι εταιρείες τεχνητής νοημοσύνης, συμπεριλαμβανομένης της OpenAI, έχουν επίσης συμφωνήσει να συνεργαστούν με τις κυβερνήσεις για τη δοκιμή της ασφάλειας των πλέον ισχυρών τους μοντέλων πριν και μετά την εγκατάστασή τους, ακολουθώντας μια συμφωνία που επιτεύχθηκε σε παγκόσμια διάσκεψη ασφάλειας που πραγματοποιήθηκε στο Ηνωμένο Βασίλειο το προηγούμενο έτος.

The source of the article is from the blog guambia.com.uy

Privacy policy
Contact