Στη σημερινή εποχή, πολλοί οργανισμοί και χώρες παγκοσμίως καταβάλλουν προσπάθειες για την ανάπτυξη νομικών πλαισίων και ηθικής για τη διαχείριση, τον έλεγχο και την προώθηση της υπεύθυνης τεχνητής νοημοσύνης. Η παγκόσμια κοινότητα είναι αρκετά ενωμένη στις βασικές αρχές που καθοδηγούν την υπεύθυνη τεχνητή νοημοσύνη, επισημαίνοντας το καθήκον της τεχνολογίας να εξυπηρετεί τους ανθρώπους χωρίς να προκαλεί βλάβη, συμμόρφωση με τους στόχους σχεδιασμού, ασφάλεια, ασφάλεια, ισότητα, δικαιοσύνη, προστασία δεδομένων, προστασία δικαιωμάτων δημιουργού, διαφάνεια και εξηγησιμότητα.
Το Υπουργείο Επιστήμης και Τεχνολογίας εξέδωσε απόφαση αριθμ. 1290/QD-BKHCN τον Ιούνιο του 2024, παρέχοντας καθοδήγηση σε διάφορες αρχές για την έρευνα και ανάπτυξη υπεύθυνων συστημάτων τεχνητής νοημοσύνης. Ο στόχος είναι να χτιστεί μια κοινωνία που εστιάζει στους ανθρώπους, εξασφαλίζοντας ότι οι άνθρωποι επωφελούνται από τα συστήματα τεχνητής νοημοσύνης ενώ διατηρούν μια ισορροπημένη σχέση μεταξύ των οφελών και των κινδύνων των συστημάτων.
Το έγγραφο περιγράφει εννέα αρχές για την έρευνα και ανάπτυξη υπεύθυνων συστημάτων τεχνητής νοημοσύνης, επισημαίνοντας το κοινωνικό πνεύμα, την καινοτομία, τη διαφάνεια, τον έλεγχο, την ασφάλεια, την ασφάλεια, το απόρρητο, τον σεβασμό των ανθρώπινων δικαιωμάτων και της αξιοπρέπειας, την υποστήριξη του χρήστη και την ευθύνη στις εξηγήσεις.