Η Πραγματικότητα του Πολέμου Τεχνητής Νοημοσύνης: Αποκάλυψη των Απροσδόκητων Συνεπειών

Η πρόσφατη χρήση ενός συστήματος τεχνητής νοημοσύνης (AI) από τον ισραηλινό στρατό για τη δημιουργία λιστών στόχων για πιθανές αεροπορικές επιδρομές στη Γάζα έχει φέρει την προσοχή στις επιπτώσεις της στρατιωτικής AI. Σύμφωνα με έκθεση που δημοσιεύθηκε από τη μη κερδοσκοπική εκδοτική εταιρεία +972 Magazine, το σύστημα με την ονομασία Lavender χρησιμοποιήθηκε σε συνδυασμό με άλλα συστήματα AI για την εντοπισμό και εξόντωση ύποπτων μαχητών, με αποτέλεσμα σημαντικά πολιτικά θύματα.

Αν και η Άμυνα του Ισραήλ αρνείται πολλές από τις κατηγορίες της έκθεσης, δηλώνοντας ότι το Lavender δεν είναι ένα σύστημα AI αλλά μια βάση δεδομένων για την αναφορά διασταυρωμένων πληροφοριών, άλλες πηγές επιβεβαιώνουν τη χρήση της AI σε ισραηλινές στρατιωτικές επιχειρήσεις. Το 2021, το Jerusalem Post ανέφερε ότι το Ισραήλ είχε χρησιμοποιήσει συστήματα μηχανικής μάθησης για την εντοπισμό στόχων κατά τη διάρκεια συγκρούσεων με τη Χαμάς. Επιπλέον, ένα σύστημα AI με την ονομασία Habsora αναφέρθηκε σε προηγούμενη έκθεση του +972, το οποίο εντοπίζει αυτόματα πιθανά κτήρια μαχητών και εγκαταστάσεις για βομβαρδισμό.

Το δυνητικό της AI στον τομέα της στρατιωτικής δράσης δεν περιορίζεται μόνο στο Ισραήλ. Χώρες όπως οι Ηνωμένες Πολιτείες και η Κίνα επενδύουν επίσης σε συστήματα AI για στρατιωτικούς σκοπούς. Οι υποστηρικτές υποστηρίζουν ότι η AI μπορεί να οδηγήσει σε ταχύτερη λήψη αποφάσεων, μεγαλύτερη ακρίβεια και μείωση των θυμάτων. Ωστόσο, υπάρχουν ανησυχίες για την έλλειψη ανθρώπινης επίβλεψης και τη δυνατότητα σφαλμάτων σε στόχους που παράγονται από την AI.

Η πρόσφατη έκθεση του +972 ισχυρίζεται ότι το Lavender αυτοματοποιεί τη διαδικασία εντοπισμού στόχων αλλά μπορεί να έχει χαμηλότερα κριτήρια και πιο χαμηλά επίπεδα αποδεικτικών στοιχείων, με αποτέλεσμα σφάλματα σε περίπου 10% των περιπτώσεων. Η έκθεση υποδεικνύει επίσης ότι οι στόχοι βομβαρδίζονται στα σπίτια τους ως πρώτη επιλογή, με αποτέλεσμα την εμφάνιση πολιτικών θυμάτων.

Ηθικές και νομικές ανησυχίες γύρω από τη στρατιωτική AI έχουν παραμείνει σχεδόν απαρατήρητες. Αυτή τη στιγμή, δεν υπάρχουν καθόλου αναγνωρισμένοι ή νομικά δεσμευτικοί κανόνες που να ελέγχουν τη χρήση της. Ωστόσο, έχουν υπάρξει κάποιες εξελίξεις στην αντιμετώπιση αυτών των ανησυχιών. Οι Ηνωμένες Εθνικές συζητούν για τη χρήση “θανάσιμων αυτόνομων συστημάτων όπλων” εδώ και περίπου δεκαετία, και η Γενική Συνέλευση του ΟΗΕ ψήφισε πρόσφατα υπέρ μιας κοινοβουλευτικής ψηφοφορίας που δηλώνει ότι οι αλγόριθμοι δεν πρέπει να ελέγχουν πλήρως τις αποφάσεις που σχετίζονται με τον θάνατο. Η ΗΠΑ έχει επίσης δημοσιεύσει μια δήλωση για την ευθύνη στρατιωτικής χρήσης AI και αυτονομίας, η οποία έχει λάβει τη στήριξη από πολλές χώρες.

Παρά τις προσπάθειες αυτές, οι διεθνείς κανονισμοί για τη χρήση της στρατιωτικής AI βρίσκονται σε δυσκολία να συμβαδίσουν με τη γρήγορη εξέλιξη της τεχνολογίας. Με τις στρατιωτικές δυνάμεις σε όλο τον κόσμο να υιοθετούν συστήματα AI για τον πόλεμο, οι απροσδόκητες συνέπειες και οι δυνητικές ανθρωπιστικές ζημίες γίνονται πιο εμφανείς.

Η υπόσχεση της ακριβούς επιδρομής που διευκολύνεται από την AI δεν έχει ακόμη πλήρως υλοποιηθεί. Οι αναφορές για τη χρήση συστημάτων AI στη Γάζα δείχνουν τους περιορισμούς και τις απροσδόκητες συνέπειες της εξάρτησης αποκλειστικά από αλγόριθμους για τις αποφάσεις σχετικά με τους στόχους. Είναι ζωτικό να αντιμετωπιστούν τα ηθικά και ηθικά διλήμματα που σχετίζονται με τη στρατιωτική AI, εξασφαλίζοντας ότι η ανθρώπινη επίβλεψη και οι διεθνείς κανονισμοί θα καθιερωθούν για να αποτρέψουν την κατάχρηση αυτής της ισχυρής τεχνολογίας.

FAQ

1. Τι είναι το Lavender;
Το Lavender είναι ένα σύστημα τεχνητής νοημοσύνης (AI) που χρησιμοποιείται από τον ισραηλινό στρατό για τη δημιουργία λιστών στόχων για πιθανές αεροπορικές επιδρομές στη Γάζα.

2. Η χρήση της AI στον στρατό περιορίζεται στο Ισραήλ;
Όχι, και άλλες χώρες όπως οι Ηνωμένες Πολιτείες και η Κίνα επενδύουν σε συστήματα AI για στρατιωτικούς σκοπούς.

3. Ποιες είναι οι ανησυχίες που αφορούν τη στρατιωτική AI;
Υπάρχουν ανησυχίες για την έλλειψη ανθρώπινης επίβλεψης, τη δυνατότητα σφαλμάτων σε στόχους που δημιουργούνται από την AI, καθώς και για τις ηθικές και ηθικές επιπτώσεις της χρήσης συστημάτων AI στον πόλεμο.

4. Υπάρχουν διεθνείς κανονισμοί που διέπουν τη χρήση της στρατιωτικής AI;
Αυτή τη στιγμή, δεν υπάρχουν σαφείς, αναγνωρισμένοι και νομικά δεσμευτικοί κανόνες για τη στρατιωτική AI. Προσπαθείες γίνονται από τα Ηνωμένα Έθνη και μερικές χώρες για να αντιμετωπίσουν αυτές τις ανησυχίες.

5. Ποιες είναι οι απρόσμενες συνέπειες της εξάρτησης από την AI για αποφάσεις σχετικά με τους στόχους;
Οι αναφορές δείχνουν ότι η χρήση συστημάτων AI για αποφάσεις σχετι

The source of the article is from the blog be3.sk

Privacy policy
Contact