Η Πολεμική του “Λεβάντα”: Οι Λειτουργίες του Ισραήλ με Τεχνητή Νοημοσύνη στη Γάζα

Με την υποστήριξη από τις Ηνωμένες Πολιτείες, οι Ενόπλες Δυνάμεις του Ισραήλ αναφέρεται πως χρησιμοποιούν ένα σύστημα τεχνητής νοημοσύνης με το όνομα “Lavender” για να πραγματοποιούν επιχειρήσεις εντός της Λωρίδας της Γάζας, βελτιώντας σημαντικά το εύρος των πρακτικών παρακολούθησης και κατεύθυνσης τους. Χρησιμοποιώντας αλγόριθμους μηχανικής μάθησης, το Lavender επεξεργάζεται ένα τεράστιο όγκο δεδομένων σχετικά με τους περίπου 2,3 εκατομμύρια κατοίκους της Γάζας, αναθέτοντας σε κάθε άτομο ένα βαθμό από 1 έως 100 ο οποίος τελικά επηρεάζει την προτεραιοποίησή τους ως στόχου.

Η λειτουργικότητα του Lavender βρίσκεται στο επίκεντρο μιας διχασμένης συζήτησης, καθώς ο αλγόριθμός του έχει εσφαλμένα ταυτοποιήσει χιλιάδες ανεξάρτητους πολίτες, σύμφωνα με τους λειτουργούς των ΕΔ του Ισραήλ. Αυτά τα άτομα κατηγοριοποιούνται τώρα κατά λάθος σε σχέση με ένοπλους μαχητές. Το Lavender χωρίζει περαιτέρω τους πιθανούς στόχους σε δύο κύριες ομάδες: ‘ανθρώπινοι στόχοι’, συνήθως αυτοί με κατάσταση διοίκησης, και ‘αχρείοι στόχοι’, που αναφέρονται σε στρατιώτες χαμηλού βαθμού. Η δεύτερη ομάδα συχνά συμμετέχει σε αδιατονοστοχαστικά πυραύλια που μπορούν να προκαλέσουν σημαντικές ζημιές περιουσίας και αναπόφευκτες θύματα αμάχων.

Το σύστημα λειτουργεί χωρίς την παρακολούθηση από ανθρώπους, οδηγώντας σε ένα πρότυπο αυτοματοποιημένων μαζικών επιθέσεων κατά των Παλαιστινίων στη Γάζα. Αυτή η προσέγγιση έχει προκαλέσει σημαντικές ηθικές ανησυχίες καθώς οι επιλεγμένοι στόχοι συχνά επιτίθενται στα σπίτια τους, κατά τη διάρκεια της νύχτας, δίπλα στις οικογένειές τους. Συνεπώς, αυτή η πρακτική μπορεί να έχει ως αποτέλεσμα πολλούς απροβλεπτους θανάτους, επίσης γνωστούς ως “συνοδικές ζημιές”.

Ο ισραηλινός δημοσιογράφος και ειρηνικός ακτιβιστής Yuval Abraham πραγματοποίησε εκ βάθους έρευνες για το Lavender, επισημαίνοντας τις σοβαρές επιπτώσεις αυτών των στρατηγικών που υποστηρίζονται από την τεχνητή νοημοσύνη. Ο Abraham αποκάλυψε ότι υψηλόβαθμοι αξιωματούχοι συχνά παραβλέπουν λεπτομερείς εξετάσεις των επιλεγμένων ατόμων, αποκρίνονται στις προτάσεις του συστήματος και αφήνουν τη διαδικασία επαλήθευσης στα χέρια ενός αλγορίθμου, ο οποίος μπορεί να παρουσιάζει σφάλματα.

Οι αναφορές που υπέγραψε ο Abraham υποστηρίζουν ότι οι ενέργειες που διευκολύνονται από το Lavender θα πρέπει να εξεταστούν από το Διεθνές Δικαστήριο Δικαιοσύνης, υποστηρίζοντας την κατηγορία του ως πιθανής κρατικής τρομοκρατίας και εγκλημάτων κατά της ανθρωπότητας. Καθώς η γραμμή μεταξύ αυτοματοποιημένου πολέμου και λογοδοτικών στρατιωτικών ενεργειών θολώνει, τα ηθικά προβλήματα της τεχνητής νοημοσύνης σε πολεμικές ζώνες όπως η Γάζα συνεχίζουν να προκαλούν κρίσιμη διεθνή συζήτηση.

Σημαντικές Ερωτήσεις και Απαντήσεις:

1. Ποιες είναι οι επιπτώσεις της χρήσης τεχνητής νοημοσύνης όπως το “Lavender” σε στρατιωτικές επιχειρήσεις;
Η χρήση της τεχνητής νοημοσύνης σε στρατιωτικές επιχειρήσεις θέτει σημαντικά ερωτήματα ηθικής, νομικής και ευθύνης. Συστήματα τεχνητής νοημοσύνης όπως το Lavender μπορούν να επεξεργάζονται τεράστιες ποσότητες δεδομένων για την εντοπισμό και την προτεραιοποίηση στόχων, αλλά μπορεί επίσης να κάνουν λάθη, με πιθανές συνέπειες την τραυματισμού ή τον θάνατο αμάχων ή την παραβίαση του διεθνούς δικαίου.

2. Πώς ο “Lavender” διακρίνει μεταξύ μαχητών και πολιτών;
Ο Lavender φαίνεται να αναθέτει έναν βαθμό σε άτομα, ενδεχομένως τα κατηγοριοποιεί σε ‘ανθρώπινους στόχους’ ή ‘αχρείους στόχους’. Ωστόσο, αυτή η κατηγοριοποίηση έχει οδηγήσει σε λάθη, όπου οι πολίτες φαίνεται ότι αναγνωρίζονται ως μαχητές, εκφράζοντας ανησυχίες σχετικά με την ακρίβεια και τον διαχωρισμό του αλγορίθμου.

3. Ποιες είναι οι βασικές προκλήσεις ή διαμάχες που συνδέονται με το “Lavender”;
Βασικές προκλήσεις περιλαμβάνουν τον κίνδυνο ταυτοποίησης πολιτών ως μαχητές, την έλλειψη ανθρώπινης επίβλεψης που οδηγεί σε αυτοματοποιημένες επιθέσεις χωρίς επαρκή επαλήθευση, καθώς και τις ηθικές ανησυχίες σχετικά με την αποπροσωποποίηση του πολέμου και τις πιθανές παραβιάσεις του διεθνούς δικαίου. Επιπλέον, η χρήση τέτοιων συστημάτων μπορεί να θεωρηθεί ως μορφή βίας που υποστηρίζεται από το κράτος αν προκαλέσουν θύματα αμάχους, θέτοντας ερωτήματα για τη συμμόρφωση με το διεθνές ανθρωπιστικό δίκαιο.

Πλεονεκτήματα και Μειονεκτήματα:

Πλεονεκτήματα:
– Αύξηση της αποδοτικότητας στην επεξεργασία δεδομένων και στην αναγνώριση πιθανών στόχων.
– Δυνατότητα συνεχούς λειτουργίας χωρίς κόπωση, αντίθετα με τους ανθρώπινους χειριστές.
– Μπορεί να προσφέρει στρατηγικό πλεονέκτημα με την άμεση προσαρμογή σε εξελισσόμενες καταστάσεις στον επίγειο χώρο.

Μειονεκτήματα:
– Κίνδυνος ταυτοποίησης πολιτών ως μαχητές, με την πιθανότητα αδικαιόλογης τραυματίσης ή

Privacy policy
Contact