Cyborg
Cyborg #30 - 06/2024

#30 - 06/2024

Στο προηγούμενο τεύχος κάναμε ένα μικρό αφιέρωμα στην “αυτοματοποίηση” των δολοφονιών των Παλαιστινίων στη Γάζα... Επανερχόμαστε με την παρουσίαση ενός “καινούργιου αυτοματισμού”, ενός αυτοματισμού δολοφονιών που ξεπερνάει τις ηθικές αντοχές οποιουδήποτε κανονικού ανθρώπου... Το σημαντικό εδώ είναι ότι μιλάνε (και λίγο πολύ καμαρώνουν) οι χειριστές αυτής της “τεχνητής νοημοσύνης”, μέλη του στρατού του απαρτχάιντ καθεστώτος. Αποδεικνύοντας ότι ο φασισμός παραμένει ανθρώπινο χαρακτηριστικό...
Στη δεύτερη αναφορά που ακολουθεί είναι η διαβόητη αμερικανική Palantir που συνυπογράφει τον κανιβαλισμό στη Γάζα.
(Το +972 magazine είναι ένα αγγλόφωνο site αντιπληροφόρησης στο οποίο συμμετέχουν άραβες / παλαιστίνιοι και ισραηλινοί αντιεθνικιστές. Το Local Call είναι ένα site ανάλογης θέσης, στα εβραϊκά).

Lavender: Η μηχανή τεχνητής νοημοσύνης που κατευθύνει τους βομβαρδισμούς του Ισραήλ στη Γάζα

 

Cyborg #30

Το 2021, ένα βιβλίο με τίτλο «The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World» κυκλοφόρησε στα αγγλικά με το ψευδώνυμο «Brigadier General Y.S» Σε αυτό, ο συγγραφέας - ένας άνθρωπος που επιβεβαιώσαμε ότι είναι ο σημερινός διοικητής της επίλεκτης ισραηλινής μονάδας πληροφοριών 8200 - κάνει λόγο για τον σχεδιασμό μιας ειδικής μηχανής που θα μπορούσε να επεξεργάζεται γρήγορα τεράστιες ποσότητες δεδομένων για να δημιουργήσει χιλιάδες πιθανούς «στόχους» για στρατιωτικά πλήγματα εν μέσω πολέμου. Μια τέτοια τεχνολογία, γράφει, θα έλυνε αυτό που περιγράφει ως «ανθρώπινη συμφόρηση τόσο για τον εντοπισμό των νέων στόχων όσο και για τη λήψη αποφάσεων για την έγκριση των στόχων».

Μια τέτοια μηχανή, όπως αποδεικνύεται, υπάρχει στην πραγματικότητα. Μια νέα έρευνα του περιοδικού +972 και του Local Call αποκαλύπτει ότι ο ισραηλινός στρατός έχει αναπτύξει ένα πρόγραμμα βασισμένο στην τεχνητή νοημοσύνη, γνωστό ως Lavender [Λεβάντα], το οποίο παρουσιάζεται εδώ για πρώτη φορά. Σύμφωνα με έξι αξιωματικούς των ισραηλινών μυστικών υπηρεσιών, οι οποίοι υπηρέτησαν όλοι στο στρατό κατά τη διάρκεια του τρέχοντος πολέμου στη Λωρίδα της Γάζας και είχαν άμεση εμπλοκή με τη χρήση της τεχνητής νοημοσύνης για τη δημιουργία στόχων προς δολοφονία, το Lavender έπαιξε κεντρικό ρόλο στους πρωτοφανείς βομβαρδισμούς Παλαιστινίων, ιδίως κατά τα πρώτα στάδια του πολέμου. Μάλιστα, σύμφωνα με τις πηγές, η επιρροή του στις επιχειρήσεις του στρατού ήταν τέτοια που ουσιαστικά αντιμετώπιζαν τα αποτελέσματα της μηχανής τεχνητής νοημοσύνης «σαν να επρόκειτο για ανθρώπινη απόφαση».

Επισήμως, το σύστημα Lavender έχει σχεδιαστεί για να εντοπίζει όλους τους ύποπτους των στρατιωτικών πτερύγων της Χαμάς και της Παλαιστινιακής Ισλαμικής Τζιχάντ (PIJ), συμπεριλαμβανομένων των χαμηλόβαθμων, ως πιθανούς στόχους βομβιστικών επιθέσεων. Οι πηγές δήλωσαν στο +972 και στο Local Call ότι, κατά τη διάρκεια των πρώτων εβδομάδων του πολέμου, ο στρατός βασίστηκε σχεδόν εξ ολοκλήρου στο Lavender, το οποίο κατέγραψε έως και 37.000 Παλαιστίνιους ως ύποπτους μαχητές - και τα σπίτια τους - για πιθανές αεροπορικές επιδρομές.

Κατά τα πρώτα στάδια του πολέμου, ο στρατός έδωσε γενική και προκαταβολική έγκριση στους αξιωματικούς να υιοθετήσουν τις λίστες δολοφονιών του Lavender, χωρίς να απαιτείται να ελεγχθεί διεξοδικά γιατί η μηχανή έκανε αυτές τις επιλογές ή να εξεταστούν τα ακατέργαστα δεδομένα πληροφοριών στα οποία βασίζονταν. Μια πηγή δήλωσε ότι το ανθρώπινο προσωπικό συχνά χρησίμευε μόνο ως «σφραγίδα» για τις αποφάσεις της μηχανής, προσθέτοντας ότι, κανονικά, αφιέρωναν προσωπικά μόνο «20 δευτερόλεπτα» περίπου σε κάθε στόχο πριν εγκρίνουν έναν βομβαρδισμό - μόνο και μόνο για να βεβαιωθούν ότι ο στόχος που είχε επισημανθεί από το Lavender ήταν άνδρας. Αυτό συνέβαινε παρά το γεγονός ότι γνώριζαν ότι το σύστημα κάνει αυτά που θεωρούνται «λάθη» σε περίπου 10% των περιπτώσεων, και είναι γνωστό ότι κατά καιρούς στοχοποιεί άτομα που έχουν απλώς μια χαλαρή σύνδεση με μαχητικές ομάδες, ή καμία σύνδεση.

Επιπλέον, ο ισραηλινός στρατός έκανε συστηματικά επιθέσεις στα άτομα που στοχοποιήθηκαν ενώ βρίσκονταν στα σπίτια τους - συνήθως τη νύχτα, ενώ ήταν παρούσες οι οικογένειές τους - και όχι κατά τη διάρκεια στρατιωτικής δραστηριότητας. Σύμφωνα με τις πηγές, αυτό συνέβαινε επειδή, με βάση αυτό που θεωρούσαν σωστή προσέγγιση από την άποψη των πληροφοριών, ήταν ευκολότερο να εντοπιστούν τα άτομα στα ιδιωτικά τους σπίτια. Πρόσθετα αυτοματοποιημένα συστήματα, συμπεριλαμβανομένου ενός με την ονομασία «Where’s Daddy?» που επίσης αποκαλύπτεται εδώ για πρώτη φορά, χρησιμοποιήθηκαν ειδικά για τον εντοπισμό των στοχευμένων ατόμων και την πραγματοποίηση βομβιστικών επιθέσεων όταν αυτοί είχαν μπει στις κατοικίες των οικογενειών τους.

Το αποτέλεσμα, όπως κατέθεσαν οι πηγές, είναι ότι χιλιάδες Παλαιστίνιοι -οι περισσότεροι από αυτούς γυναίκες και παιδιά ή άνθρωποι που δεν συμμετείχαν στις μάχες- εξοντώθηκαν από τις ισραηλινές αεροπορικές επιδρομές, ιδίως κατά τις πρώτες εβδομάδες του πολέμου, εξαιτίας των αποφάσεων του προγράμματος AI.

«Δεν μας ενδιέφερε να σκοτώνουμε στελέχη της Χαμάς μόνο όταν βρίσκονταν σε ένα στρατιωτικό κτίριο ή συμμετείχαν σε μια στρατιωτική δραστηριότητα», δήλωσε ο Α, αξιωματικός των μυστικών υπηρεσιών, στο +972 και στο Local Call. «Αντιθέτως, οι IDF τους βομβάρδιζαν σε σπίτια χωρίς δισταγμό, ως πρώτη επιλογή. Είναι πολύ πιο εύκολο να βομβαρδίζεις το σπίτι μιας οικογένειας. Το σύστημα είναι φτιαγμένο για να τους ψάχνει με τέτοιο τρόπο».

Η μηχανή Lavender έρχεται να προστεθεί σε ένα άλλο σύστημα τεχνητής νοημοσύνης, το Gospel [Ευαγγέλιο], για το οποίο αποκαλύφθηκαν πληροφορίες σε προηγούμενη έρευνα του +972 και του Local Call τον Νοέμβριο του 2023 [βλ. Γάζα: εργοστάσιο μαζικών δολοφονιών, Cyborg #29] καθώς και σε δημοσιεύσεις του ίδιου του ισραηλινού στρατού. Μια θεμελιώδης διαφορά μεταξύ των δύο συστημάτων έγκειται στον ορισμό του στόχου: ενώ το Gospel στοχοποιεί κτίρια και δομές από τα οποία ο στρατός ισχυρίζεται ότι επιχειρούν μαχητές, το Lavender στοχοποιεί ανθρώπους - και τους βάζει σε μια λίστα θανάτου.

Επιπλέον, σύμφωνα με τις πηγές, όταν επρόκειτο να χτυπήσει τους φερόμενους ως νεαρούς μαχητές που στοχοποιούσε το Lavender, ο στρατός προτιμούσε να χρησιμοποιήσει μόνο μη καθοδηγούμενους πυραύλους, κοινώς γνωστές ως «dumb bombs» (σε αντίθεση με τις «έξυπνες» βόμβες ακριβείας), οι οποίες μπορούν να καταστρέψουν ολόκληρα κτίρια πάνω από τους ενοίκους τους και να προκαλέσουν σημαντικές απώλειες. «Δεν θέλεις να σπαταλάς ακριβές βόμβες σε ασήμαντους ανθρώπους - είναι πολύ ακριβό για τη χώρα και υπάρχει έλλειψη [αυτών των βομβών]», δήλωσε ο C, ένας από τους αξιωματικούς των μυστικών υπηρεσιών. Μια άλλη πηγή δήλωσε ότι είχαν προσωπικά εγκρίνει τον βομβαρδισμό εκατοντάδων ιδιωτικών σπιτιών φερόμενων ως κατώτερων στελεχών που είχαν επισημανθεί από το Lavender, με πολλές από αυτές τις επιθέσεις να σκοτώνουν αμάχους και ολόκληρες οικογένειες ως «παράπλευρες απώλειες».

Σε μια πρωτοφανή κίνηση, σύμφωνα με δύο από τις πηγές, ο στρατός αποφάσισε επίσης κατά τις πρώτες εβδομάδες του πολέμου ότι, για κάθε κατώτερο στέλεχος της Χαμάς που σημείωνε το Lavender, επιτρεπόταν να σκοτώνονται έως και 15 ή 20 άμαχοι - στο παρελθόν, ο στρατός δεν ενέκρινε «παράπλευρες απώλειες» κατά τη διάρκεια δολοφονιών χαμηλόβαθμων μαχητών. Οι πηγές πρόσθεσαν ότι, στην περίπτωση που ο στόχος ήταν ανώτερος αξιωματούχος της Χαμάς με τον βαθμό του διοικητή τάγματος ή ταξιαρχίας, ο στρατός σε αρκετές περιπτώσεις ενέκρινε τη θανάτωση περισσότερων από 100 αμάχων κατά τη δολοφονία ενός μόνο διοικητή.
Η έρευνα που ακολουθεί οργανώνεται σύμφωνα με τα έξι χρονολογικά στάδια της εξαιρετικά αυτοματοποιημένης παραγωγής στόχων από τον ισραηλινό στρατό κατά τις πρώτες εβδομάδες του πολέμου στη Γάζα. Πρώτον, εξηγούμε την ίδια τη μηχανή Lavender, η οποία στοχοποίησηε δεκάδες χιλιάδες Παλαιστίνιους χρησιμοποιώντας τεχνητή νοημοσύνη. Δεύτερον, αποκαλύπτουμε το σύστημα «Where’s Daddy?», το οποίο παρακολουθούσε αυτούς τους στόχους και έδινε σήμα στον στρατό όταν έμπαιναν στα σπίτια των οικογενειών τους. Τρίτον, περιγράφουμε τον τρόπο με τον οποίο επιλέχθηκαν οι «ανόητες» βόμβες για να χτυπήσουν αυτά τα σπίτια.

Τέταρτον, εξηγούμε πώς ο στρατός χαλάρωσε τον επιτρεπόμενο αριθμό αμάχων που θα μπορούσαν να σκοτωθούν κατά τη διάρκεια του βομβαρδισμού ενός στόχου. Πέμπτον, σημειώνουμε πώς το αυτοματοποιημένο λογισμικό υπολόγισε με ανακρίβεια τον αριθμό των μη μαχητών σε κάθε νοικοκυριό. Και έκτον, δείχνουμε πώς σε αρκετές περιπτώσεις, όταν χτυπήθηκε ένα σπίτι, συνήθως τη νύχτα, ο μεμονωμένος στόχος μερικές φορές δεν βρισκόταν καθόλου μέσα, επειδή οι στρατιωτικοί αξιωματικοί δεν επαλήθευσαν τις πληροφορίες σε πραγματικό χρόνο.

Βήμα πρώτο: η παραγωγή στόχων

Στον ισραηλινό στρατό, ο όρος «ανθρώπινος στόχος» αναφερόταν στο παρελθόν σε έναν ανώτερο στρατιωτικό στέλεχος, ο οποίος, σύμφωνα με τους κανόνες του τμήματος διεθνούς δικαίου του στρατού, μπορεί να σκοτωθεί στην ιδιωτική του κατοικία, ακόμη και αν υπάρχουν πολίτες γύρω του. Πηγές των μυστικών υπηρεσιών δήλωσαν στο +972 και στο Local Call ότι κατά τη διάρκεια των προηγούμενων πολέμων του Ισραήλ, δεδομένου ότι αυτός ήταν ένας «ιδιαίτερα βάναυσος» τρόπος για να σκοτωθεί κάποιος - συχνά σκοτώνοντας μια ολόκληρη οικογένεια μαζί με τον στόχο - τέτοιοι ανθρώπινοι στόχοι χαρακτηρίζονταν πολύ προσεκτικά και μόνο ανώτεροι στρατιωτικοί διοικητές βομβαρδίζονταν στα σπίτια τους, για να διατηρηθεί η αρχή της αναλογικότητας σύμφωνα με το διεθνές δίκαιο.
Αλλά μετά τις 7 Οκτωβρίου, ο στρατός, σύμφωνα με τις πηγές, υιοθέτησε μια δραματικά διαφορετική προσέγγιση. Στο πλαίσιο της επιχείρησης «iron swords», ο στρατός αποφάσισε να χαρακτηρίσει όλους τους πράκτορες της στρατιωτικής πτέρυγας της Χαμάς ως ανθρώπινους στόχους, ανεξάρτητα από τον βαθμό ή τη στρατιωτική τους σημασία. Και αυτό άλλαξε τα πάντα.

[...]

...η συνέχεια στο έντυπο τεύχος του Cyborg.
[ σημεία διακίνησης ]

Πηγή: +972 magazine, 03/04/2024
Πρωτότυπο: https://www.972mag.com/lavender-ai-israeli-army-gaza/
Μετάφραση: Harry Tuttle

κορυφή