
Negli ultimi decenni il
concetto che ci hanno ripetuto di continuo è stato che non dovevamo dimenticare
gli orrori della storia e che solo così avremmo potuto evitare che si
verificassero di nuovo. L’Olocausto, con tutto ciò che lo ha preceduto, doveva
rimanere il punto più basso mai raggiunto dall’uomo “moderno”. Tenendo viva
quella memoria, salvandola da ogni revisionismo, non ci saremmo ricaduti. Non è
servito. Oggi ci sono ancora, di fronte agli occhi di chi vuol vedere, violenza
fascista, razzismo, colonialismo, segregazione, deportazione e GENOCIDIO.
Quello che è accaduto e accade a Gaza e in Cisgiordania sembra essere la prova
(non l’unica) della veridicità di questa affermazione. Guardando l’orrore a
Gaza si aggiunge la paura per l’uso anti-etico (sempre che in
guerra si possa parlare di etica) dell’intelligenza artificiale, lo
strumento che ha permesso all’esercito israeliano di condurre una delle
campagne militari più mortali della storia contro i palestinesi. Tenere viva la
memoria non poteva servire a salvarci dall’IA. Per capire qualcosa in più
sull’uso di questa nuovo strumento riporto degli estratti da un ‘inchiesta di
Yuval Abraham (giornalista investigativo, regista e traduttore arabo-ebraico
israeliano conosciuto a livello internazionale per aver co-diretto il
documentario “No Other Land”, del 2024). Ecco quali sono e a che cosa servono
alcuni dei sistemi di IA che analizzano le informazioni raccolte sulla maggior
parte dei 2,3 milioni di residenti della Striscia di Gaza tramite un sistema di
sorveglianza di massa dell’intelligence israeliana. Formalmente, il sistema
Lavender è progettato per contrassegnare tutti i sospetti operativi nelle ali
militari di Hamas e della Jihad islamica palestinese (PIJ), compresi quelli di
basso rango, come potenziali obiettivi di bombardamento. […] Durante le prime
fasi della guerra, l'esercito diede ampia approvazione agli ufficiali per
adottare le liste di uccisioni di Lavender, senza alcun obbligo di controllare
attentamente perché la macchina facesse quelle scelte o di esaminare i dati di
intelligence grezzi su cui si basavano. Una fonte ha affermato che il personale
umano spesso fungeva solo da "timbro di gomma" per le decisioni della
macchina, aggiungendo che, normalmente, avrebbero dedicato personalmente solo
circa "20 secondi" a ciascun obiettivo prima di autorizzare un
bombardamento, solo per assicurarsi che l'obiettivo contrassegnato da Lavender
fosse di sesso maschile. Questo nonostante sapessero che il sistema commette
quelli che sono considerati "errori" in circa il 10 percento dei
casi, ed è noto che occasionalmente contrassegna individui che hanno solo una
vaga connessione con gruppi militanti, o nessuna connessione. Inoltre,
l’esercito israeliano ha sistematicamente attaccato le persone mentre si
trovavano nelle loro case – di solito di notte, alla presenza dei loro
familiari – piuttosto che durante le attività militari. Altri sistemi automatizzati,
tra cui uno chiamato “Where is daddy?”, erano usati specificamente per
rintracciare gli individui presi di mira e per effettuare attentati quando
erano entrati nelle loro residenze. […] La macchina Lavender si unisce a un
altro sistema di intelligenza artificiale, "The Gospel" […] Una
differenza fondamentale tra i due sistemi è nella definizione del bersaglio:
mentre The Gospel contrassegna edifici e strutture da cui l'esercito afferma
che operano i militanti, Lavender contrassegna le persone e le inserisce in una
lista di uccisioni. […] Un altro motivo del gran numero di obiettivi e
dell'enorme danno alla vita civile a Gaza è l'uso diffuso di un sistema
chiamato "Habsora" ("Il Vangelo"), che è in gran parte
basato sull'intelligenza artificiale e può "generare" obiettivi quasi
automaticamente a una velocità che supera di gran lunga quella possibile in
precedenza. Quello che il governo di Israele ha perpetrato e sta continuando ad
attuare attraverso l’intelligenza artificiale è, nei fatti, (usando sempre la
definizione di un ex-ufficiale dell’intelligence israeliana) una “fabbrica di
omicidi di massa” affidata per lo più ad una entità non umana. Ma questa
definizione – “fabbrica di omicidi di massa” – non può che riportare alla
memoria i campi di concentramento nazisti (quelli che dovevano servirci da
monito) in cui proprio come in una catena di montaggio di una fabbrica, uomini
in un ingranaggio perfetto, prendevano parte senza poter o voler rendersene
conto (ci sono tante testimonianze a riguardo) ad un progetto di sterminio di
massa. Quale differenza sostanziale c’è tra queste due fabbriche di morte? Il
progetto è lo stesso, il risultato anche. Allora forse l’IA – benché abbia
raggiunto un livello alto di autonomia operativa – è ancora solo uno STRUMENTO
che l’uomo usa per vecchi fini. Nella macchina dell’Olocausto, infatti, non c’è
stato bisogno di un cervello artificiale per liberare le coscienze degli uomini
dalle responsabilità degli orrori che stavano compiendo. Di nuovo però c’è che
oggi la TECNICA (intesa non solo come tecnologia), nata come mezzo per
soddisfare i bisogni reali, è aumentata ad un livello tale da far credere
all’uomo di poter
perseguire ogni fine che essa stessa permetta di raggiungere
(profitto illimitato, consumo infinito di risorse, annientamento di un nemico,
ecc…) con una accelerazione mai vista. Un meccanismo che si autoalimenta, la
cui VELOCITA’ non permette più all’uomo di capire la realtà e modificarla. Qui
forse sta davvero il pericolo e riguarda tutte le attività dell’uomo, tutte
strettamente legate allo stesso meccanismo. In questo sviluppo la memoria può
ancora servire a salvarci? Si, ma la memoria non basta. Dobbiamo continuare ad
usarla per capire, ma prima dobbiamo RALLENTARE e trovare altri scopi più umani
fuori dagli ingranaggi automatizzati delle “fabbriche” (di morte).

Commenti
Posta un commento