LA FEROCIA (dopo Gaza, con l'IA, la memoria non serve più?)

 


Negli ultimi decenni il concetto che ci hanno ripetuto di continuo è stato che non dovevamo dimenticare gli orrori della storia e che solo così avremmo potuto evitare che si verificassero di nuovo. L’Olocausto, con tutto ciò che lo ha preceduto, doveva rimanere il punto più basso mai raggiunto dall’uomo “moderno”. Tenendo viva quella memoria, salvandola da ogni revisionismo, non ci saremmo ricaduti. Non è servito. Oggi ci sono ancora, di fronte agli occhi di chi vuol vedere, violenza fascista, razzismo, colonialismo, segregazione, deportazione e GENOCIDIO. Quello che è accaduto e accade a Gaza e in Cisgiordania sembra essere la prova (non l’unica) della veridicità di questa affermazione. Guardando l’orrore a Gaza si aggiunge la paura per l’uso anti-etico (sempre che in guerra si possa parlare di etica) dell’intelligenza artificiale, lo strumento che ha permesso all’esercito israeliano di condurre una delle campagne militari più mortali della storia contro i palestinesi. Tenere viva la memoria non poteva servire a salvarci dall’IA. Per capire qualcosa in più sull’uso di questa nuovo strumento riporto degli estratti da un ‘inchiesta di Yuval Abraham (giornalista investigativo, regista e traduttore arabo-ebraico israeliano conosciuto a livello internazionale per aver co-diretto il documentario “No Other Land”, del 2024). Ecco quali sono e a che cosa servono alcuni dei sistemi di IA che analizzano le informazioni raccolte sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza tramite un sistema di sorveglianza di massa dell’intelligence israeliana. Formalmente, il sistema Lavender è progettato per contrassegnare tutti i sospetti operativi nelle ali militari di Hamas e della Jihad islamica palestinese (PIJ), compresi quelli di basso rango, come potenziali obiettivi di bombardamento. […] Durante le prime fasi della guerra, l'esercito diede ampia approvazione agli ufficiali per adottare le liste di uccisioni di Lavender, senza alcun obbligo di controllare attentamente perché la macchina facesse quelle scelte o di esaminare i dati di intelligence grezzi su cui si basavano. Una fonte ha affermato che il personale umano spesso fungeva solo da "timbro di gomma" per le decisioni della macchina, aggiungendo che, normalmente, avrebbero dedicato personalmente solo circa "20 secondi" a ciascun obiettivo prima di autorizzare un bombardamento, solo per assicurarsi che l'obiettivo contrassegnato da Lavender fosse di sesso maschile. Questo nonostante sapessero che il sistema commette quelli che sono considerati "errori" in circa il 10 percento dei casi, ed è noto che occasionalmente contrassegna individui che hanno solo una vaga connessione con gruppi militanti, o nessuna connessione. Inoltre, l’esercito israeliano ha sistematicamente attaccato le persone mentre si trovavano nelle loro case – di solito di notte, alla presenza dei loro familiari – piuttosto che durante le attività militari. Altri sistemi automatizzati, tra cui uno chiamato “Where is daddy?”, erano usati specificamente per rintracciare gli individui presi di mira e per effettuare attentati quando erano entrati nelle loro residenze. […] La macchina Lavender si unisce a un altro sistema di intelligenza artificiale, "The Gospel" […] Una differenza fondamentale tra i due sistemi è nella definizione del bersaglio: mentre The Gospel contrassegna edifici e strutture da cui l'esercito afferma che operano i militanti, Lavender contrassegna le persone e le inserisce in una lista di uccisioni. […] Un altro motivo del gran numero di obiettivi e dell'enorme danno alla vita civile a Gaza è l'uso diffuso di un sistema chiamato "Habsora" ("Il Vangelo"), che è in gran parte basato sull'intelligenza artificiale e può "generare" obiettivi quasi automaticamente a una velocità che supera di gran lunga quella possibile in precedenza. Quello che il governo di Israele ha perpetrato e sta continuando ad attuare attraverso l’intelligenza artificiale è, nei fatti, (usando sempre la definizione di un ex-ufficiale dell’intelligence israeliana) una “fabbrica di omicidi di massa” affidata per lo più ad una entità non umana. Ma questa definizione – “fabbrica di omicidi di massa” – non può che riportare alla memoria i campi di concentramento nazisti (quelli che dovevano servirci da monito) in cui proprio come in una catena di montaggio di una fabbrica, uomini in un ingranaggio perfetto, prendevano parte senza poter o voler rendersene conto (ci sono tante testimonianze a riguardo) ad un progetto di sterminio di massa. Quale differenza sostanziale c’è tra queste due fabbriche di morte? Il progetto è lo stesso, il risultato anche. Allora forse l’IA – benché abbia raggiunto un livello alto di autonomia operativa – è ancora solo uno STRUMENTO che l’uomo usa per vecchi fini. Nella macchina dell’Olocausto, infatti, non c’è stato bisogno di un cervello artificiale per liberare le coscienze degli uomini dalle responsabilità degli orrori che stavano compiendo. Di nuovo però c’è che oggi la TECNICA (intesa non solo come tecnologia), nata come mezzo per soddisfare i bisogni reali, è aumentata ad un livello tale da far credere all’uomo di poter perseguire ogni fine che essa stessa permetta di raggiungere (profitto illimitato, consumo infinito di risorse, annientamento di un nemico, ecc…) con una accelerazione mai vista. Un meccanismo che si autoalimenta, la cui VELOCITA’ non permette più all’uomo di capire la realtà e modificarla. Qui forse sta davvero il pericolo e riguarda tutte le attività dell’uomo, tutte strettamente legate allo stesso meccanismo. In questo sviluppo la memoria può ancora servire a salvarci? Si, ma la memoria non basta. Dobbiamo continuare ad usarla per capire, ma prima dobbiamo RALLENTARE e trovare altri scopi più umani fuori dagli ingranaggi automatizzati delle “fabbriche” (di morte).



Commenti

Post popolari in questo blog

VILLA CHIGI SARACINI: BENE COMUNE PRESIDIO DI PACE - contributo per una politica culturale integrata

APPELLO PER UNA COMUNITA’ VIVA, FELICE, COSCIENTE E PARTECIPATA A CASTELNUOVO BERARDENGA

ACCORRETE GENTE, FACCIAMO RUMORE!