L’intelligenza artificiale viene utilizzata per cancellare i palestinesi, sia attraverso l’uso di armi contro intere popolazioni che in immagini asettiche che nascondono gli orrori inflitti loro.
Fonte: English version
di Khadijah Elshayyal e Shereen Fernandez, 2 giugno 2024
iMMAGINE DI COPERTINA: : Palestinesi si riuniscono sul luogo di un attacco israeliano a un campo per sfollati interni a Rafah, 27 maggio 2024 (Eyad Baba/AFP)
Negli ultimi otto mesi abbiamo assistito a orrori indicibili derivanti dalla guerra di Israele contro Gaza.
Dopo l’ultima offensiva che ha colpito una tendopoli per sfollati palestinesi a Rafah il 26 maggio, il mondo ha visto un bambino senza testa tenuto in braccio mentre i corpi diventavano cenere e gli incendi infuriavano sullo sfondo. Quarantacinque persone sono state uccise quella domenica sera in quello che probabilmente era un attacco di rappresaglia dopo che la Corte internazionale di giustizia aveva ordinato a Israele di fermare le operazioni militari a Rafah.
Queste scene apocalittiche ci hanno ricordato che i palestinesi non possono sfuggire ai bombardamenti.
L’assalto incessante dal 7 ottobre ha provocato più di 36.000 palestinesi uccisi – senza contare quelli intrappolati sotto le macerie – decine di migliaia di feriti e quasi due milioni di sfollati a causa della violenza strategica e deliberata di Israele. Queste scene sono circolate sui social media con un volume senza precedenti, in quello che è stato descritto come “il primo genocidio in live-streaming”.
Non mancano i contenuti trasmessi dal cuore di Gaza a testimonianza del terrore che si sta scatenando in tempo reale. In effetti, una caratteristica inquietante, anche se prevedibile, in quest’epoca di influencer è il modo in cui le coraggiose voci palestinesi che documentano e trasmettono al mondo sono diventate nomi familiari a tutti noi.
L’enorme quantità di filmati crudi e orribili che circolano sui social media significa che gli organi di informazione tradizionali sono stati a lungo soppiantati come fonte primaria di notizie a favore di TikTok, Instagram e X.
Seguiamo i feed dei giovani sul posto che non condividono solo immagini, ma anche una finestra sulle loro vite ed esperienze personali. Condividiamo la loro paura e il loro dolore, e ci preoccupiamo per la loro sicurezza se non hanno postato di essere sopravvissuti alla notte.
In questo contesto, abbiamo osservato con grande interesse la rapidità con cui il modello Instagram “Tutti gli occhi su Rafah”, ormai divenuto un fenomeno virale, si è diffuso.
L’immagine, generata dall’intelligenza artificiale (AI), è composta da tende bianche sovrapposte a una distesa infinita di tende ordinatamente assemblate di diverse tonalità e dominate da montagne bianche e innevate.
Le parole in grassetto e l’immagine pulita sembrano incongrue l’una con l’altra; la realtà sul campo a Rafah è completamente diversa da quella che viene condivisa. Ma forse è proprio questo che ha reso così facile la condivisione.
Può darsi che la completa asetticità e la deliberata omissione di immagini grafiche abbiano reso più facile la “condivisione” per gli utenti dei social media, in un momento in cui “influencer” e celebrità sono stati pesantemente criticati per la loro mancanza di impegno sulla Palestina.
Ma se la facilità o la comodità sono fattori decisivi per i contenuti che condividiamo, allora una domanda fondamentale che dobbiamo porci è: cosa stiamo favorendo pubblicando questa immagine invece di una reale? Cosa stiamo proteggendo esattamente?
Attivismo digitale
Con l’inizio della guerra a Gaza si è verificato un notevole cambiamento nel modo in cui ci impegniamo con la tecnologia e lo spazio digitale. Le minacce di doxxing (denuncia) incombono comunemente sugli studenti che protestano contro le atrocità, così come le preoccupazioni per le ripercussioni professionali quando i datori di lavoro vengono taggati o informati dei post sui social media.
In un caso recente, Faiza Shaheen, una potenziale candidata del partito laburista britannico, sarebbe stata esclusa per aver apprezzato i tweet a sostegno del Boicottaggio, Disinvestimento e Sanzioni (BDS) contro Israele. L’intimidazione degli attivisti è reale, così come il suo impatto, e quindi la viralità del post su “Rafah”, che ha superato i 40 milioni di condivisioni, potrebbe derivare dalla sensazione che la sicurezza sia data dai numeri.
Molti critici della grafica generata dall’intelligenza artificiale sembrano paragonarla ad altri gesti virali ritenuti superficiali e performativi, come i famigerati cartelli con i profili neri e i post di accompagnamento #BlackoutTuesday, che hanno guadagnato popolarità durante le proteste di George Floyd del 2020 per mostrare solidarietà con le comunità nere contro le violente ingiustizie e le esclusioni che dovevano affrontare.
Altri hanno suggerito che il post su “Rafah” è una prova delle capacità politiche dell’arte e del suo potenziale come forma di protesta e resistenza, dato il modo strategico in cui la mancanza di “orrore” può aver contribuito alla portata massiccia dell’immagine, aggirando qualsiasi meccanismo di filtraggio o blocco.
Ma questo episodio ci spinge a considerare più a fondo il ruolo e l’impatto dell’IA nella costruzione di narrazioni online e nell’attivismo. La facilità e la velocità con cui è possibile generare contenuti di IA sono state accolte in modo trasversale come un elemento di fascino, divertimento e persino di potenziamento.
Basta digitare alcune parole chiave per avere a portata di mano un’immagine (o un testo) che può in qualche modo esprimere i nostri pensieri e allo stesso tempo esporre le nostre ansie e i nostri pregiudizi.
Lo spazio digitale ha aperto una moltitudine di possibilità per l’attivismo, ma solleva anche domande sull’efficacia delle tendenze virali online nel raggiungere gli obiettivi.
In quest’epoca neoliberale, quali sono esattamente gli effetti degli hashtag e dei “blocchi” di massa?
Sebbene possano effettivamente avere un impatto sugli obiettivi prefissati, quali informazioni su di noi forniamo alle aziende di social media nel nostro impegno con questo attivismo, e tali tendenze sono potenzialmente strumenti per gestire, contenere o pacificare l’attivismo?
Genocidio di AI
In risposta alla popolarità dell’immagine di “Rafah”, sono state prodotte numerose contro-grafiche, una delle quali raffigura un combattente di Hamas che impugna una pistola e guarda un bambino, con la domanda “Dov’erano i tuoi occhi il 7 ottobre?” impressa a lettere maiuscole.
A prescindere dai nostri orientamenti politici, è chiaro che i contenuti generati dall’intelligenza artificiale stanno rafforzando la nostra narrazione e galvanizzando un pubblico orientato ai contenuti. Allo stesso tempo, sta rendendo più difficile distinguere tra ciò che è vero e ciò che è falso, poiché i robot e i falsi account che promuovono ideologie sono in aumento e approfondiranno la nostra sfiducia nella tecnologia. Ma ciò che complica particolarmente questo fatto è che ci troviamo in un momento in cui il ‘citizen journalism’ è al suo apice.
Stiamo assistendo letteralmente alla prima guerra dell’IA che si svolge in tempo reale, sia attraverso post virali generati dall’IA per alimentare le narrazioni, sia attraverso l’uso della sorveglianza e delle armi dell’IA per infliggere i danni maggiori.
Sebbene le opinioni divergano sul fatto che la condivisione di contenuti generati dall’IA sia accettabile, dobbiamo affrontare con urgenza il modo in cui l’IA viene utilizzata per far avanzare la guerra attraverso la sorveglianza e le uccisioni “mirate”.
Nel 2021, Israele si è vantato dell’uso di tecnologie innovative durante un’incursione nota come “Operazione Guardiano delle Mura”, in cui furono uccisi 261 palestinesi mentre Gaza diventava un laboratorio annuale di armi AI.
Il continuo ricorso da parte dell’esercito israeliano a sistemi di localizzazione e marcatura AI come Lavender, “The Gospel” e “Where’s Daddy?” conferisce poteri terribilmente ampi a programmi autorizzati a uccidere utilizzando “bombe mute” (o missili non guidati) con una minima supervisione umana.
L’uso di droni e di sofisticati programmi di sorveglianza per destabilizzare la vita dei palestinesi e preservare quella dei soldati israeliani, evitando un’invasione di terra, mostra come le tecnologie dell’IA siano usate per dare priorità ad alcune vite rispetto ad altre.
In questo modo, l’IA viene usata per disumanizzare, cancellare e minacciare le vite dei palestinesi, sia deliberatamente attraverso armi usate su intere popolazioni, sia forse inavvertitamente attraverso la circolazione di immagini asettiche che nascondono gli orrori abitualmente inflitti ai palestinesi.
In questi tempi incalzanti, oscurare la verità attraverso l’IA servirà solo a offuscare la nostra visione, un paradosso a cui dobbiamo stare attenti mentre il volume di contenuti a portata di mano continua a crescere senza sosta.
Traduzione di Simonetta Lambertini – invictapalestina.org