Per quasi quindici anni il mio lavoro è consistito nel selezionare, studiare, approvare, giudicare, e valutare progetti di ricerca di intelligenza artificiale per conto della Commissione Europea, di cui ero funzionario scientifico. In termini tecnici, il mio titolo era quello che allora si chiamava Principal Scientific Administration. Dal punto di vista gerarchico, o se si vuole politico, non è una carica molto elevata però, a differenza di cariche più prestigiose come quella di direttore generale o di direttore chi faceva un lavoro simile al mio, nel corso della carriera aveva il privilegio di studiare a fondo molte migliaia di progetti: sia quelli che venivano approvati e finanziati, sia quelli che venivano respinti, non selezionati o anche sospesi, interrotti o bocciati. Per questo motivo posso dire, senza remore, che è assolutamente errata e fuorviante qualsiasi distinzione tra progetti di intelligenza artificiale militare e non. Non c’è progetto di intelligenza artificiale che non possa avere in tutto o in parte utilizzo militare; e quando dico utilizzo militare non intendo un utilizzo militare generico, ma intendo “concorrere a uccidere gli esseri umani”. Il sistema Lavander che a Gaza ha guidato le bombe che hanno ucciso ad oggi oltre trentatremila persone è basato esattamente sugli stessi sistemi di identificazione d’immagine che utilizzano la radiologia medica, la chirurgia interventiva, la radioterapia e la chirurgia a distanza. Comincia col catturare un volto e poi, cosa facile in una gabbia ristretta quale è una città assediata, si segue quella persona in ogni momento della giornata: potenzialmente centinaia di migliaia di persone giorno e notte vengono tenute sotto controllo per tutto l’anno per tutta la vita. Il numero dipende solo dalla potenza dei calcolatori, per cui anche il più innocente sviluppo di hardware, di reti, di sistemi di comunicazione ha, non potenzialmente ma immediatamente, applicazioni militari È anche in grado di individuare, selezionare e catalogare particolari dell’abbigliamento, magliette, scarpe, giubbotti: qualsiasi particolare può essere identificato, seguito e indicato al sistema come bersaglio. I sistemi decisionali e conoscitivi sono gli stessi che si usano nella pratica medica, vuoi nella elaborazione della cartella clinica o dei protocolli di diagnosi e cura.
Sono sistemi decisionali che, in base a criteri introdotti da un ricercatore ovviamente innocente, neutrale e magari anti-bellicista, stabiliscono ad esempio che chi è stato visto una volta a una manifestazione di Hamas e ha per di più un lontano parente che dieci o quindici anni prima è stato fermato dalla polizia israeliana può essere individuato come obiettivo Hamas di grado 1. Essendo di grado 1 paradossalmente, ma non troppo per uno stato terrorista, può essere bersagliato con una bomba stupida che è più imprecisa, ma anche produce più danni collaterali.
Il sistema, che li calcola preventivamente, ritiene accettabili, per un obiettivo Hamas 1 da 15 a 20 danni collaterali. Non necessariamente di più per un Hamas 2 o 3 perché su quei bersagli il sistema può cominciare a sganciare bombe intelligenti che fanno meno danni collaterali, anche se si tratta pur sempre di morti ammazzati
Insomma, un bersaglio “1” significa 15 o 20 morti ammazzati. Oltre naturalmente l’obiettivo condannato a morte che nessun giudice ha mai giudicato, che non si è potuto mai difendere in giustizia. Invece può succedere che un bersaglio 4 o 5 provochi medi danni collaterali perché le bombe sono più precise, ma anche più costose. Non è escluso tuttavia che un bersaglio di taglio alto provochi stragi molto più ampie se l’ordine impartito al sistema include “etichette” come “a qualsiasi costo”. Da lì originano i colpi con cento e più vittime, perché, si sa, nessun sistema è perfetto. Oppure può succedere che l’indicazione “a qualsiasi costo” o un’indicazione simile introdotta dall’operatore faccia agganciare un gruppo di operatori umanitari per una volta non palestinesi, ma inglesi francesi e americani e allora la frittata è fatta, perché bisogna spiegare a un Biden poco sensibile che il sistema è ancora imperfetto, ma che sono possibili degli accorgimenti che, volendo, ne escludano automaticamente tutti gli americani, o almeno quelli soggiornanti all’estero. È solo questione di soldi, dato che altri problemi come la libertà, la privacy, il diritto all’oblio sono superati da un pezzo. Un altro accorgimento potrebbe per esempio quella di vendere l’esenzione individuale dall’attacco di Lavander. E i petrolieri arabi potrebbero diventare una magnifica clientela; e poiché da cosa nasce cosa anche i sistemi operativi per la gestione delle assicurazioni potrebbero essere direttamente coinvolti in operazioni militari
Nel sistema Lavander l’intervento umano nella scelta dei bersagli è ridotto al minimo: non più di 15-20 secondi per bersaglio, in genere impiegato per scegliere tra l’opzione maschio/femmina.
È il sistema che decide chi saranno i bersagli dopo aver ricevuto un numero, a esempio 20, una o più categorie, ad esempio “compreso 1”, “solo 2”, eventualmente un’indicazione di zona e altri dettagli ; ed è ancora il sistema che in base alle indicazioni allegate al singolo ordine – individuale o collettivo – sceglie il tipo di bomba: se da 400 a 800 kg, se stupida o intelligente, in che sequenza saranno colpiti i bersagli, se è previsto il bersagliamento di ritorno, cioè quello specificamente fatto per colpire i soccorritori e via discorrendo. E poiché il bersaglio è più facile da assassinare dove resta più tempo fermo nello stesso posto, la casa è il bersaglio prediletto; ed ecco spiegato il numero impressionante di famiglie distrutte e bambini sterminati.
Si potrebbe continuare così con i progetti di A.I. per l’automotive, le consegne a domicilio, i droni, le auto senza guidatore che diventano mezzi corazzati senza guidatore o seminatori di mine e sarebbe bene che qualcuno lo facesse.
Per non dire di qualsiasi tipo di visore, di ricerca di particolari e conformazione del terreno, di presenze di liquidi e di fluidi, di identificazione di movimenti e di calore o della loro fonte1.
I commentatori e gli editorialisti dicono che i giovani che combattono la collaborazione scientifica con paesi sterminatori sono stupidi, ingenui e nemici della scienza. E lo stesso vale per i ricercatori e i docenti che li appoggiano. Auguriamoci invece che questo movimento di giovani e meno giovani onesti che lottano per la pace, contro ipocrisia e disinformazione cresca in forza e consapevolezza
Chi usa l’intelligenza artificiale per uccidere deve essere messo al bando del mondo civile o quanto meno, se questo è troppo per l’uomo civilizzato, non deve essere aiutato a sviluppare progetti di intelligenza artificiale in nessun campo e non gli deve essere fornito nessun tipo di attrezzature idonee a svilupparli.
PS: Israele partecipa al programma di ricerca organizzato e finanziato dall’Unione Europea con parità di diritti rispetto agli Stati Membri. Questo significa che le università, le imprese e l’industria militare israeliane possono partecipare a tutti i programmi di ricerca co-finanziati dall’Unione Europea. Rispetto ai partner dell’Unione cambia solo lo schema di finanziamento, ma questo è secondario perché in questi progetti il valore aggiunto è il know how e non il vantaggio economico. Senza trascurare che in 75 anni Israele ha ricevuto 580 miliardi di dollari di aiuti solo dagli USA (fonte: Jewish Virtual Library), per non dire dell’enorme potenza economica delle lobby americane pro-israele e del fatto che Israele il Canada e il Messico sono gli unici paesi al mondo i cui governi possono ricevere finanziamenti dai soggetti privati americani; e non si tratta solo di quelli che fanno capo all’Aipac (American Israel Public Affairs Committment), perché in questi ultimi anni le organizzazioni dei cristiani evangeliche si sono dimostrate persino più dinamiche di quelle ebraiche.
Luciano Beolchi
- Statistica, fisica, matematica, propellente, trasporti, non c’è niente al mondo che l’uomo non riesca a far diventare arma di guerra, ma l’intelligenza artificiale ha una specificità e tipicità che altri impieghi non hanno perché è decisionale. Non è più Enola Gay con il suo bottone; non ci sono più ufficiali superiori che si assumono delle responsabilità.
Così come da un pezzo non ci sono più dichiarazioni di guerra.[↩]