Il cambiamento climatico mediterraneo presenta una grandezza superiore alle medie globali, nonostante il fatto che le emissioni di gas serra (GHG) nei paesi mediterranei siano a livelli relativamente bassi. I rilevamenti di temperatura rivelano una temperatura media annuale per l’intero bacino che si trova a circa 1,5 ° C sopra i livelli del tardo 19 ° secolo e circa 0,4 ° C sopra la media globale, con una significativa variabilità interannuale. Significative manifestazioni sub-regionali del riscaldamento rivelano aumenti locali delle temperature medie annuali nello stesso arco di tempo che vanno da 1,5 a 4 ° C (Climate Change in the Mediterranean: Environmental Impacts and Extreme Events – https://www.iemed.org/publication/climate-change-in-the-mediterranean-environmental-impacts-and-extreme-events/ ).
L’Italia con la sua complessa struttura idrogeologica, si trova nel mezzo dell’hotspot mediterraneo che assieme alle regioni polari costituisce una delle regioni del globo in cui più forte è l’innalzamento delle temperature nel contesto del riscaldamento globale. Per la sua configurazione gli effetti del cambiamento climatico si differenziano fortemente da un territorio all’altro, con effetti drammatici sul bilancio idrico, sul ciclo dell’acqua. I fenomeni di siccità sono particolarmente drammatici per la catena alpina e la valle padano-veneta dove, la struttura geologica non trattiene l’acqua -come accade negli Appennini per la natura calcarea delle rocce- mentre lo scioglimento di ghiacciai e nevai riduce drammaticamente le scorte a fronte di lunghi periodi di siccità. Di contro la concentrazione delle precipitazioni annuali in pochi giorni crea gli effetti devastanti che da ultimo abbiamo conosciuto nel territorio della Romagna. La concentrazione delle precipitazioni oltre a devastare il territorio ne impedisce il graduale assorbimento, nei terreni non cementificati o asfaltati, soprattutto nelle zone montane dove il bilancio delle frane passa dalle centinaia alle migliaia.
Da decenni si producono mappe del rischio idrogeologico sul territorio nazionale, assieme a quelle del rischio sismico, mentre si succedono implacabilmente disastri che vanno a colpire assetti territoriali dove non si è fatta alcuna prevenzione nei confronti di rischi ampiamente prevedibili e calcolati. Il contrasto sempre più drammatico è tra questi eventi ed il celebrato progresso tecnologico caratterizzato dalla crescita esponenziale delle conoscenze e dalla capacità di trasformare la realtà. Questo contrasto si è manifestato nelle cronache dei media nazionali dove la catastrofe climatica ha sostituito gli annunci sensazionali sulle prestazioni dell’Intelligenza Artificiale che hanno suscitato tanto speranze quanto timori, rischi e opportunità. Una contraddizione di cui stiamo trattando, un articolo dopo l’altro1.
Se agli allarmi sulle catastrofi cosiddette naturali –che nei loro effetti naturali non sono e per quanto riguarda il clima anche nelle loro cause ultime– siamo abituati o meglio assuefatti, gli allarmi sulle conseguenze delle tecnologie digitali che vanno sotto la denominazione di Intelligenza Artificiale sono una novità. I rischi associati alle tecnologie digitali sono stati sino ad ora prevalentemente sulla trasformazione dell’organizzazione del lavoro nel bilanciamento tra perdita e creazione di nuovi profili lavorativi. L’attuale livello dall’I.A. introduce invece un orizzonte –sino ad ora evocato solo nei romanzi di fantascienza o in previsioni futuribili senza alcun riscontro nella realtà presente- che vede la possibilità di stravolgere completamente il modo di produrre e condividere conoscenza, di perdere il controllo su processi decisionali quotidiani o strategici, di perdere la capacità individuale e collettiva di verificare il fondamento di qualsiasi affermazione. L’uso dell’applicazione ChatGPT-4 in pochi giorni ha raggiunto la soglia di cento milioni di utenti, superando le prestazioni in termini di diffusione di qualsiasi altra tecnologia. Nei confronti dei rischi prodotti da qualsivoglia tecnologia o attività antropica si è venuto elaborando il principio di precauzione che a ari livelli è entrato anche nella produzione normativa, con estrema difficoltà per far valere gli interessi di cui sono portatori le persone, le popolazioni, gli ambienti, la biodiversità contro la logica del profitto. La diffusione e condivisione delle conoscenze al di fuori di ristretti ambienti dominati dagli interessi di impresa, la nascita e diffusione di movimenti, la presa di coscienza anche negli ambienti accademici e della ricerca, attraverso difficoltà estreme, ha cercato di individuare preventivamente i rischi di determinate scelte in termini di processi produttivi ed assetti territoriali e di evitarne l’attuazione. Spesso e volentieri si è intervenuti a posteriori quando gli effetti negativi di determinati processi si sono ampiamenti dispiegati; è il caso denunciato da una rete di associazioni e comitati sulla diffusione delle PFAS2. Anche in questo caso le norme proposte, soprattutto nel nostro paese, sino ad oggi faticano ad affrontare l’effettiva gravità del problema per difendere interessi consolidati e ramificati in molti processi produttivi3
Come nel caso dell’amianto la consapevolezza da parte dei padroni della filiera sui suoi effetti teratogeni è stata nascosta per proteggerne l’uso diffuso in tutti i settori ed i giganteschi profitti che ne derivavano. Questa è la storia di tutti processi di contaminazione legati alla diffusione nell’ambiente di decine di migliaia di sostanze artificiale che i processi naturali non sono in grado di ridurre e riciclare.
Nel caso dell’Intelligenza Artificiale l’analisi di rischio e l’applicazione di un principio di precauzione è ben più complicata e decisamente controversa; peraltro è aperta una competizione tra gli oligopoli del digitale -le cosiddette Big Tech definite dall’acronimo GAFAM- per assumere una posizione dominante nel nuovo mercato che si sta creando attorno ai cosiddetti Large Language Module (LLM), ricordiamo che Microsoft ha investito 10 miliardi dollari nell’acquisto OpenAi che ha creato ChatGPT arrivato alla versione 4. Queste nuove applicazioni promettono di rivoluzionare quel sistema composto dai social networks e dai motori di ricerca, quest’ultimo settore dominato da Google, da cui il neologismo di ‘guglare’. Microsoft rilancia il proprio motore di ricerca Bing integrandolo con ChatGPT. Vale a dire viene ulteriormente rivoluzionata la modalità con cui ormai miliardi di persone cercano informazione, creano proprie personali basi di conoscenza, comunicano e diffondono informazioni più o meno fondate.
È l’intero ecosistema dell’informazione, della formazione e dell’educazione, della produzione e condivisione della conoscenza che viene investito. Ben prima dell’esplosione degli LLM la discussione sull’eticità delle applicazioni di A.I. aveva già prodotto centinaia di documenti di analisi. Purtroppo mentre gli esperti si interrogano è assente un dibattito pubblico approfondito e partecipato basato sulla alfabetizzazione tecnologica dei cittadini, in realtà ciò che è del tutto assente è l’intervento pubblico guidato dalla necessità di definire la conoscenza in generale come bene comune, di articolarne la nozione rispetto ai diversi campi di sviluppo di tecnologie suscettibili di avere un forte impatto sociale. Non a caso c’è chi come Giuseppe Attardi e Stefano Quintarelli ha proposto la realizzazione a livello europeo dell’equivalente di quello che è il CERN di Ginevra per la ricerca sulla fisica delle particelle4, laddove si dice che “Alla fin fine di tanti piani e propositi, si fatica a trovare traccia di investimenti pubblici significativi nell’AI da parte dell’Unione Europea. Solo 50 milioni sono stati destinati a progetti di coordinamento sull’AI nella tematica ICT-48. I progetti europei finanziati nell’ambito di Horizon 2021 assommano a poche decine di milioni di euro, mentre per il 2022 è previsto un finanziamento di 35 milioni per una rete di centri di eccellenza in AI, senza finanziare tali centri. Il Workprogram 2023-2024 finanzia il tema “AI, data and robotics” con un budget di 19 milioni di euro. Queste cifre impallidiscono al confronto con i 100 miliardi di USD investiti da privati nel 2021 in AI, secondo lo Stanford AI Index.”
Se i poteri pubblici cercano di regolamentarne lo sviluppo sono gli oligopoli del digitale, in articolare quelli statunitensi ad avere il monopolio reale dello sviluppo di queste tecnologie. Il problema tuttavia non è solo quello della autonomia dell’Europa nei confronti degli Usa, ma di una iniziativa pubblica in grado di intervenire direttamente nel processo di sviluppo e quindi di essere in grado di valutarne le conseguenze ‘in tempo reale’ e non a posteriori laddove la produzione normativa, e dovrebbe essere guidata dalla difesa di interessi pubblici e beni comuni, è sempre in ritardi rispetto a quella tecnologica, guidata dalla logica del profitto.
Il problema che si pone quindi è di ordine generale e rispecchia la ridefinizione ruolo dello stato -nel contesto più ampio di ciò che è pubblico, bene comune e democrazia partecipata- in una società capitalistica nel contesto di una critica radicale a quest’ultima che rimanda a sua volta alle soggettività sociali in grado di produrla e praticarla. Se questa è la collocazione del problema in termini generali, la definizione di rischio e principio di precauzione che ci dovrebbe guidare nel valutare qualunque processo innovativo rimanda a sua volta ai bisogni soggettivi, ai diritti fondamentali su cui tale innovazione va ad agire.
Sono problematiche su cui interviene Daniela Tafani in un suo articolo ‘Sistemi fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza artificiale» e il risveglio del diritto’5 dove già nel titolo si intuisce l’ambito, la portata ed il contesto della riflessione critica. È rilevante citare in riferimento a nesso tra analisi di rischio e diritti i due paragrafi conclusi dell’articolo, di cui vale la pena seguire per intero il ragionamento.
“Il ruolo delle «aziende a monte» e gli effetti antidemocratici della concentrazione di potere in tali aziende – le quali hanno ormai dimensioni e prerogative che le rendono assimilabili ai più potenti Stati nazionali – costituiscono in effetti uno dei nodi cruciali: come ricorda l’AI Now Institute nel suo Rapporto del 2023, «la politica della concorrenza dovrebbe diventare una parte fondamentale del pacchetto di strumenti per la responsabilità nel settore tecnologico». Del resto, è alla consapevolezza del nesso strettissimo tra interventi antrust e politiche per la tutela dei diritti che si deve l’impostazione di fondo della Federal Trade Commission in materia di intelligenza artificiale, poiché, come ha scritto Shoshana Zuboff, «è possibile avere il capitalismo della sorveglianza ed è possibile avere la democrazia», ma «non è possibile sostenere entrambi».
A tale impostazione, si oppone la richiesta delle grandi aziende di privilegiare invece un approccio basato sui rischi. La posta in gioco è lucidamente espressa dall’AI Now Institute: «l’esperienza europea ci insegna quanto sia pericoloso il passaggio da un quadro normativo «basato sui diritti», come nel GDPR, a uno «basato sui rischi», come nel prossimo AI Act, e su come l’impostazione fondata sul «rischio» (in contrapposizione ai diritti) possa spostare il terreno di gioco a favore di quadri volontari e standard tecnici guidati dall’industria». L’approccio basato sui rischi si concentra in effetti, come osserva Margot Kaminski, sui soli danni assunti come prevedibili e quantificabili, oscurando le violazioni dei diritti individuali e i danni alle società democratiche; poiché dà per scontato che i sistemi di «intelligenza artificiale» funzionino e debbano essere adottati, si limita a smussarne gli spigoli, dimenticando completamente – come hanno rilevato il Comitato europeo per la protezione dei dati e il Garante europeo per la protezione dei dati a proposito della proposta di AI Act – gli individui che, a qualsiasi titolo, siano affetti dai sistemi di intelligenza artificiale. Riducendo a questioni tecniche valutazioni e decisioni intrinsecamente politiche, l’approccio basato sui rischi assume tacitamente il principio dell’inevitabilità tecnologica e una prospettiva soluzionista, a tutela del modello di business delle grandi aziende tecnologiche. Queste paiono costituire, al momento, «il fantasma lobbista nella macchina» della regolazione.”
Dove l’avvertenza fondamentale è nel passaggio seguente “quanto sia pericoloso il passaggio da un quadro normativo «basato sui diritti», come nel GDPR, a uno «basato sui rischi», come nel prossimo AI Act, e su come l’impostazione fondata sul «rischio» (in contrapposizione ai diritti) possa spostare il terreno di gioco a favore di quadri volontari e standard tecnici guidati dall’industria.”
L’autrice ha poi proposto l’articolo alla discussione nella mailing list del centro Nexa del Politecnico di Torino. Della discussione che ne è seguita ed è ancora in corso mi permetto di citare in nota l’estratto di un intervento che riguarda il principio di precauzione6
Risulta del tutto chiara la posta in gioco, il conflitto potenziale e attuale che dovrebbe diventare ben più reale, ma cui manca il contributo di soggettività all’altezza, in grado di rovesciare i rapporti di forza attuali. A seconda dei regimi politici e dello stato della democrazia eni diversi paesi la posta in gioco è vista in termini di rapporto tra poteri statuali e potere degli oligopoli del digitale oppure anche in termini di affermazione di diritti inalienabili e di loro ridefinizione nel nuovo contesto che l’innovazione tecnologica viene e a determinare, di sviluppo conseguente di soggetti sociali, culture critiche e pratiche politiche efficaci,
Concludiamo quindi con quella si può considerare una nota di ottimismo contenuta nell’articolo di Teresa Numerico pubblicato sul manifesto L’idea più pericolosa dei padri di AI è che non ci sia via di scampo7 “Possiamo condividere con Hinton l’urgenza di una regolamentazione di queste tecnologie, come lo abbiamo fatto per le armi chimiche e batteriologiche, oltre che per le autovetture e le medicine. Ma invito tutti noi a immaginare soluzioni diverse da quelle che ci appaiono inevitabili. A volte gli interventi indotti dalla preoccupazione condividono con quelli dei fanatici estimatori della tecnologia l’idea che non ci sia via di scampo. Le situazioni, per fortuna, sono sempre dinamiche, a patto di non perdere la fantasia, la creatività e la lucidità nell’interpretarle.”
Roberto Rosso
- citando gli ultimi: https://transform-italia.it/lartificializzazione-del-mondo-dallecologia-della-mente-allintelligenza-artificiale/ https://transform-italia.it/il-clima-la-democrazia-lintelligenza-artificiale-e-la-fine-del-mondo/ https://transform-italia.it/lintelligenza-artificiale-continuazione-del-percorso-di-astrazione-della-razionalita-dal-mondo-della-vita/ [↩]
- INQUINAMENTO DA PFAS: COMITATI E ASSOCIAZIONI CHIEDONO UNA LEGGE NAZIONALE CHE VIETI L’USO E LA PRODUZIONE ROMA 24.05.23 – Per arginare la grave contaminazione da PFAS (composti poli e perfluoroalchilici), sostanze chimiche artificiali, altamente persistenti e associate a numerosi problemi per la salute, tra cui alcune forme tumorali, è necessaria una legge nazionale che ne vieti l’uso e la produzione. È questa la richiesta di alcune delle associazioni e comitati italiani che, insieme a 120 organizzazioni europee, hanno sottoscritto il “BAN PFAS Manifesto”: CGIL Vicenza, Greenpeace Italia, ISDE Italia, Italia Nostra Veneto, Legambiente, Mamme No Pfas, Medicina Democratica, PFAS.land, Transform! Italia. Le associazioni intervenute oggi ritengono che il rischio PFAS sia inaccettabile per il presente e per il futuro; pertanto, un intervento politico non è più rinviabile. Quello della contaminazione da PFAS, i cosiddetti inquinanti eterni, è un problema ambientale e sanitario tuttora irrisolto su cui nessuna legislatura italiana è intervenuta finora con i provvedimenti giusti a difesa di ambiente e saluta. Queste molecole di sintesi, di fatto indistruttibili, hanno invaso ogni angolo del globo. Oltre alle acque, ai terreni, agli alimenti e all’aria, l’inquinamento non risparmia i nostri corpi, non solo di chi vive nelle aree più contaminate ma anche di chi risiede in zone lontane dalle fonti di contaminazione. In un quadro di contaminazione nazionale e planetario che si aggrava di ora in ora, è necessario avviare un iter legislativo nazionale che affronti finalmente, e seriamente, la questione, mettendo un bando alla produzione e all’uso di tutti i PFAS in Italia. In Europa Olanda, Danimarca, Germania, Svezia e Norvegia hanno presentato una proposta per la messa al bando dei PFAS. L’Italia rimane in silenzio nonostante si moltiplichino a livello globale le iniziative legislative. La Danimarca, oltre ad aver varato alcuni dei provvedimenti tra i più restrittivi al mondo sulla presenza di PFAS nell’acqua potabile, ha introdotto alcuni divieti sull’uso negli imballaggi alimentari in carta. Riguardo l’acqua potabile, negli Stati Uniti l’Agenzia americana per la protezione dell’ambiente (EPA) ha recentemente proposto un valore limite pari a 4 nanogrammi per litro, sia per il PFOA che per il PFOS, due delle molecole appartenenti all’ampio gruppo dei PFAS e note per la loro pericolosità per la salute.
L’irreversibilità della contaminazione globale da PFAS ha già creato un’eredità tossica il cui peso si farà sentire anche sulle future generazioni. Secondo le stime del Nordic Council of Minister, i costi sanitari dell’inazione politica per tutti i Paesi europei si aggirano tra 52 e 84 miliardi di euro all’anno. In Italia le situazioni più critiche si registrano in Veneto, nell’area tra le Provincie di Vicenza, Verona e Padova, in Piemonte, nell’alessandrino, oltre a numerose zone del Paese limitrofe ad aree industriali. Le associazioni intervenute oggi, grazie alla collaborazione della Dott.ssa Claudia Marcolungo, docente universitaria di diritto ambientale, hanno presentato il documento “I sette capisaldi di una legge nazionale che vieti l’uso e la produzione di PFAS” fornendo al parlamento gli elementi chiave che una legge nazionale dovrebbe tenere in considerazione
https://greenreport.it/news/inquinamenti/pfas-9-associazioni-chiedono-al-governo-una-legge-nazionale-che-tuteli-ambiente-e-persone/[↩] - https://altreconomia.it/lue-bandisce-i-pfas-litalia-frena-la-legge-per-regolamentarli-e-timida/ 1 giugno 2022[↩]
- https://www.agendadigitale.eu/cultura-digitale/non-solo-regolamentazione-alleuropa-serve-un-cern-per-lia-ecco-come-realizzarlo/ [↩]
- https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuorilegge/ [↩]
-
Uno– potrebbe essere utile spacchettare il “principio preacuzionale” nelle diverse varianti (‘statements’) che contengono una pericolosa ambiguità semantica.
Da Stewart, R.B. (2002). “Environmental Regulatory Decision Making Under Uncertainty”. Research in Law and Economics. 20: 76.
Precautionary approach:
1. anticipate harm before it occurs
2. proportionality of the risk and the cost and feasibility of a proposed actionPrecautionary principle statements:
1 Non-Preclusion PP : Scientific uncertainty should not automatically preclude regulation of activities that pose a potential risk of significant harm.
2 Margin of Safety PP : Regulatory controls should incorporate a margin of safety; activities should be limited below the level at which no adverse effect has been observed or predicted.
3 Best Available Technology PP : Activities that present an uncertain potential for significant harm should be subject to best technology available requirements to minimise the risk of harm unless the proponent of the activity shows that they present no appreciable risk of harm.
4 Prohibitory PP: Activities that present an uncertain potential for significant harm should be prohibited unless the proponent of the activity shows that it presents no appreciable risk of harm.
Se non ci si accorda su quale statement si usa, tutti possono dire di applicare un PP, ma non intendono la stessa cosa.Due– Forse può essere utile anche includere la responsabilità di chi questa tecnologia e scienza la sviluppa e la insegna. Continuare a non porsi domande e a lasciare agli altri il ruolo di “valutare l’impatto” delle tecnologie che noi tecnologi sviluppiamo non è più sostenibile.
Quanti di noi sono impegnati a perfezionare “recommendation systems”, che non sono altro che sistemi di persuasione pronti alla weaponization?
Servono assunzioni di responsabilità, moratorie e obiezioni di coscienza dal basso: certe cose non si insegnano più finché il loro impiego non è regolato e sanzionato. Questo nell’interesse della collettività ma anche della scienza stessa, che tra non molto finirà in blocco sul banco degli imputati, con risultati che non credo possano essere positivi. [↩]
- https://ilmanifesto.it/lidea-piu-pericolosa-dei-padri-di-ai-e-che-non-ci-sia-via-di-scampo [↩]