articoli

Scienza, politica e tecnologia

di Roberto
Rosso

di Roberto Rosso – In queste settimane abbiamo ascoltato il resoconto giornaliero l’andamento della pandemia, illustrato dai dati ufficiali del contagio. Nelle stesse settimane gli esperti (virologi, epidemiologi, …) hanno occupato la scena su tutti i media commentandone lo sviluppo. Tutt’attorno si è sviluppato il chiacchiericcio dei social network, con i professionisti della disinformazione e delle bufale in piena azione. Sui social si poteva leggere il disorientamento di molti, esclusi da percorsi di educazione di base inclusi in un clima generalizzato di paura.

I dati forniti erano a loro volta presentano zone d’ombra, a cominciare dalla mancanza di una screening di massa in grado di fornire informazioni attendibili sul numero effettivo dei contagiati e quindi sulla incidenza dei diversi livelli di gravità della manifestazioni della patologia. L’unica certezza è stata la clamorosa impreparazione del sistema sanitario nell’individuare l’insorgere nel limitare la diffusione del virus, con l’inevitabile adozione del blocco quasi totale di ogni tipo di attività produttiva, commerciale e di servizio assieme alla reclusione coatta dell’intera popolazione.

Consapevolezza delle potenziali ed incombenti minacce pandemiche, in particolare delle affezioni polmonari

Forse non ci dovremmo stupire della incapacità italiana di contenere la pandemia covid-19 quando leggiamo le previsioni su fenomeni pandemici della Organizzazione Mondiale della Sanità (OMS) e le simulazioni negli USA che anticipano pandemie, analoghe a quella che stiamo viviamo:

oppure il nostro stupore, la nostra indignazione devono stimolare un ragionamento.

Prendiamo in considerazione un documento dell’OMS del settembre 2019 intitolato Annual report on global preparedness for health emergencies: Global Preparedness Monitoring Board. Il nostro stupore cresce a dismisura e le domande si accumulano. Nell’introduzione del documento si legge “(…) c’è una reale minaccia di un letale pandemia dovuto ad un agente patogeno che colpisce il sistema respiratorio capace di fare tra i 50 e gli 80 milioni di vittime e di spazzare via il 5% dell’economia mondiale. Una pandemia globale su una tale scala sarebbe catastrofica, diffondendo devastazione, instabilità ed insicurezza. Il mondo non è preparato.”

Nel caso degli Stati Uniti l’articolo del New York Times ‘Before Virus Outbreak, a Cascade of Warnings Went Unheeded’ ( 22 marzo 2020) afferma che nonostante studi e simulazioni, dei quali l’ultimo lo scorso anno, gli USA non erano preparati ad affrontare un pandemia come quella del coronavirus e poco è stato fatto. In esso si può leggere quanto segue.

L’epidemia di un virus che colpisce le vie respiratorie ebbe origine in Cina e rapidamente si diffuse in tutto il mondo- Negli Stati Uniti , fu individuato per la prima volta a Chigago, 47 giorni dopo l’OMS dichiara la pandemia, ma era già troppo tardi, si prevedeva che 110 milioni idi americani sarebbero stati contagiati, portando a 7,7 milioni di ricoveri e 586.00 morti.

Questo scenario, nome in codice “Crimson Contagion” che immagina una pandemia di tipo influenzale, fu oggetto di una simulazione realizzata dal Department of Health and Human Services dell’amministrazione Trump, in una serie di esercitazioni che ebbero corso dal fine di gennaio ad agosto.

La conclusione, contenuta in una bozza di rapporto dell’ottobre 2019, porta alla conclusione di come sarebbe sotto-finanziata, impreparata e scoordinata l’azione del governo federale nel combattere una battaglia per la vita o la morte nei confronti di un virus per il quale non esistano trattamenti efficaci. Ci sarebbero altri esempi[1], mentre per avere una idea della attività di pianificazione -almeno teorica- degli interventi sulle emergenze sanitarie di varia natura basta dare una occhiata all’agenda delle riunioni del cosiddetto ‘National Biodefense Science Board’ ed in particolare i ‘Disaster Medicine and All Hazards Science Response Working Groups’ (https://www.phe.gov/Preparedness/legal/boards/nbsb/meetings/Pages/default.aspx).

Le situazioni che abbiamo descritto, illustrano un rapporto tra scienza-tecnologia (S&T) e politica del tutto inefficace, siamo ben oltre quello che ci dicono M. Dorato, H. Hosni, A. Vulpiani nell’articolo ‘Incertezza e politica’ pubblicato sul sito de ‘Il Manifesto’.

“Se ogni decisione politicamente rilevante si potesse sempre basare sulla possibilità di individuare un’alternativa migliore di tutte le altre, la politica diventerebbe inutile e basterebbe adottare quella misura e poi ratificarne il risultato. In questo caso sarebbero i tecnici, e non i politici liberamente eletti a governare la società, dando origine a quella che Bobbio chiamava tecnocrazia. Purtroppo, le decisioni politicamente rilevanti sono spesso permeate di incertezza, come abbiamo ricordato qui sopra. In queste condizioni, soprattutto quando non c’è molto tempo per decidere, i politici hanno l’obbligo di informarsi raccogliendo le migliori ipotesi scientifiche disponibili le quali, quando le corrispondenti teorie scientifiche non sono ancora ben corroborate, saranno necessariamente incomplete, divergenti, e provvisorie. Si tratta allora di elaborarle e valutarle con la massima prudenza alla luce del loro mandato. E prendersi la responsabilità delle scelte fatte, e non sostenere che la decisione non sia di natura politica ma meramente dettata dalla scienza.”

La situazione reale si è dimostrata ben al di sotto di ogni invitabile incertezza presente nella elaborazione scientifica, nei modelli della realtà che essa ci propone, quando la realtà sono il vivente e la società. La politica ha bellamente ignorato l’analisi di rischio che le veniva proposta e le linee di condotta conseguenti per la sua gestione. Non c’è stata in generale una adeguata assunzione di responsabilità e capacità di intervento -senza prendere in considerazione la singola autorità, la singola istituzione benché non manchino fulgidi esempi di disonestà e ignoranza- così come non discutiamo qui di quale sia il virologo o l’epidemiologo più attendibile.

Questa assoluta incapacità di gestire un rischio ampiamente previsto, di cogliere l’opportunità di un investimento sulla prevenzione e l’allestimento di infrastrutture adeguate allo scopo si può facilmente e sinteticamente attribuire al modello neoliberista che ha generato la crisi del 2008 e non ha cambiato minimamente rotta.

Crisi, pandemie e paradossi

Oggi c’è un paradosso di fondo. La catastrofe pandemica si produce a fronte di uno sviluppo esponenziale della tecnologia della Intelligenza Artificiale, della sensoristica, della robotica, la capacità di trattare moli crescenti di dati – i cosiddetti big data- che offrono in particolare i social network, l’analisi sempre più fine del vivente e del clima. E’ il paradosso di fondo di un sistema che non è capace di riconoscere limiti materiali, fondamentali del proprio sviluppo che si ritrovano nella catastrofica riduzione della biodiversità e nella frammentazione degli habitat assieme al riscaldamento globale e tutte le forme possibili ed immaginabili di contaminazione delle matrici ambientali.

In effetti anche la crisi del 2008 ha al suo cuore un paradosso tutto tecnologico, in quel caso la pretesa di possedere potenza di calcolo e algoritmi infallibili per prevedere l’andamento dei mercati finanziari, al cui fondamento stavano da un lato modelli di analisi probabilistiche che prevedevano una possibile crisi in non meno di cento anni, dall’altro con le più rozze tecniche da imbonitori si dilatava il mercato dei prestiti immobiliari di bassa qualità. Nella crisi odierna i limiti, diciamo materiali, hanno agito prima che si manifestassero nuovamente le contraddizioni strutturali dell’ipertrofica crescita del mercato finanziario.

Il paradosso di fondo è quello di un sistema il quale, nonostante l’innovazione tecnologica è sempre più pervasiva, rimane incapace di governare il proprio sviluppo.

Lo sviluppo di Scienza e Tecnologia, motore della trasformazione sociale e produttiva, è indicato allo stesso momento sia come causa del degrado ambientale e delle catastrofi ecologiche, pandemie comprese, sia come strumento capace di rimediare a quelle catastrofi.

La politica, astrattamente intesa dovrebbe essere chiamata a decidere, a governare le trasformazioni che ormai da decenni vanno ad interferire con i meccanismi più profondi della vita e del clima dal livello micro a quello macro, intrecciati tra loro. Un ruolo strategico che in tutta evidenza la politica nelle sue manifestazioni concrete non copre. Non c’è qui lo spazio per passare in rassegna lo scenario delle diverse forme di governo delle società, correlate in particolare al governo di S&T.

Come riportato in un articolo del 2006 di Luigi Pellizzoni «Decidiamo insieme!» Conflitti tecnologici e deliberazione pubblica, sul n.41 della rivista Quaderni di Sociologia,

La deliberazione in campo tecnologico va collocata nel quadro dei nuovi processi di governance. Il limitato successo delle politiche centrate sul potere statale di fronte alla rapidità dell’innovazione e ai suoi potenziali effetti negativi su ambiente e salute, nonché l’intreccio sempre più stretto tra ricerca scientifica, politica e affari, hanno condotto a quella che viene sovente descritta come una crisi di fiducia verso la capacità e volontà delle istituzioni di gestire le tecnologie in base a considerazioni di interesse generale.” (…) “Ora però si parla di «democrazia deliberativa», espressione che si riferisce a un processo basato sulla discussione pubblica tra individui liberi ed eguali, antitetico alle concezioni aggregative della democrazia, che concepiscono la volontà democratica come somma di preferenze individualmente espresse.”

La democrazia deliberativa, la democrazia partecipativa di cui tanto si è discusso nei movimenti alter-mondialisti dell’inizio di questo secolo, in campo tecnologico non sono di fatto una pratica diffusa, nel nostro come in altri paesi, salvo nella forma del conflitto sociale e nella pratica comunque critica e conflittuale dei movimenti in difesa della salute e dell’ambiente.

Social network Vs cultura e coscienza condivisa?

Per tornare ai social-network ed alla disponibilità di informazione che la rete offre, non abbiamo assistito ad un processo di acculturazione e maturazione collettivo, di stimolo alla partecipazione attraverso di essi da parte delle istituzioni, se non in rari casi. Lo stimolo è avvenuto per iniziativa delle più disparate forme di ‘cittadinanza attiva’ che ha sostituito le forme declinanti di partecipazione ad organizzazioni di tipo politico-partitico. L’uso della ‘rete’ è stato allora fondamentale per costruire le reti, le campagne di mobilitazione, per la formazione collettiva e la condivisione delle conoscenze.

Chi ha partecipato ai diversi movimenti organizzati in difesa della salute e dell’ambiente- chi soprattutto ha contribuito fattivamente a costruirli- si è reso conto dello straordinario lavoro che è stato svolto in termini di educazione, formazione e crescita culturale, di apprendimento di una metodologia scientifica di base. In ciò ci si è avvalsi del contributo necessario di esperti, che nel proprio ruolo hanno sviluppato una analisi critica dei processi produttivi e dei sistemi ambientali: in questa alleanza tra cittadinanza attiva ed esperti uno degli obiettivi ed esiti fondamentali di queste lotte è stata la crescita e l’articolazione crescente delle indagini epidemiologiche. Gli organi amministrativi e di governo sono stati costretti a rendere accessibili le proprie pratiche ed a garantire libero accesso ad innumerevoli fonti di dati.

Nella relazione tra scienza, tecnologia e politica il rapporto di forza pende dalla parte delle forze economiche che possiedono le risorse finanziarie per sviluppare tecnologia. Vi sono indubbiamente differenze da stato a stato; il nostro si caratterizza per la miseria dell’impegno sul piano della ricerca e della formazione scientifica -sia da parte del settore pubblico che di quello privato, con l’inevitabile privatizzazione degli esiti della ricerca pubblica, secondo una tendenza globale- come del resto è accaduto nell’ambito delle strutture sanitarie dove, assieme alla crescita del settore privato, si è imposta una logica aziendalistica anche nelle strutture pubbliche.

La Big science

Lo sviluppo tecnologico richiede sempre di più l’impiego di gigantesche risorse finanziarie e la collaborazione di un numero crescente di centri di ricerca e profili di competenza, è la cosiddetta Big Science che ha la sua origine nel Progetto Manhattan col quale durante la seconda guerra mondiale fu realizzata la Bomba Atomica, dopo la costruzione della prima Pila Nucleare sotto la guida di Enrico Fermi sotto le gradinate dello sotto le tribune ovest dello stadio abbandonato Alonzo Stagg Field dell’Università di Chicago. Il progetto Manhattan ide per la prima volta l’impego coordinato di migliaia di tecnici e scienziati di diverse discipline. Dal secondo dopoguerra (mondiale) abbiamo assistito alla messa in atto di progetti di ricerca sempre più complessi e coordinati come, per citarne uno dei più famosi e recenti, il progetto Genoma per la decodificazione del patrimonio genetico umano.

Il progetto Manhattan peraltro evidenzia il ruolo della ricerca scientifica con finalità militari, non a caso sulle origini de virus della Sars-Cov2 è apparso legittimo a tutti quantomeno chiedersi se non fosse stato costruito in laboratorio, ipotesi che oggi viene per lo più scartata, polemiche politiche a parte.

Oggi il motore dello sviluppo tecnologico sono, come abbia già detto, le tecnologie dell’informazione con al centro la cosiddetta Intelligenza Artificiale e la sensoristica ovvero le varie tecniche di osservazione/percezione del reale fondate su apparati di elaborazione sempre più vasti e complessi, composti da centinaia di migliaia di server, il cosiddetto cloud.

DI conseguenza si è spostato il baricentro della potenza economica verso le Big Tech identificate dall’acronimo GAFAM Google, Amazon, Facebook, Apple, Microsoft oltre alle da noi meno note società cinesi come Alibaba. D’altra parte le tecnologie dell’informazione hanno reso possibile lo sviluppo integrato di diverse filiere di ricerca ed applicazione tecnologica che viene sinteticamente indicato con l’uso di una serie di altri acronimi uno dei quali è “GRAIN” che sta per Genetics, Robotics, Artificial Intelligence, e Nanotechnology.

Le altre due macro conseguenze sono da un alto l’instaurazione di un regime di sorveglianza privatizzato, scarsamente regolato e intrecciato con quello di stato in forme variabili a seconda dei regimi politici, dall’altro la polarizzazione sociale a causa della sostituzione crescente di funzioni lavorative tanto manuali quanto intellettuali che distruggono gli strati intermedi di lavoro stabile operaio ed impiegatizio mediamente remunerato e dilatano la platea dei lavoratori precari scarsamente professionalizzati. I primi non vengono sostituiti da una massa equivalente di lavoratori professionalizzati e specializzati nella gestione della conoscenza. In questo contesto nasce una domanda per un intervento di carattere strategico sui regimi di regolazione delle condizioni e dell’orario di lavoro, sulle forme di erogazione del reddito diretto ed indiretto e sulle forme collettive di partecipazione alle scelte strategiche di governo della società. Nel processo di condivisione della conoscenza, che si struttura necessariamente con diversi livelli di competenza, il primo livello fondamentale è quello del libero accesso ‘open access’ agli esiti della ricerca, su questo avremo modo di intervenire prossimamente.

Doomsday Clock

Concludiamo con il Doomsday Clock Statement del ‘Science and Security Board Bulletin of the Atomic Scientists’. Di cosa si tratta?

L’ Orologio dell’apocalisse (Doomsday Clock in inglese) è una iniziativa ideata nel 1947 dagli scienziati della rivista Bulletin of the Atomic Scientists dell’Università di Chicago che consiste in un orologio metaforico che misura il pericolo di una ipotetica fine del mondo a cui l’umanità è sottoposta. Il pericolo viene quantificato tramite la metafora di un orologio simbolico la cui mezzanotte simboleggia la fine del mondo mentre i minuti precedenti rappresentano la distanza ipotetica da tale evento. Originariamente la mezzanotte rappresentava unicamente la guerra atomica, mentre dal 2007 si prende in considerazione qualsiasi evento o processo che possa infliggere danni catastrofici ed irrevocabili all’umanità (come ad esempio i cambiamenti climatici).

Alla data del 23 gennaio 2020 la lancetta è fissata a 100 secondi dalla mezzanotte (https://thebulletin.org/doomsday-clock/current-time/) allora non era stata ancora presa in considerazione la pandemia da Sars-Cov2.

E come diceva il protagonista di un noto film ‘Good Night, and Good Luck’ – ‘Buona notte e buona fortuna’. Citazione a sua volta dal Giulio Cesare di Shakespeare. «La colpa, caro Bruto, non è nelle nostre stelle, ma in noi stessi. Buonanotte, e buona fortuna».

[1] Un ultimo esempio sempre dagli USA. Nell’estate del 2004 fu tenuta una esercitazione di prevenzione gestione di catastrofi naturali nella stato della Luisiana e e della città di New Orleans, denominata Hurricane Pam Exercise, un anno prima circa dell’uragano Katrina. Pare che nessuno staff dellla città di New Orleans abbia partecipato in modo significativo. https://www.fema.gov/news-release/2004/07/23/hurricane-pam-exercise-concludes.

Coronavirus, ricerca scientifica, servizio sanitario nazionale, tecnologie
Articolo precedente
La Roma che vogliamo
Articolo successivo
La Corte costituzionale federale tedesca, 5 maggio 2020

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Compila questo campo
Compila questo campo
Inserisci un indirizzo email valido.