articoli

Regolare l’Intelligenza Artificiale o liberare l’intelligenza sociale

di Roberto
Rosso

Dopo una lunga gestazione è stato approvato il regolamento europeo sull’Intelligenza Artificiale (IA), indubbiamente il tentativo più ambizioso a livello mondiale di definire un quadro di riferimento puntuale ed esaustivo, almeno nelle intenzioni di chi lo ha elaborato ed approvato.
Un commento altrettanto esaustivo e particolareggiato richiede non un articolo, ma un commentario come si usa fare i codici. I riferimenti lungo tutto l’articolato del regolamento sono all’insieme della produzione normativa dell’Unione Europea, costituendo quindi di per sé un allargamento del campo di applicazione di norme precedenti, che già intervengono in campi nei quali l’IA penetra in modo sempre più pervasivo e profondo.

Le istituzioni europee avevano già promulgato due regolamenti Digital markets Act (DMA) ed il Digital Services ACT (DSA)1, a cui il regolamento sull’IA fa riferimento; in particolare il DMA mette in evidenza il ruolo dei cosiddetti Gatekeepers, vale a dire le piattaforme digitali che controllano una quota significativa del mercato e quindi sono in grado di esercitare un potere esclusivo lungo tutta la catena del valore dei servizi digitali.
Il processo di innovazione nel settore digitale ha prodotto l’emergere delle cosiddette BigTech, quel pugno di società che controllano il mercato, a cui da ultimo si è aggiunta NVIDIA, produttrice dei microprocessori per l’I.A. che ha raggiunto il club dei 2000 miliardi di dollari di quotazione in borsa2 quando come si legge nel 2013 aveva una capitalizzazione di 7,66 miliardi di dollari. Lo sviluppo delle tecnologie di IA – mentre era incorso l’elaborazione dell’AI Act – ha conosciuto l’emergere dei Large Language Module, saliti all’onore delle cronache con ChatGpt di OpenAI, fondate sull’architettura di reti neurali dette Transformer3, ChatGpt è un acronimo che sta per i Chat Generative Pre-trained Transformer. Siamo in presenza quindi di un salto tecnologico, annunciato già nel 2017, che ha permesso la realizzazione di quelle applicazioni che oltre riprodurre una capacità di dialogo e aggregazione di informazione in linguaggio naturale ha portato alla realizzazione di immagini e video di straordinario realismo. La premessa per raggiungere quel livello di prestazioni è l’addestramento delle applicazioni con moli gigantesche di dati e informazioni cosa che di per sé implica l’apertura di conflitti sulla proprietà di tali informazioni, nel mare magno della rete. Vale la pena di sottolineare come sia proprio l’attività di pre-addestramento delle applicazioni a richiedere non solo moli inusitate di dati, ma succhiano anche percentuali crescenti dell’energia globalmente prodotta4  con punte nei paesi dove l’IA richiede nuova potenza di elaborazione prodotta con tecnologia Cloud che distribuisce i flussi di elaborazione in parallelo su migliaia di CPU, cosa che ha fatto la fortuna di Nvidia.
Le aziende  elettriche di tutti gli Stati Uniti stanno raddoppiando le loro previsioni sulla quantità di energia aggiuntiva di cui avranno bisogno entro la fine di questo decennio, per soddisfare la domanda crescente non solo di strutture di elaborazione dati AI affamate di energia, ma anche di una rinascita dell’industria manifatturiera statunitense e della conversione ai veicoli elettrici.
Si prevede che la domanda di energia elettrica dei soli centri dati consumerà quasi il 10% dell’energia elettrica nazionale entro la fine di questo decennio.Nel 2022 c’erano circa 2.700 data center negli Stati Uniti, che consumavano circa il 4% dell’energia elettrica nazionale. Nel 2024, il numero totale di data hub è cresciuto fino a quasi 5.400, con un fabbisogno energetico in crescita da una stima di 16 gigawatt nel 2022 – un gigawatt è equivalente alla potenza di una grande centrale nucleare – a più di 21 gigawatt quest’anno, secondo uno studio McKinsey. Entro la fine di questo decennio, McKinsey prevede che i data center consumeranno più di 32 gigawatt di elettricità, secondo un rapporto del Washington Post.

A dimostrazione di questo impennarsi della domanda di energia Microsoft è intenzionata ad avviare un progetto per la realizzazione di un reattore nucleare. L’obiettivo è quello di soddisfare le esigenze energetiche dei futuri piani tecnologici del colosso, tra cui l’addestramento dell’intelligenza artificiale e l’elaborazione dei dati nel cloud. Un recente annuncio di lavoro dimostra che l’azienda guidata da Satya Nadella è alla ricerca di un esperto di tecnologia nucleare in grado di sviluppare una strategia energetica globale legata ai reattori modulari di piccole dimensioni (Smr). Queste fonti di energia alimenteranno i data center che ospitano i servizi cloud di Microsoft e tutto il programma di intelligenza artificiale che la società sta portando attraverso Windows 11 oltre alla sua collaborazione con OpenAI5.

Significativa è la parabola di OpenAI, che è nata come fondazione senza fini di lucro per la creazione e la condivisione di tecnologie di IA ed è di fatto diventata una costola di Microsoft, che con un investimento di 10 miliardi di dollari, ha continuato precedenti attività di finanziamento delle attività6, mentre il suo valore in borsa è arrivato a superare gli 80 miliardi di dollari7, attirando nel contempo i finanziamenti di società di venture capital. Una prima riflessione ci spinge a dire che ha fronte di una produzione normativa estremamente articolata, che ha l’obiettivo di classificare la produzione e l’applicazione delle tecnologie di I.A. abbiamo una evoluzione che vede una innovazione tecnologica del tutto imprevista, una concentrazione di risorse tecnologiche, finanziarie ed  energetiche proporzionate a quel trend innovativo ed all’estendersi del campo applicativo a tutti i settore della produzione e della riproduzione sociale8. Nel caso dell’Unione Europea il controllo normativo è rivolto ad un mercato i cui protagonisti sono al di fuori dell’Europa, nonostante il tentativo di far nascere e crescere società europee.

Al punto (12) del commento che precede l’articolato del regolamento sull’I.A. emerge la consapevolezza di quando sia difficile definire e delimitare l’ambito, la casistica, la fattispecie a cui in un campo in così rapida evoluzione e contemporaneamente il rischio di genericità.

“La nozione di sistema di IA” di cui al presente regolamento dovrebbe essere definita in maniera chiara e dovrebbe essere strettamente allineata al lavoro delle organizzazioni internazionali che si occupano di IA al fine di garantire la certezza del diritto, agevolare la convergenza internazionale e un’ampia accettazione, prevedendo nel contempo la flessibilità necessaria per agevolare i rapidi sviluppi tecnologici in questo ambito.”

(…)

La capacità inferenziale di un sistema di IA trascende l’elaborazione di base dei dati e consente l’apprendimento, il ragionamento o la modellizzazione. Il termine “automatizzato” si riferisce al fatto che il funzionamento dei sistemi di IA prevede l’uso di macchine.

 

Il cuore del regolamento è dato dalla definizione dei livelli di rischio che le applicazioni presentano a varo titolo, dove l’attenzione è rivolta ovviamente a quello che si definiscono ad alto rischio a cui è dedicato il Capo III.
L’allegato III elenca i settori in cui si individuano le applicazioni ad alto rischio, di fatto poi ogni quattro anni viene effettuata una revisione dell’adeguatezza del quadro normativo e dei suoi strumenti applicativi, di cui la commissione rende conto al Parlamento ed al Consiglio. Lo strumento operativo centrale a disposizione della commissione è l’Ufficio per l’AI9 ; mentre negli anni precedenti si era dato vita al Gruppo di esperti di alto livello sull’intelligenza artificiale10 HLEG AI la cui attività è stata centrata sulla elaborazione di Linee guida etiche per una I.A. affidabile e sulle raccomandazioni per la sua realizzazione; attività che ha portato nel 2019 ad un documento11 Building Trust in Human Centric Artificial Intelligence.

I risultati dei lavori dell’HLEG AI sono stati presentati alla prima Assemblea europea dell’IA nel giugno 2019. A seguito dell’Assemblea, la Commissione europea ha prorogato di un altro anno il mandato del gruppo. Questo mandato esteso ha permesso al gruppo di aumentare il proprio lavoro e portare a termine le Linee guida etiche per una IA affidabile. Il mandato del gruppo ad alto livello di IA si è concluso nel luglio 2020 con la presentazione di altri due elementi L’elenco di valutazione finale per l’IA affidabile (ALTAI) Considerazioni settoriali sulle raccomandazioni politiche e di investimento. Indubbiamente si è arrivati all’elaborazione dell’A.I. Act con un importante lavoro preparatorio, tuttavia nel frattempo il contesto tecnologico, finanziario, energetico ed applicativo è stato letteralmente rivoluzionato.

In merito alle raccomandazioni dell’AI HLEG al punto 27 si afferma “Sebbene l’approccio basato sul rischio costituisca la base per un insieme proporzionato ed efficace di regole vincolanti, è importante ricordare gli orientamenti etici per un’IA affidabile del 2019 elaborati dall’AI HLEG indipendente nominato dalla Commissione.

In tali orientamenti l’AI HLEG ha elaborato sette principi etici non vincolanti per l’IA

che sono intesi a contribuire a garantire che l’IA sia affidabile ed eticamente valida. I

sette principi comprendono: intervento e sorveglianza umani, robustezza tecnica e

sicurezza, vita privata e governance dei dati, trasparenza, diversità, non discriminazione.

ed equità, benessere sociale e ambientale e responsabilità”.

Le procedure di revisione del regolamento, di sue parti o procedure derivate in un contesto in così rapida evoluzione sono ovviamente considerate.

“(174) Dati i rapidi sviluppi tecnologici e le competenze tecniche necessarie per l’efficace

applicazione del presente regolamento, la Commissione dovrebbe valutare e riesaminare

il presente regolamento entro … [cinque anni dalla data di entrata in vigore del presente

regolamento] e successivamente ogni quattro anni e presentare una relazione al

Parlamento europeo e al Consiglio. Inoltre, tenuto conto delle implicazioni per l’ambito

di applicazione del presente regolamento, la Commissione dovrebbe effettuare, una volta

all’anno, una valutazione della necessità di modificare l’elenco dei sistemi di IA ad alto

rischio e l’elenco delle pratiche vietate. Inoltre, entro due anni dall’entrata in

 applicazione e successivamente ogni quattro anni, la Commissione dovrebbe valutare la

necessità di modificare l’elenco dei settori ad alto rischio di cui all’allegato del presente

regolamento, i sistemi di IA che rientrano nell’ambito di applicazione degli obblighi di

trasparenza, l’efficacia del sistema di supervisione e governance e i progressi compiuti

riguardo allo sviluppo di prodotti della normazione relativi allo sviluppo efficiente sotto

il profilo energetico di modelli di IA per finalità generali, compresa la necessità di

ulteriori misure o azioni, e riferire al Parlamento europeo e al Consiglio in merito.”

Come già evidenziato, le tecnologie digitali, con il ruolo preponderante dell’ecosistema dell’I.A.  sono rilevanti nel definire e d applicare le norme in ogni campo tanto quanto sono ormai iscritte finemente nei processi di riproduzione sociale nella loro continua trasformazione. Una conseguenza di questo stato di cose è la mobilità dei confini della loro applicazione legittima o meno, la variabilità della misura soggettiva di questa applicazione. È questo il motivo per cui si può considerare l’emissione di questo regolamento come una mossa preliminare i cui effetti sono tutti da valutare, la definizione di fatto di un terreno di conflitto e mediazione sotto l’influenza dei rapporti di forza che a livello globale si vanno a stabilire e modificare a livello globale.

La stessa definizione dei termini che intervengono nella stesura del regolamento -utilizzati in particolare nell’introduzione al regolamento- nel tentativo di circoscrivere gli ambiti e le modalità in cui si applica la norma produce una sorta di ontologia onnicomprensiva del mondo o meglio un insieme intrecciato di ontologie regionali, che descrivono un ambito specifico, producendo la proliferazione di una struttura ad albero delle categorie impiegate per descrivere la realtà sociale assieme il modo di operare dell’I.A. Come si diceva è la testimonianza del tentativo di    inseguire la capacità crescente dei sistemi di intelligenza artificiale di inserirsi in tutte le pieghe, i meandri della riproduzione dei sistemi sociali, delle relazioni che costituiscono il tessuto delle società umane. In questa puntigliosa definizione dell’operatività dei sistemi e degli ambiti in cui si esplica si manifesta la fatica di Sisifo della norma di seguire il proliferare della tecnologia che nel suo pervasivo sviluppo insegue la complessità del sociale.

Tutti i soggetti coinvolti a diverso titolo dovrebbero essere soggetti ad una azione di alfabetizzazione prima di formazione continua, infatti si dice “Nel contesto dell’applicazione del presente regolamento, l’alfabetizzazione in materia di IA dovrebbe fornire a tutti i pertinenti attori della catena del valore dell’IA le conoscenze necessarie per garantire l’adeguata conformità e la sua corretta esecuzione.”

Nel quadro in cui ci stiamo muovendo stiamo in realtà parlando di un aggiornamento o meglio di una rivoluzione culturale permanente, necessaria a creare un livello minimo di consapevolezza in ogni formazione sociale.

I limiti più ovvi e scontati all’applicazione del regolamento, che aprono brecce smisurate riguardano l’ambito militare e della sicurezza.

Se, e nella misura in cui, i sistemi di IA sono immessi sul mercato, messi in servizio o

utilizzati con o senza modifica di tali sistemi per scopi militari, di difesa o di sicurezza

nazionale, essi dovrebbero essere esclusi dall’ambito di applicazione del presente

regolamento indipendentemente dal tipo di entità che svolge tali attività, ad esempio se si

tratta di un’entità pubblica o privata.

(…)

Per quanto riguarda le finalità di sicurezza nazionale, l’esclusione è giustificata

sia dal fatto che la sicurezza nazionale resta di esclusiva competenza degli Stati membri

ai sensi dell’articolo 4, paragrafo 2, TUE, sia dalla natura specifica e dalle esigenze

operative delle attività di sicurezza nazionale, nonché dalle specifiche norme nazionali

applicabili a tali attività.

(…)

Un sistema di IA immesso sul mercato per scopi civili o di attività di contrasto che è utilizzato con o senza modifiche a fini militari, di difesa o di sicurezza nazionale non dovrebbe rientrare nell’ambito di applicazione del presente regolamento, indipendentemente dal tipo di entità che svolge tali attività.

Sappiamo bene quanto elastica sia la definizione della sicurezza nazionale, basta pensare a cosa possa significare l’utilizzo dell’I.A. nell’ambito delle cosiddette pratiche di de-radicalizzazione; potremmo fare un confronto, nella vita civile, con il processo di medicalizzazione di comportamenti ritenuti fuori norma e disturbanti la convivenza in diversi ambiti. Tutto ciò è detto tenendo conto dei divieti intesi a evitare la profilazione ad personam, tenendo altresì conto di come la profilazione sia un elemento sostanziale dello sviluppo del network sociali.

Il fatto che sempre di più l’unione Europea si consideri in guerra dice tutto del contesto in cui si valuteranno le applicazioni a rischio da interdire e quali nessi tra rischi ed opportunità si utilizzeranno. Monsignor Benanti dice di questo regolamento tutto il bene possibile12 ed i linea di principio non gli si può dare torto mentre nella realtà l’orizzonte non si presenta affatto roseo. Indubbiamente è aperta uno scontro sulla cosiddetta Giustizia Algoritmica13, vedi il report citato “Civil Society’s Struggle Against Algorithmic Injustice in Europe” dello Human Error Project14.

È persino banale dire che gli interessi in gioco dal punto di vista, economico, finanziario, tecnologico, politico, nei rapporti di forza a livello regionale e globale, sono smisurati: in un contesto caratterizzato da una competizione crescente, da una militarizzazione crescente di questa competizione, nell’intreccio più volte descritto tra diversi processi di crisi e trasformazione, tra loro intrecciati.

È di queste ore l’allarme lanciato dall’organizzazione Metereologica mondiale sul livello raggiunto dal riscaldamento globale e dai cambiamenti climatici conseguenti.

La questione Intelligenza Artificiale, nella sua profonda connessione con tutti processi in atto, costituisce una posta in gioco fondamentale per una prospettiva di liberazione -liberazione innanzitutto dell’intelligenza sociale della fruizione e condivisione della conoscenza- a fronte di un orizzonte catastrofica per la condizione, la qualità di vita, la possibilità stessa di sopravvivenza di gran parte dell’umanità. La banalizzazione che riduce tutto ad uno scontro pro o contro il progresso è tale dagli albori del sistema capitalistico.

Roberto Rosso

  1. L’Intelligenza Artificiale, concentrazione inevitabile del potere o rivoluzione.[]
  2. https://companiesmarketcap.com/nvidia/marketcap/.[]
  3. https://www.thoughtspot.com/data-trends/ai/what-is-transformer-architecture-chatgpt https://arxiv.org/abs/1706.03762 Attention Is All You Need.[]
  4. https://scenarieconomici.it/data-center-la-rete-elettrica-usa-inizia-ad-avere-dei-problemi-nel-rifornirli-la-soluzione-sara-nucleare/.[]
  5. https://www.wired.it/article/intelligenza-artificiale-microsoft-mini-reattori/ https://jobs.careers.microsoft.com/global/en/job/1627555/Principal-Program-Manager.[]
  6. https://blogs.microsoft.com/blog/2023/01/23/microsoftandopenaiextendpartnership/.[]
  7. https://www.theguardian.com/technology/2024/feb/16/microsoft-openai-valuation-artificial-intelligence.[]
  8. The launch of OpenAI’s ChatGPT in late 2022 has kicked off buzz around AI, prompting companies to explore ways to harness the power of the technology. AI has been integrated into a number of products, including Microsoft’s Bing search engine as it continues to push forward with its own developments. On Thursday, OpenAI announced the launch of Sora, a tool that can generate videos from text prompts. The day before, it announced it was experimenting with adding deeper memory to ChatGPT so the tool can remember more of its users’ chats.[]
  9. https://digital-strategy.ec.europa.eu/it/policies/ai-office.[]
  10. https://digital-strategy.ec.europa.eu/it/policies/expert-group-ai.[]
  11. https://digital-strategy.ec.europa.eu/en/library/communication-building-trust-human-centric-artificial-intelligence.[]
  12. https://www-avvenire-it.cdn.ampproject.org/c/s/www.avvenire.it/amp/opinioni/pagine/una-cintura-di-sicurezza.[]
  13. https://www.wired.it/article/intelligenza-artificiale-discriminazioni-battaglia/.[]
  14. https://thehumanerrorproject.ch/civil-society-struggle-algorithmic-injustice-ai-errors-europe-report/.[]
Big Tech, Big Tech Europa, Intelligenza artificiale
Articolo precedente
Non è il tempo dell’Antropocene
Articolo successivo
Riflessioni amare sul disastro umanitario e politico di Haiti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Compila questo campo
Compila questo campo
Inserisci un indirizzo email valido.