articoli

La norma insegue l’algoritmo

di Roberto
Rosso

Le società in cui viviamo producono una mole crescente di dati, ogni aspetto dei rapporti sociali di produzione sono intermediati da un flusso di dati che cresce in modo esponenziale1. Scavando in questa mole di dati si ricavano sempre di più informazioni utili con l’uso degli algoritmi di quell’insieme di tecnologie cha vanno sotto il nome di Intelligenza Artificiale; gli algoritmi a loro volta per costruire modelli della realtà hanno bisogno di accrescere la base dati su cui lavorano. Si realizza un processo a spirale in cui conta non solo la potenza algoritmica, ma anche la possibilità di produrre o impossessarsi dei dati. Tutti noi abbiamo presente i social media dove le relazioni tra centinaia di milioni o addirittura miliardi di persone (utenti) producono un flusso di dati che permette di creare profili dei comportamenti, dei modi di vita individuali e collettivi da dare in pasto ai creatori delle politiche commerciali di ogni genere. Se questo è l’aspetto privato, al dettaglio, diciamo da persona a persona, delle fonti dei dati esiste poi il mondo della produzione, delle relazioni economiche che solo in parte mediato dai social media, ma riguarda gli scambi commerciali, sia quelli rivolti ai consumatori (B2C), dove è cresciuto il ruolo delle attività di e-commerce, sia le attività commerciali e logistiche interne alle filiere produttive e di servizio, cresce il flusso di dati lungo le filiere produttive regolate con le tecnologie IOT -l’internet delle cose- da una rete di sensori e di dispositivi sempre più dotati una propria ‘intelligenza’. Infine non ci possiamo dimenticare del flusso di dati, dello scambio di informazioni tra i cittadini e le pubbliche amministrazioni, dove per ogni cittadino si produce una immagine, un profilo pubblico, accompagnato da un bagaglio di dati crescente. La mappa dei flussi di dati si fa sempre più articolata e complessa, con una molteplicità di fonti, reti e settori che peraltro di sovrappongono e si intersecano, nella quale gli algoritmi scavano e si alimentano, diventano i regolatori del flusso, costruiscono la matrice, costruiscono il modello delle relazioni economiche e sociali da cui i dati originano.

Chiunque si fermi a riflettere si rende conto dei rischi insiti in questa realtà in rapida crescita e trasformazione, come si stia realizzando una nuova configurazione dei poteri costruiti sulle nostre vite, quale disparità crescente si crei nella possibilità di aver accesso a quell’universo di informazioni o averne addirittura una disponibilità esclusiva. L’utopia del libero accesso all’informazione, socialmente prodotta, della condivisione della conoscenza che l’insieme delle tecnologie ICT (Information and comunication tecnologies) avrebbero potuto realizzare, nel concreto dei rapporti sociali di produzione, si sono trasformati in questa nuova configurazione dei poteri, dei rapporti di proprietà, di costruzione dei processi di estrazione del profitto che stiamo imparando a conoscere. Con questo no si vuole dire non vi sia conflitto, capacità di critica radicale capace di illuminare i diversi aspetti di questa realtà, di prefigurazione di nuove forme di società – che a loro si trasformano e si aggiornano- anche di imporre vincoli alle nuove forme di potere ed aperture nei recinti in cui si richiudono e si accumulano privatamente le conoscenze; Il processo è carico di contraddizioni: entro una dinamica dominante si creano confluii e movimenti dal basso, ma anche -come abbiamo già visto- conflitti e contraddizioni tra gli stati ed i ‘nuovi potenti’ che, nel loro accumulare ricchezza e capacità di governo dei rapporti sociali, degli stati e dei governi mettono in discussione prerogative esclusive, fondanti il loro potere.

I movimenti che crescono dal basso, a cui partecipa la tutta la composizione sociale che da questi nuovi rapporti di produzione si origina, premono quindi sui governi, sulle autorità pubbliche affinché si pongano dei limiti alle forme di appropriazione delle conoscenze, del controllo sulle vite individuali e collettive, si rendano trasparenti i processi algoritmici, si rovesci il segno di questa potenza di produzione della conoscenza.

La questione dei brevetti sui vaccini contro la pandemia Covid-19 costituisce l’esemplificazione più attuale di quale sia la posta in gioco. La ‘digitalizzazione’ della società’ è il modo con cui avviene l’espropriazione della creazione della coscienza, dell’orientamento al profitto di ogni capacità di innovazione; il mondo della vita in ogni sua dimensione ed espressione è l’oggetto primario di questa appropriazione tanto quanto i rapporti sociali e la produzione dalla materia e l’energia è passata a trattare la vita, la cui complessità richiede tecnologie sempre più sofisticate di trattamento dell’informazione.

La definizione di norme per regolare l’appropriazione o la disponibilità dei dati e delle informazioni, la loro produzione tramite gli algoritmi delle tecnologie di Intelligenza Artificiale è diventato un obiettivo imprescindibile per ogni autorità di governo, componente necessaria nella ridefinizione delle forme che assume la sovranità degli stati, i poteri pubblici assieme alle libertà ed i diritti fondamentali dei cittadini.

L’Unione Europea in particolare è ovviamente impegnata da anni nel tentativo di costruire un proprio insieme di norme su queste questioni, scontando i limiti e le contraddizioni della propria architettura istituzionale, nella divisione dei poteri e la capacità di competere nel mercato globale dell’innovazione tecnologica e digitale, particolare con USA e Cina.

Riconversione capitalistica, riconversione digitale, innovazione tecnologica, vincolo permanente ‘il pilota automatico’, accelerato rientro dal debito. Austerità è una variante, il passaggio dall’economia keynesiana all’iper-liberismo.

Nel febbraio 2020 una comunicazione della Commissione Europea presenta ‘Una strategia per i dati’, rivolta al parlamento europeo, al consiglio, al comitato economico e sociale europeo e al comitato delle regioni2. Obiettivo della strategia è il governo di processo di innovazione continua, in particolare la sua struttura: “Attualmente l’80% delle elaborazioni e delle analisi dei dati si svolge in centri di dati e strutture di calcolo centralizzate, e il 20% in oggetti connessi intelligenti, quali automobili, elettrodomestici o robot di fabbricazione, e in strutture di calcolo vicine all’utente (“edge computing”). Entro il 2025 tali percentuali probabilmente si invertiranno.”

Lo stato dell’arte nel controllo sulla produzione dei dati è così descritto “Un numero ridotto di grandi imprese tecnologiche (Big Tech) detiene attualmente buona parte dei dati disponibili a livello mondiale. Ciò potrebbe ridurre gli incentivi per le aziende basate sui dati che oggi vogliono emergere, crescere e innovare nell’UE, ma il futuro riserva numerose opportunità. Una gran parte dei dati del futuro proverrà da applicazioni industriali e professionali, ambiti di interesse pubblico o applicazioni dell’Internet delle cose di uso quotidiano, settori in cui l’UE è particolarmente competitiva.” I dati sono l’alimento necessario agli algoritmi dell’I.A. in quantità crescenti, per questo nasce una proposta “Le infrastrutture dovrebbero supportare la creazione di pool europei di dati che rendano possibile l’analisi dei Big Data e l’apprendimento automatico, nel rispetto della legislazione in materia di protezione dei dati e del diritto della concorrenza, e consentano a ecosistemi basati sui dati di emergere. Detti pool possono essere organizzati in maniera centralizzata o distribuita”. In sostanza si propone di creare un mercato dove si possano scambiare dati e servizi ad essi collegati. Si ricerca un modello alternativo a quello dei principali concorrenti globali per colmare il distacco nei loro confronti: “Concorrenti quali Cina e Stati Uniti stanno tuttavia già innovando rapidamente e proiettando a livello mondiale i loro concetti di accesso ai dati e loro utilizzo”3.

La produzione normativa è stata differenziata in base ai settori a cui si applica4. La visione esposta aderisce alla natura della conoscenza, in contraddizione con la logica di mercato a cui aderisce la strategia proposta “È particolarmente importante cogliere l’opportunità offerta dai dati per il bene sociale ed economico, poiché i dati, a differenza della maggior parte delle risorse economiche, possono essere copiati pressoché a costo zero e il loro utilizzo da parte di una persona o di un’organizzazione non ne impedisce l’utilizzo simultaneo da parte di un’altra persona o organizzazione. (…)

L’obiettivo è creare uno spazio unico europeo di dati – un autentico mercato unico di dati, aperto ai dati provenienti da tutto il mondo – nel quale sia i dati personali sia quelli non personali, compresi i dati commerciali sensibili, siano sicuri e le imprese abbiano facilmente accesso a una quantità pressoché infinita di dati industriali di elevata qualità, che stimolino la crescita e creino valore, riducendo nel contempo al minimo la nostra impronta di carbonio e ambientale”

L’ostacolo fondamentale per la realizzazione della strategia è “La frammentazione tra gli Stati membri rappresenta un grave rischio per la visione di uno spazio comune europeo di dati e per l’ulteriore sviluppo di un autentico mercato unico per i dati.” La condivisione di dati tra le imprese (B2B), come si può immaginare non decolla, così come non decolla l’utilizzo di dati detenuti da privati da parte delle autorità pubbliche (condivisione dei dati tra imprese e pubblica amministrazione – business-to-government, B2G). “I dati del settore privato disponibili per l’utilizzo da parte del settore pubblico non sono attualmente sufficienti per migliorare l’elaborazione delle politiche basata su elementi concreti e servizi pubblici quali la gestione della mobilità, né per potenziare la portata e la tempestività delle statistiche ufficiali e di conseguenza la loro rilevanza nel contesto dei nuovi sviluppi sociali.” La cooperazione tra i governi è una condizione necessaria per l’avvio di tutta la strategia a partire dalla messa a disposizione dei dati raccolti dal settore pubblico “Rendere accessibili le informazioni detenute dalle pubbliche amministrazioni è una politica consolidata dell’UE. Si tratta di dati prodotti con denaro pubblico che dovrebbero pertanto essere utilizzati a beneficio della società5 (…) È tuttavia lecito aspettarsi un contributo maggiore da parte delle pubbliche amministrazioni. Spesso, set di dati di grande valore non sono disponibili alle stesse condizioni in tutta l’UE e ciò va a scapito dell’utilizzo dei dati da parte delle PMI che non possono far fronte a tale frammentazione.”

La strategia che la Commissione si propone di implementare in sintesi di creare quelli che definisce ‘spazi comuni europei di dati’6 ed una infrastruttura adeguata peril cloud computing su cui l’Europa nel suo complesso e è in forte ritardo. Per governare il cambiamento è altrettanto necessaria la omogeneizzazione del quadro normativo dei diversi paesi ed il coordinamento delle iniziative che i singoli paesi hanno intrapreso separatamente.

Se vogliamo una definizione sintetica della linea seguita dalla Commissione la troviamo nella frase che segue. “la Commissione si asterrà deliberatamente da una normativa ex ante eccessivamente dettagliata e pesante, preferendo un approccio flessibile alla governance, che favorisca la sperimentazione (ad esempio gli spazi di sperimentazione normativa), l’iterazione e la differenziazione.”

Per definire la collocazione dell’Unione nei flussi globali, nelle reti globali di interscambio dei dati “la Commissione continuerà a migliorare la propria capacità di analisi degli interessi strategici dell’UE per quanto riguarda l’ulteriore agevolazione dei flussi di dati internazionali. A tal fine, creerà un quadro analitico europeo per la misurazione dei flussi di dati (4º trimestre 2021)”.

Del Digital Services Act7 (DSA) e del Digital Market Act8 (DMA), abbiamo già scritto, sono le norme proposte della Commissione al Parlamento ed al Consiglio destinate a regolare l’erogazione dei servizi e del mercato, per la costituzione di un mercato unico che realmente per diversi aspetti non esiste.

Il Libro Bianco sull’Intelligenza Artificiale9 del febbraio 2020 ribadisce l’analisi sulla collocazione dell’Europa nella geografia globale della produzione dei dati e nel dotazione tecnologica. “Dispone di centri di ricerca di eccellenza, start-up innovative, di una posizione di leadership a livello mondiale nella robotica e di settori competitivi dell’industria manifatturiera e dei servizi, dal settore automobilistico all’assistenza sanitaria, all’energia, ai servizi finanziari e all’agricoltura.” Tuttavia “È necessario un approccio comune europeo all’IA per raggiungere dimensioni sufficienti ed evitare la frammentazione del mercato unico. L’introduzione di iniziative nazionali rischia di compromettere la certezza del diritto, di indebolire la fiducia dei cittadini e di ostacolare l’emergere di un’industria europea dinamica.”

Si apre con il riferimento alla Intelligenza Artificiale antropocentrica10. “La strategia europea per l’IA e il piano coordinato sull’IA indicano chiaramente che la fiducia è una condizione indispensabile per assicurare un approccio antropocentrico all’IA: l’intelligenza artificiale non è fine a se stessa, ma è uno strumento a servizio delle persone che ha come fine ultimo quello di migliorare il benessere degli esseri umani. Per questo occorre garantire l’affidabilità dell’IA. I valori su cui si basano le nostre società devono essere pienamente integrati nelle modalità di sviluppo dell’IA.”

In buona sostanza una petizione di principio che nasce dalla consapevolezza dei rischi reali contenuti nell’adozione diffusa delle tecnologie dell’I.A. Il Libro Bianco riprende i contenuti di quella comunicazione che a sua volta fa riferimento agli orientamenti elaborati dal gruppo di esperti ad alto livello sull’IA11 che hanno definito i criteri in base ai quali una I.A. può essere definita affidabile:  intervento e sorveglianza umani, robustezza tecnica e sicurezza, riservatezza e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale, e accountability.

Rilevante è il livello di sorveglianza. La sorveglianza può essere effettuata mediante meccanismi di governance che garantiscano l’adozione di un approccio con intervento umano (“human-in-the-loop”), con supervisione umana (“human-on-the-loop”) o con controllo umano (“human-in-command”).

Il rischio di non tenere sotto controllo i rischi

La definizione dei rischi è il cuore del Libro Bianco “Considerata la rapida evoluzione dell’IA, il quadro normativo deve lasciare spazio a ulteriori sviluppi. Tutte le modifiche dovrebbero essere limitate a problemi chiaramente individuati per i quali esistono soluzioni praticabili.

Gli Stati membri hanno rilevato l’attuale assenza di un quadro europeo comune. La commissione tedesca per l’etica dei dati ha chiesto un sistema normativo su cinque livelli basato sul rischio che spazi dall’assenza di regolamentazione per i sistemi di IA più innocui a un divieto totale per i più pericolosi. (…) Se l’UE non riesce a fornire un approccio comune a livello di Unione, esiste un rischio reale di frammentazione del mercato interno, che comprometterebbe gli obiettivi di fiducia, certezza del diritto e adozione da parte del mercato (…)

I rischi principali connessi all’uso dell’IA riguardano l’applicazione di norme intese a tutelare i diritti fondamentali (comprese la protezione dei dati personali e della privacy e la non discriminazione), nonché le questioni legate alla sicurezza e alla responsabilità. (…)

I dati trattati, le modalità con cui vengono progettate le applicazioni e il margine di intervento umano possono incidere sui diritti alla libertà di espressione, alla protezione dei dati personali e alla privacy nonché sulle libertà politiche”

Per introdurci alla natura dei rischi bastano poche righe “(…) Ciò può accadere anche quando il sistema di IA “apprende” nel corso del suo funzionamento. In tali casi, in cui i risultati non potevano essere evitati o anticipati in fase di progettazione, i rischi deriveranno non da difetti nella progettazione originale del sistema, bensì dagli effetti pratici delle correlazioni o dei modelli che il sistema individua all’interno di un ampio set di dati.

Le caratteristiche specifiche di molte tecnologie di IA, tra cui l’opacità (effetto “scatola nera”), la complessità, l’imprevedibilità e un comportamento parzialmente autonomo”12.

Autonomia e opacità di un sistema che ‘apprende’ il cui comportamento muta in funzione della realtà che analizza, dei dati che estrae o gli vengono sottoposti.

“La mancanza di disposizioni chiare in materia di sicurezza che affrontino tali rischi può creare, oltre a rischi per le persone interessate, incertezza giuridica per le imprese che commercializzano nell’UE prodotti che integrano sistemi di IA. (…)

A causa della mancanza di trasparenza (opacità dell’IA) è difficile individuare e dimostrare eventuali violazioni delle disposizioni normative (comprese quelle che tutelano i diritti fondamentali), attribuire la responsabilità e soddisfare le condizioni per chiedere un risarcimento. (…)

La normativa generale dell’UE in materia di sicurezza attualmente in vigore si applica ai prodotti ma non ai servizi, per cui in linea di principio non si applica nemmeno ai servizi basati sulla tecnologia di IA (ad esempio servizi sanitari, finanziari e di trasporto).”

Per le caratteristiche proprie dell’I.A. “l’integrazione del software, compresa l’IA, nei prodotti può modificare il funzionamento di tali prodotti e sistemi durante il loro ciclo di vita. Ciò vale in particolare per i sistemi che richiedono frequenti aggiornamenti del software o che si basano sull’apprendimento automatico. Tali caratteristiche possono dar luogo a nuovi rischi che non erano presenti quando il sistema è stato immesso sul mercato”.

In conclusione “In linea di principio il nuovo quadro normativo per l’IA dovrebbe essere efficace nel raggiungimento dei propri obiettivi, senza tuttavia essere talmente prescrittivo da creare oneri sproporzionati, in particolare per le PMI. Per raggiungere tale equilibrio la Commissione ritiene opportuno seguire un approccio basato sul rischio.

Tale approccio basato sul rischio è importante per garantire la proporzionalità dell’intervento normativo, ma richiede che siano definiti criteri chiari per distinguere tra le diverse applicazioni di IA, in particolare per stabilire se tali applicazioni siano o meno “ad alto rischio”.

I due documenti analizzati contengono i contenuti essenziali che sono alla base della successiva elaborazione da parte delle istituzioni dell’Unione, Commissione, Consiglio e Parlamento. Il parlamento ha emesso il 20 gennaio 2021 una risoluzione sull’Intelligenza Artificiale13 )) che riprende ed articola tutte le raccomandazioni dei precedenti documenti, sviluppa in particolare le raccomandazioni sull’uso militare dell’I.A che riguarda la realizzazione e l’uso delle cosiddette Lethal Autonomous Weapons Systems’ (LAWS).

Siamo di fronte ad un lungo elenco di raccomandazioni rivolto alla Commissione e sull’uso militare dell’I.A. manifesta tutta l’ipocrisia delle istituzioni le cui raccomandazioni non sono più che un velo pietoso su quelle che sono e saranno le pratiche reali. Ne diamo alcuni esempi, ma raccomandiamo la lettura del documento.

Mentre si dice “Calls for transparent risk-reduction measures at international level for the development and use of military AI” si  afferma subito dopo “Acknowledges that the modern arms-race dynamics resulting from major military nation states developing LAWS are outpacing the progress on and effective universal application and enforcement of common rules and legal frameworks because information on the development and deployment of these systems is classified, and nation states have an inherent interest in creating the fastest and most effective offensive capabilities, irrespective of current or potential future legal frameworks or principles;”

Anche nel campo militare si raccomanda di correre all’inseguimento di Cina e Stati Uniti. Si conclude dicendo” Underlines that the European Defence Fund and Permanent Structured Cooperation should stimulate cooperation between Member States and European defence industries to develop new European defence capabilities in AI. Si tratta di un documento molto istruttivo quando ad esempio si raccomanda che le LAWS siano in grado di distinguere tra combattenti, non combattenti, combattenti che si arrendono e via così.

Nella stessa risoluzione si raccomanda una istruttoria sull’uso delle tecnologie di riconoscimento facciale ed eventualmente proporre una moratoria, ricercando le garanzie per un loro uso a fini di sicurezza. La via europea la via europea al riconoscimento facciale, più prudente ed ipocrita di quella adottata da Cina e Stati Uniti.

La Commissione ha elaborato una sua proposta14 di Artificial Intelligence Act che vuole soprattutto regolare e formalizzare la dimensione dei rischi correlati all’uso dell’I.A. che merita una analisi a parte, anche perché di dotata di una ricca casistica ed  eccezioni collerate e di intrecciata con altre normative.

Da queste poche righe- che non riassumono i contenuti del Libro Bianco e dei documenti collegati- si evince che la capacità di regolare l’introduzione delle tecnologie e dei dispositivi di I.A. si basa nella migliore delle ipotesi su una verifica a posteriori dei suoi effetti, fatto salvo il riferimento ad uno schema di base, a fronte di una casistica in continua evoluzione. La gestione dei rischi si basa in ultima analisi sulla definizione di una soglia di rischio accettabile, il che rimanda ad i criteri per questa scelta; in una economia basata sul profitto, dove vige l’imperativo di garantire l’innovazione tecnologica per vincere nella competizione sul mercato globale, possiamo presumere che questa soglia- al di sopra della quale si può agire- si abbasserà.

In tutta evidenza qualunque sia alla fine la decisione del legislatore, con la complicazione della compresenza dei livelli europei e nazionali, la posta in gioco è quella di una radicale trasformazione della società in cui viviamo, di cui l’innovazione tecnologica è il motore nel quadro di una finanziarizzazione crescente dell’economia, nel contesto del cambiamento climatico e delle catastrofi ecologiche già in atto. Ritorniamo ancora una volta alla necessità della socializzazione delle pratiche e dei saperi che dentro e contro questa ristrutturazione dei rapporti sociali di produzione si stanno esprimendo. Il binomio della transizione digitale ed ecologica -che costituisce il cuore retorico e finanziario della risposta europea alla crisi pandemica, il Next Generation Eu (NGEU)- deve essere spogliato allora dei suoi connotati salvifici e ricondotto alla materialità dei suoi contenuti. Ciò richiede lo sviluppo di un conflitto sociale esteso, pervasivo e articolato a livello europeo a fronte di un processo di ristrutturazione che travalica ampiamente il quadro nazionale e si sviluppa nel mercato globale.

Il ciclo di lotte dell’epoca fordista ha prodotto una socializzazione dei saperi critici della tecnologia contro la pretesa neutralità della scienza, i cui contenuti si sono dispiegati nei movimenti ambientali che fanno i conti con l’eredità di quei processi di industrializzazione. Questi movimenti si sono saldati con -si sono arricchiti dei contenuti- i movimenti che lottano contro le cause del cambiamento climatico e delle catastrofi ecologiche. Oggi la critica pratica della scienza e delle tecnologie applicate nell’epoca dell’economia fondata sulle tecnologie digitali e della vita è una condizione ineludibile per qualsiasi prospettiva di liberazione ovvero la soglia minima per una opposizione alla ristrutturazione in corso.

Siamo come alcuni decenni or sono gli operai che, mentre criticavano l’organizzazione della produzione come fabbrica di morte al Petrolchimico di Porto Marghera, venivano additati come nemici classe operaia? Forse no, siamo in presenza di una coscienza diffusa, sia pure carente nei confronti dei livelli più avanzati di uso dell’innovazione tecnologica, ma dovremo tessere più fittamente una tela resistente.

Il confronto non finisce con l’approvazione in zona Cesarini da parte del parlamento del PNRR, con la sua interpretazione della ‘transizione digitale’ , è appena iniziato.

P.S. Da circa un anno si è insediata la Commissione sulla Intelligenza Artificiale (AIDA) nel prossimo numero analizzeremo i contenuti estremamente attuali delle audizioni della commissione, assieme allla proposta di Artificial Intelligence Act. La news sulle attività del Parlamento Europeo sulle tecnologie del digitale e dell’I.A. pubblicata in contemporanea a questo articolo offre un quadro dei documenti prodotti dalla istituzione.15.

  1. il livello mondiale è in rapida crescita, secondo varie proiezioni dai 33 zettabyte del 2018 ai 175 zettabyte nel 2025 (https://www.networkworld.com/article/3325397/idc-expect-175-zettabytes-of-data-worldwide-by-2025.htm; secondo l’DC: https://www.statista.com/statistics/871513/worldwide-data-created. Lo zettabyte corrisponde a 1 seguito da 21 zeri[]
  2. “La presente comunicazione delinea una strategia per le misure politiche e gli investimenti a sostegno dell’economia dei dati per i prossimi cinque anni. La presente strategia per i dati è presentata contemporaneamente alla comunicazione della Commissione “Plasmare il futuro digitale dell’Europa” e a un libro bianco sull’intelligenza artificiale”.[]
  3. Negli Stati Uniti, l’organizzazione dello spazio di dati è affidata al settore privato, con ripercussioni significative in termini di concentrazione. In Cina si assiste a una combinazione tra sorveglianza governativa e forte controllo delle imprese Big Tech su massicce quantità di dati, senza sufficienti garanzie per i cittadini.[]
  4. In alcuni campi, ad esempio per quanto riguarda il settore automobilistico7, i prestatori di servizi di pagamento8, le informazioni sulla misurazione intelligente9, i dati delle reti elettriche10 o i sistemi di trasporto intelligenti11, è stata altresì adottata una normativa settoriale specifica sull’accesso ai dati per affrontare i fallimenti di mercato rilevati.[]
  5. a partire dall’adozione della direttiva 2003/98/CE relativa al riutilizzo dell’informazione del settore pubblico; 19 Direttiva (UE) 2019/1024, che abroga la direttiva 2003/98/CE rivista dalla direttiva 2013/37/UE.[]
  6. la Commissione promuoverà la realizzazione di spazi comuni europei di dati in settori economici strategici e ambiti di interesse pubblico. Tali settori e ambiti sono quelli in cui l’utilizzo dei dati avrà un impatto sistemico sull’intero ecosistema, ma anche sui cittadini.[]
  7. https://digital-strategy.ec.europa.eu/en/policies/digital-services-act-package.[]
  8. https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/digital-markets-act-ensuring-fair-and-open-digital-markets_en.[]
  9. Bruxelles, 19.2.2020 COM(2020) 65 final LIBRO BIANCO sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia.[]
  10. Comunicazione della Commissione: Creare fiducia nell’intelligenza artificiale antropocentrica Bruxelles, 8.4.2019 COM(2019) 168 final.[]
  11. https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai.[]
  12. COM(2018) 237 final, pag. 1: “Intelligenza artificiale (IA) indica sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi. I sistemi basati sull’IA possono consistere solo in software che agiscono nel mondo virtuale (ad esempio assistenti vocali, software per l’analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale), oppure incorporare l’IA in dispositivi hardware (per esempio in robot avanzati, auto a guida autonoma, droni o applicazioni dell’Internet delle cose).[]
  13. P9_TA(2021)0009 Artificial intelligence: questions of interpretation and application of international law. European Parliament resolution of 20 January 2021 on artificial intelligence: questions of interpretation and application of international law in so far as the EU is affected in the areas of civil and military uses and of state authority outside the scope of criminal justice (2020/2013(INI[]
  14. https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence-artificial-intelligence – pubblicata il 21 aprile 2021 []
  15. vedi Intelligenza Artificiale.[]
, , ,
La beffa della sanatoria
La riscoperta e il rilancio del Pilastro Europeo dei Diritti Sociali

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Compila questo campo
Compila questo campo
Inserisci un indirizzo email valido.

Menu