Riportiamo la traduzione di una lettera sulla proposta di legge europea sull’IA –
Gentile Signor MACRON, gentile Signora MELONI, gentile Signor SCHOLZ,
(e per conoscenza a Sig.ra Ursula VON DER LEYEN, Presidente della Commissione europea; Sig.ra Roberta METSOLA, Presidente del Parlamento europeo; Sig. Pedro SANCHEZ, Presidente del governo spagnolo; Sig. Thierry BRETON, commissario europeo per il mercato interno; Dragoş TUDORACHE, eurodeputato, correlatore per la legge sull’AI, Parlamento europeo; Sig. Brando BENIFEI, eurodeputato, correlatore per la legge sull’AI, Parlamento europeo)
Ci troviamo in un momento critico nel corso della vita della proposta di legge sull’IA. Nella fase del trilogo, questo regolamento è minacciato a causa di quello che crediamo sia un rifiuto fuorviante, da parte dei rappresentanti dei vostri governi, a favore dell’autoregolamentazione da parte delle aziende che implementano modelli di intelligenza artificiale fondamentali (come ChatGpt e Bard).
Ciò significa che queste aziende dovrebbero aderire ai propri codici di condotta, anziché essere regolate direttamente da organismi ufficiali. Il cambiamento di approccio ritarda l’approvazione della legge sull’AI, in particolare con le prossime elezioni del Parlamento europeo a giugno. In modo ancora più critico, potrebbe comprometterne l’efficacia e comportare gravi rischi per i diritti dei cittadini europei e per l’innovazione europea. Contro un approccio di autoregolamentazione, esortiamo tutte le parti coinvolte nel trilogo ad approvare la legge sull’AI il prima possibile. Di seguito vengono delineate tre ragioni principali a sostegno dell’approvazione della legge sull’AI nella sua forma originaria.
Le aziende non dovrebbero stabilire le regole da sole.
I codici di condotta, anche quando obbligatori, sono insufficienti e spesso inefficaci. Quando le aziende si autoregolamentano, possono dare priorità ai propri profitti rispetto alla sicurezza pubblica e alle preoccupazioni etiche. Non è inoltre chiaro chi controllerà lo sviluppo e l’applicazione di questi codici di condotta, come e con quale grado di responsabilità. Questo approccio premia le aziende che scommettono non investendo tempo e risorse in codici di condotta robusti, a scapito di coloro che li rispettano.
Questo è anche un disservizio per il settore dell’intelligenza artificiale in quanto lascia le aziende a chiedersi se i loro prodotti e servizi saranno ammessi sul mercato e se c’è il rischio di dover affrontare multe dopo la commercializzazione. Potrebbe essere necessario correggere le incertezze con norme dirette dopo l’approvazione della legge, limitando così il dibattito parlamentare. Infine, se ogni azienda o settore stabilisce le proprie regole, può emergere solo un confuso mosaico di standard, che aumenta l’onere della supervisione per l’ente regolatore ma rende anche più costoso per le aziende conformarsi agli standard, ostacolando così sia l’innovazione che la conformità. Ciò va contro uno degli obiettivi fondamentali della legge sull’intelligenza artificiale, ovvero armonizzare gli standard in tutta l’UE.
La leadership dell’UE nella regolamentazione dell’IA
L’attuale resistenza da parte di Francia, Italia e Germania riguardo alle normative per i modelli fondamentali dell’IA mette a rischio la leadership dell’UE nella regolamentazione dell’IA. L’UE è stata all’avanguardia, sostenendo norme che garantiscano che la tecnologia sia sicura ed equa per tutti. Ma questo vantaggio potrebbe andare perso se le rimanenti sfide normative non verranno affrontate rapidamente e con successo. Un’UE indecisa perderà il suo vantaggio competitivo a favore di paesi come gli Stati Uniti e la Cina.
I cittadini europei rischiano di utilizzare prodotti di intelligenza artificiale regolati secondo valori e programmi non allineati ai principi europei.
I costi di non possedere regole per l’intelligenza artificiale
Ritardare la regolamentazione dell’IA comporta costi significativi. Senza regole comuni, i cittadini sono vulnerabili alle applicazioni dell’intelligenza artificiale che non servono l’interesse pubblico. Questa mancanza di regolamentazione apre la porta a potenziali usi impropri e abusi delle tecnologie di intelligenza artificiale. Le conseguenze sono gravi e comprendono violazioni della privacy, pregiudizi, discriminazioni e minacce alla sicurezza nazionale in aree critiche come l’assistenza sanitaria, i trasporti e le forze dell’ordine. Dal punto di vista economico, le applicazioni di intelligenza artificiale non regolamentate possono distorcere la concorrenza e le dinamiche del mercato, creando un terreno di gioco ineguale in cui solo le aziende potenti e ben finanziate avranno successo. È un errore pensare che la regolamentazione operi contro l’innovazione: è solo attraverso la regolamentazione e quindi una concorrenza leale che l’innovazione può prosperare, a vantaggio dei mercati, delle società e dell’ambiente. Una maggiore innovazione è possibile solo attraverso una migliore regolamentazione.
In conclusione, l’AI Act è più di una semplice legge. È una dichiarazione su quali valori noi, come europei, vogliamo promuovere e quale tipo di società desideriamo costruire. Implementa e sostiene ulteriormente l’identità e la reputazione dell’UE. Evidenzia la credibilità e il ruolo di leadership dell’UE nella comunità mondiale dell’IA.
Per tutti questi motivi – cinque anni dopo la pubblicazione del Quadro etico per una buona società dell’intelligenza artificiale di AI4People che ha guidato il lavoro iniziale del Gruppo di alto livello sull’IA della Commissione europea – esortiamo le istituzioni dell’UE e gli Stati membri a trovare un compromesso che preservi l’integrità e l’ambizione della legge sull’AI. Lasciamo che questa legislazione sia un faro di governance responsabile ed etica dell’IA, stabilendo un esempio globale da seguire per gli altri.
Cordiali saluti,
Luciano FLORIDI Direttore Fondatore Digital Ethics Center, Presidente della Yale University, Atomium-EISMD
Michelangelo BARACCHI BONVICINI Primo Presidente del Comitato Scientifico, Istituto AI4People; Presidente dell’Istituto AI4People
Cofirmato da (in ordine alfabetico):
Prof Raja CHATILA, Professore Emerito di Intelligenza Artificiale, Robotica ed Etica Informatica Università della Sorbona
Sig. Patrice CHAZERAND, Direttore Affari pubblici, AI4People Institute, ex Direttore Affari pubblici Digital Europe
Prof. Donald COMBS, Vice Presidente e Preside, School of Health Professions Eastern Virginia Medical School
Dott.ssa Bianca DE TEFFE’ ERB, Direttore dell’etica dei dati e dell’intelligenza artificiale, Deloitte
Prof. Virginia DIGNUM, Professore di Intelligenza Artificiale; Responsabile, Università di Umeå; Membro del comitato consultivo di alto livello delle Nazioni Unite sull’intelligenza artificiale
Dott. Rónán KENNEDY, Professore Associato, Facoltà di Giurisprudenza, Università di Galway
Dott. Robert MADELIN, Presidente del comitato consultivo dell’Istituto AI4People
Dott. Claudio NOVELLI, Assegnista di ricerca post-dottorato, Dipartimento di Studi Giuridici, Università di Bologna; Fellow internazionale presso il Digital Ethics Center (DEC), Yale University
Prof Burkhard SCHAFER, Professore di teoria giuridica computazionale, Università di Edimburgo
Prof Afzal SIDDIQUI, Professore presso il Dipartimento di Scienze informatiche e dei sistemi, Università di Stoccolma
Prof.ssa Sarah SPIEKERMANN, presidente dell’Istituto per IS & Society, Università di Economia e Commercio di Vienna
Prof Ugo PAGALLO, Professore Ordinario di Giurisprudenza, Teoria Giuridica e Informatica Giuridica presso il Dipartimento di Giurisprudenza, Università di Torino
Prof Cory ROBINSON, Professore di Design della Comunicazione e Sistemi Informativi Università di Linköping
Prof.ssa Elisabeth STAUDEGGER, professoressa di informatica giuridica e diritto informatico, responsabile del dipartimento giuridico e informatico presso l’Istituto per i fondamenti giuridici, Università di Graz
Prof. Mariarosaria TADDEO, Professore di Etica Digitale e Tecnologie di Difesa, Oxford Internet Institute, Università di Oxford
Prof. Peggy VALCKE, Professore ordinario di diritto e tecnologia alla KU Leuven e vicepreside per la ricerca presso la Facoltà di diritto e criminologia di Lovanio
Dear Mr MACRON, dear Mrs MELONI, dear Mr SCHOLZ,
(and CC: to Mrs Ursula VON DER LEYEN, President of the European Commission; Mrs Roberta METSOLA, President of the European Parliament; Mr Pedro SANCHEZ, President of the Government of Spain; Mr Thierry BRETON, European Commissioner for Internal Market; Mr Dragoş TUDORACHE, MEP, Co-rapporteur for the AI Act, European Parliament; Mr Brando BENIFEI, MEP, Co-rapporteur for the AI Act, European Parliament)
We are at a critical juncture in the lifespan of the proposed AI Act. In the trilogue phase, this regulation is under threat due to what we believe is a misguided pushback, from representatives of your govenments, in favour of self-regulation by companies that deploy foundational AI models (such as ChatGpt and Bard).
This means these companies should adhere to their own codes of conduct, rather than being directly regulated by official bodies. The change in approach is delaying the AI Act’s approval, particularly with the
upcoming EU Parliament elections in June. More critically, it may undermine its effectiveness and pose severe risks for the rights of European citizens and European innovation. Against a self-regulatory approach, we urge all the parties involved in the trilogue to approve the AI Act as soon as possible. Below,we outline three key reasons to support the approval of the AI Act in its original form.
Companies should not make the rules themselves.
Codes of conduct, even when mandatory, are insufficient and often ineffective. When companies regulate themselves, they may prioritise their profits over public safety and ethical concerns. It is also unclear who will monitor the development and applications of these codes of conduct, how, and with what degree of accountability. This approach rewards the companies that gamble by not investing time and resources in robust codes of conduct, to the detriment of the compliant.
This is also a disservice to the AI industry as it leaves companies wondering whether their products and services will be allowed in the market and whether they may face fines post-marketing. Uncertainties may need to be patched up with direct rules after the Act has already been passed, thus limiting the parliamentary debate. Finally, if each company or sector makes its own rules, only a confusing patchwork of standards can emerge, increasing the burden of supervision for the regulator but also making it more costly for companies to comply with standards, thus hindering both innovation and compliance. This goes against one of the critical goals of the AI Act, which is to harmonise standards across the EU.
The EU leadership in AI regulation
The current resistance from France, Italy and Germany regarding regulations for foundational AI models puts the EU’s leadership in AI regulation at risk. The EU has been at the cutting edge, advocating for regulations that ensure technology is safe and fair for everyone. But this first-move advantage could be lost if the remaining regulatory challenges are not swiftly and successfully addressed. An indecisive EU will ose its competitive edge to countries like the US and China.
European citizens risk using AI products regulated according to values and agendas not aligned with European principles.
The Costs of Not Having Rules for AI
Delaying the regulation of AI comes at significant costs. Without common rules, citizens are vulnerable to AI applications that do not serve the public’s best interest. This lack of regulation opens the door to potential misuse and abuse of AI technologies. The consequences are severe, including privacy violations, bias, discrimination, and threats to national security in critical areas like healthcare, transportation, and law enforcement. Economically, unregulated AI applications can distort competition and market dynamics, creating an uneven playing field where only powerful and well-funded companies will succeed. It is a mistake to think that regulation works against innovation: it is only through regulation and hence fair competition that innovation can flourish, to the benefit of markets, societies, and environments. More innovation is achievable only through better regulation.
In conclusion, the AI Act is more than just a law. It’s a statement about what values we, as Europeans, want to promote, and which kind of society we wish to build. It implements and further supports the EU’s identity and reputation. It highlights the EU’s credibility and leadership role in the worldwide AI community.
For all these reasons – five years after the publication of the AI4People’s Ethical Framework for a Good AI Society which guided the initial work of the High-Level Group on AI of the European Commission – we urge the EU institutions and Member States to find a compromise that preserves the integrity and ambition of the AI Act. Let this legislation be a beacon of responsible and ethical AI governance, setting a global example for others to follow.
Sincerely,
Luciano FLORIDI Founding Director Digital Ethics Center, Yale University; President, Atomium-EISMD
Michelangelo BARACCHI BONVICINI First Chairman Scientific Committee, AI4People Institute; President, AI4People Institute
Co-signed by (in alphabetical order):
Prof Raja CHATILA, Professor Emeritus of Artificial Intelligence, Robotics and IT Ethics Sorbonne University
Mr Patrice CHAZERAND, Director Public Affairs, AI4People Institute, former Director Public Affairs Digital Europe
Prof Donald COMBS, Vice President and Dean, School of Health Professions Eastern Virginia Medical School
Dr Bianca DE TEFFE’ ERB, Data and AI Ethics Director, Deloitte
Prof Virginia DIGNUM, Professor in Responsible Artificial Intelligence, Umeå University; Member of the United Nations High-Level Advisory Board on Artificial Intelligence
Dr Rónán KENNEDY, Associate Professor, School of Law, University of Galway
Dr Robert MADELIN, Chairman Advisory Board AI4People Institute
Dr Claudio NOVELLI, Postdoctoral Research Fellow, Department of Legal Studies, University of Bologna ; International Fellow at the Digital Ethics Center (DEC), Yale University
Prof Burkhard SCHAFER, Professor of Computational Legal Theory, University of Edinburgh
Prof Afzal SIDDIQUI, Professor in the Department of Computer and Systems Sciences, Stockholm University
Prof Sarah SPIEKERMANN, Chair of the Institute for IS & Society, Vienna University of Economics & Business
Prof Ugo PAGALLO, Full Professor of Jurisprudence, Legal Theory, and Legal Informatics at the Department of Law, University of Turin
Prof Cory ROBINSON, Professor in Communication Design & Information Systems Linköping University
Prof Elisabeth STAUDEGGER, Professor of Legal Informatics and IT Law (Information Technology Law), Head of the Legal and IT Department at the Institute for Legal Foundations, University of Graz
Prof Mariarosaria TADDEO, Professor of Digital Ethics and Defence Technologies Oxford Internet Institute, University of Oxford
Prof Peggy VALCKE, Full professor of law & technology at KU Leuven and vice dean for research at the Leuven Faculty of Law & Criminology