articoli

L’Intelligenza Artificiale, concentrazione inevitabile del potere o rivoluzione globale

di Roberto
Rosso

Una domanda corre sui media, emerge nel dibattito pubblico, vale a dire se siamo in grado di controllare le prestazioni dei dispositivi, degli algoritmi di Intelligenza Artificiale oppure sempre più essi sono destinati ad intervenire nelle relazioni sociali, nei processi di comunicazione, di produzione e riproduzione sociale, determinandone i percorsi e gli esiti. In ambedue i casi quali sono i soggetti capaci se non di controllare del tutto o in parte la penetrazione sempre più pervasiva dei dispositivi di I.A.  di ricavarne un profitto ed una posizione di potere nelle nostre società?

Lo sviluppo esponenziale delle prestazioni dei Large Language Modules (LLM), fondati sulla tecnologia delle reti neurali del Deep Learning, ha riproposto e dato forza a interrogativi già suscitati dalla pervasività dei social network, dalla loro capacità di raccogliere informazioni sulle relazioni di centinaia di milioni se non di miliardi di persone, di produrre derive nei comportamenti, nelle opinioni, nelle relazioni di queste masse sterminate di utenti, di costruire basi di conoscenza superiori a quelli di qualsiasi altro apparato pubblico o privato, in grado di far crescere in modo esponenziale il proprio potere finanziario.

I poteri pubblici hanno reagito in vario modo a questo straordinaria crescita di nuovi poteri nella società. In Europa sono stati approvati dal Parlamento Europeo -dopo aver completato il tragitto attraverso le istituzioni europee- due provvedimenti fondamentali 1il Digital markets Act2 (DMA) ed il Digital Services ACT3 (DSA). I

l primo, che entrerà in vigore a maggio di quest’anno, stabilisce una serie di criteri oggettivi strettamente definiti e vincolanti per qualificare una grande piattaforma online come un cosiddetto “gatekeeper”. Ciò consente alla DMA di rimanere ben mirata al problema che intende affrontare per quanto riguarda le grandi piattaforme online sistemiche.

Gli obiettivi dichiarati per il secondo, che è entrato in vigore il 16 novembre 2022, sono i seguenti.                 Le nuove norme sono proporzionate, promuovono l’innovazione, la crescita e la competitività e facilitano l’espansione delle piattaforme più piccole, delle PMI e delle start-up. Le responsabilità degli utenti, delle piattaforme e delle autorità pubbliche sono riequilibrate secondo i valori europei, ponendo i cittadini al centro. Le regole

  • Proteggere meglio i consumatori e i loro diritti fondamentali online
  • Stabilire una forte trasparenza e un chiaro quadro di responsabilità per le piattaforme online
  • Promuovere l’innovazione, la crescita e la competitività all’interno del mercato unico

Il problema che si pone nel tentativo di definire e attuare questa regolazione è quello di non far entrare in contraddizione lo sviluppo di nuovi soggetti in grado di imporsi sui mercati, di promuovere un processo di costante innovazione tecnologica, con la necessità di penetrare, pervadere, influenzare e controllare la presa di questi soggetti sui processi di riproduzione sociale. La contraddizione è forte per l’Unione Europea che fa i conti con società statunitensi o cinesi, dove non sono nate società di dimensioni paragonabili; quindi è evidente l’esigenza di promuovere lo sviluppo di grandi soggetti europei in gradi di competere sul piano globale. D’altra parte lo sviluppo tecnologico, la diffusione degli apparati che si pretende di regolare, ha un carattere travolgente, come testimonia nel DMA il punto 30.

 

La natura tecnologica molto complessa e in rapida evoluzione dei servizi di piattaforma di base richiede un riesame periodico dello status dei gatekeeper, compresi quelli di cui si prevede che acquisiranno nel prossimo futuro una posizione consolidata e duratura nell’ambito delle loro attività. Per fornire a tutti i partecipanti al mercato, compresi i gatekeeper, la necessaria certezza quanto agli obblighi giuridici applicabili, è necessario un limite temporale per i suddetti riesami periodici. È altresì importante effettuare tali riesami su base periodica e almeno ogni tre anni. Inoltre, è importante chiarire che non tutti i cambiamenti dei fatti in base ai quali un’impresa che fornisce servizi di piattaforma di base è stata designata come gatekeeper dovrebbero comportare una modifica della decisione di designazione. La modifica sarà necessaria solo se i cambiamenti dei fatti comportano anche un cambiamento della valutazione. È opportuno valutare caso per caso i fatti e le circostanze per stabilire l’eventuale necessità di una modifica.”

Ci possiamo solo immaginare la straordinarietà dell’attività di controllo a fronte della complessità della struttura, delle tecnologie e delle prestazioni dei dispositivi digitali in perenne trasformazione, di cui la trasparenza non è certo la qualità più evidente. Una sorta di analisi di rischio di tutti i dispositivi digitali, diffusi nel corpo sociale, in grado di estrarne moli crescenti di informazioni e di influenzarne il comportamento.

L’uso delle tecnologie di Intelligenza Artificiale è sotteso alla gestione dei network sociali, al governo dei loro flussi informativi, ne è una componente necessaria assieme ad una potenza di calcolo crescente, collocate in server farm composte da centinaia di migliaia di server, la cosiddetta struttura CLOUD; la ‘nuvola’ assieme astratta e concretissima in cui si colloca tutta l’elaborazione che sorregge l’interazione di miliardi di soggetti, in ogni angolo del mondo. Alla potenza di calcolo si affianca la diffusione capillare della rete di comunicazione a cui sono connessi miliardi di telefoni cellulari e smartphone in ogni angolo del globo, da cui principalmente interagiscono le persone.

Le tecnologie di I.A., il deep learning in particolare, non sono al cuore delle due direttive citate, nondimeno le istituzioni europee, con i loro esperti, stanno dotandosi di strumenti conoscitivi e si pongono le basi per una regolazione esplicita dell’uso della I.A.; lo sviluppo di queste normative è certamente più avanzato negli USA, dove si colloca il polo di sviluppo più avanzato. In Cina lo stato, mentre promuove lo sviluppo delle tecnologie digitali in generale e dell’I.A. in particolare, mantiene un controllo ferreo sulle traiettorie di sviluppo e sul potere dei soggetti privati che controllano il mercato, i ‘Gatekeepers’ locali, alterando un regime di massima libertà che favorisce la selezione e la crescita dei soggetti dominati con la ripresa di controllo sui loro comportamenti e margini di azione da parte dello stato.

A febbraio del 2020 è stata prodotta dalla Commissione Europea la Relazione della Commissione al Parlamento Europeo, al Consiglio e al Comitato Economico e Sociale Europeo – Relazione sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e di responsabilità.

Negli USA è stata avviata la National AI Initiative Act of 2020 – NAIIA4.

Nel contesto del NAIIA  Il congresso USA ha creato la National Artificial Intelligence Research Resource (NAIRR), Task Force, affidandole il compito di “esaminare la fattibilità e l’opportunità di istituire e sostenere la NAIRR e proporre una tabella di marcia che specifichi come l’iniziativa dovrebbe essere istituita e sostenuta. La task force a gennaio di quest’anno ha consegnato un report al presidente ed al congresso ‘NAIRR Task Force Strengthening and Democratizing the U.S. Artificial Intelligence Innovation Ecosystem: An Implementation Plan for a National Artificial Intelligence Research Resource’ – https://www.ai.gov/wp-content/uploads/2023/01/NAIRR-TF-Final-Report-2023.pdf  ))

La Cina, mentre investe pesantemente nelle tecnologie di I.A. contemporaneamente cerca di tenerne sotto controllo lo sviluppo, i rischi che ne possono derivare5; lo sviluppo dell’ I.A. è una componente fondamentale della competizione globale, d’altra parte per il sistema politico cinese l’alto grado di opacità nel funzionamento dei dispositivi di I.A. e contemporaneamente l’espandersi del loro campo applicativo, dei LLM in particolare nelle attività di relazione, di condivisione di conoscenze, di enunciati dall’elaborazione dei contenuti do gigantesche basi di conoscenza disponibili sulla rete, ed anche i bias, i risultati inaspettati e scorretti dal punto di vista dell’autorità di controllo, dei depositari dell’ortodossia nei diversi campi, costituiscono un fattore di instabilità più rilevante, più difficile da controllare della produzione di post nei social networks che possiamo definire come tradizionali.

Il dato incontrovertibile è la crescita delle risorse necessarie allo sviluppo tecnologico dell’I.A. in termini finanziari, di risorse professionali, di organizzazione e potenza di calcolo; per quest’ultima ci si aspetta una concentrazione delle strutture disponibili sull’I.A.

Il rapporto tra Microsoft con OpenAi. è l’esempio più eclatante, in un crescendo che dal 2019 arriva all’ultimo investimento di 10 miliardi di dollari nel gennaio di del 2023, mentre le applicazioni di OpenAi ‘girano’ su Azure, il cloud di Microsoft, che con questa alleanza mira a sparigliare il gioco competitivo che h visto come protagonisti i social networks ed i motori di ricerca, Google in primis.

Le prestazioni dei LLM, destinate a crescere esponenzialmente grazie ad una mole di investimenti crescenti nel contesto di una concorrenza globale, suscitano legittime domande per la possibilità di sostituire il lavoro umano in tutte quelle funzioni e profili professionali che implicano la raccolta, trattamento e trasmissione di informazione, nella forma del linguaggio umano, ma non solo, ciò che viene messo in discussione è la vera e propria trasmissione di conoscenza. Le prestazioni sono basate sulla capacità di trattare il patrimonio informativo accumulato in rete, rappresenta una sorta di rielaborazione costante di questo passato, più che una rielaborazione una riproposizione.

In una intervista alla rivista del Centro di Riforma dello Stato6 Stefano Quintarelli coglie il punto nodale della forma di conoscenza che i LLL propongono, che vale la pena di riproporre.

“Quando salviamo una immagine digitale, noi decidiamo il livello di compressione e quando successivamente ingrandiamo l’immagine ci accorgiamo, ad esempio, che i bordi non sono netti. I sistemi come ChatGPT sono un po’ così, prendono una immagine linguistica, ne tirano fuori un modello, che è come una “compressione” del testo e quindi perde dettagli; quando zoomano al suo interno si scopre che ci sono degli artefatti, che le cose non sono giuste. Se io chiedo a ChatGPT di produrre la favola di una principessa e di un metalmeccanico che sconfiggono un drago sottomarino, mi scrive una bellissima storia. Se io gli chiedo chi è Stefano Quintarelli – e glielo chiedo con o senza un accento o un punto di domanda – ottengo risposte assolutamente bizzarre perché sto andando a zoomare su un dettaglio.

Queste conseguenze sono insite in questo tipo di tecnologie, e ne limitano moltissimo gli ambiti applicativi. È uno strumento potente di espansione delle nostre facoltà nella produzione di testi, ma non ci evita di dover mettere comunque mano ai testi.”

Vedi effetti sociali diversi da quelli che abbiamo imparato a conoscere e anche a denunciare negli ultimi anni?

“No, sono gli stessi. Ma il problema è che sono ancora troppo pochi quelli che ne hanno consapevolezza. Adesso le persone cominciano a considerare che non ti puoi fidare di qualunque cosa leggi su Google o su Twitter. Hanno imparato a non fidarsi del tutto. Ma con sistemi come ChatGPT sarà sempre più difficile, perché le storie prodotte sono molto più credibili, perché sono sintatticamente fatte molto bene e vengono prodotte in massa sulla base del profilo della persona. Il livello di sofisticazione della “non realtà” è molto alto e passerà molto tempo prima che le persone capiscano che non si possono fidare.

La conseguenza sarà che nel medio periodo diventerà più importante il mezzo, che diventa lo strumento di certificazione. Non potendo distinguere tra vero e non vero, tra irreale e reale, dovrò avere fiducia in chi me lo dice.”

Ormai da decenni la crescita delle tecnologie digitali, di trattamento, trasmissione e condivisione dell’informazione hanno trasformato il modo di produrre e condividere conoscenza, rivoluzionando a più riprese l’organizzazione del lavoro. Queste ondate trasformative hanno operato globalmente rimodellando la mappa globale dei flussi e dei luoghi, le gerarchie ed i rapporti di forza. Non solo la forma del lavoro, i livelli di reddito, la qualità della vita, vengono trasformate tutte le coordinate che determinano il grado di soggettività, capacità di critica, di produrre conflitto o al contrario sprofondare nella incapacità di conoscere criticare il reale stato delle cose presenti, costruendo una rappresentazione fantasmatica della realtà.

Il paradosso sta nella straordinaria quantità di risorse necessarie a produrre prestazioni che non sono in grado nemmeno di approssimare le capacità del complesso cervello umano, capace di riorganizzarsi costantemente in funzione dei compiti che è chiamato a svolgere, con un consumo energetico risibile rispetto all’apparato che sorregge l’I.A.  Continuare ad imparare ad apprendere, capacità di mutare punto di vista, di riorganizzare completamente i propri modelli del mondo sono alcuni dei caratteri fondati l’intelligenza umana.

La capacità di conoscere, è capacità di modificare il proprio rapporto col mondo di trasformarlo, ciò che chiamiamo tecnologa costituisce la mediazione sempre più complessa nel rapporto individuale e collettivo con il mondo in cui viviamo. Riprendo qui i miei appunti sull’intervento, già citato nel precedente articolo, di Teresa Numerico alla conferenza sull’I.A.

Noi viviamo, ci esprimiamo attraverso le tecnologie, il nostro immaginario è legato alle tecnologie, ovvero un immaginario che indirizzi le tecnologie. Come non farsi egemonizzare dalla Silicon Valley, per i fragili ci deve essere possibilità, ma non solo ricchezza vs ottimizzazione, efficienza, in base a quali criteri? Il sapiens risponde bene grazie al pluralismo, dobbiamo pensare alla tecno-diversità, pluralità di visioni.

La capacità d conoscere è una facoltà individuale, possibile solo nel contesto e in relazione, interagendo in una comunità umana, è un prodotto sociale, ovviamente Lo sviluppo tecnologico, con le tecnologie digitale a supporto di tutti gli strati della tecnologia complessiva, ha prodotto un rapporto squilibrato con il mondo della vita globale, con il contesto ambientale e climatico, ma non solo. Il digitale sta stravolgendo il mondo interiore dei singoli, delle comunità dell’umanità. La crisi climatica è la sintesi concreta degli questa evoluzione, propone un orizzonte catastrofico che richiede il rimescolamento di tutte le carte, il cambiamento di tutte le regole del gioco. Costituisce assieme il contesto e l’orizzonte concreto della condizione presente e futura dell’umanità e metafora di tute le trasformazioni in atto. La mediazione digitale nella creazione/condivisione della conoscenza, nella definizione dei processi decisionali, mette in gioco la capacità soggettiva di reagire, di prendere decisioni strategiche ne contesto che abbiamo definito di crisi globali intrecciate tra loro, che producono effetti sinergici, la cui complessità diventa imprevedibile già nel breve/medio periodo.

In questo momento, l’I.A, che si era espressa come applicazione fortemente specializzate, sia pure con l’obiettivo di riprodurre comportamenti complessi e varabili, non governabili da semplici algoritmi ripetitivi per quanto articolati e stratificati, il deep learning in particolare, viene applicata, orientata verso compiti generalisti, con l’ambizione di produrre una mediazione con le informazioni storicamente prodotte e registrate digitalmente. Possiamo intravvedere il verificarsi di una vera e propria cesura nella modalità di produzione e accesso alla conoscenza, nel costituirsi di un sistema di oracoli a cui rivolgersi. Si va a creare una condizione che esalta le differenze, le diverse capacità di elaborare autonomamente conoscenza, in base alle risorse culturali acquisite, ai tempi e ai modi con cui si produce la propria conoscenza.

Il processo di produzione delle tecnologie dell’I.A. di trattamento di dati, informazioni, di intermediare la produzione e condivisione delle conoscenze è del tutto interno ad un processo continuo di diversificazione, innovazione concentrazione finale dei poteri tecnologici, economici e finanziari. L’aumento delle risorse necessarie a garantire lo sviluppo esponenziale delle prestazioni dell’I.A. rende assai problematico la riproduzione degli ‘esperimenti’ che si aggiunge al carattere di non trasparenza delle prestazioni dei dispositivi7.

Quintarelli, nell’intervista già citata fa in proposito delle osservazioni pertinenti.

Auspichi un CERN della IA che renda disponibile alle aziende quantità di dati e capacità di calcolo adeguati. Ma anche le applicazioni della IA avranno conseguenze sociali? Ti rispondo con un esempio. Se tu sei un medico e usi un sistema di intelligenza artificiale per fare una diagnosi e sei in disaccordo con quello che ti suggerisce il sistema hai comunque un incentivo a uniformarti alla diagnosi del sistema, perché se poi il tuo paziente muore puoi dire che anche il sistema di IA aveva confermato la tua analisi. Viceversa, se tu, essendo in disaccordo col sistema, privilegi la tua opinione e non confermi la diagnosi della IA, e poi il paziente muore per la tua diagnosi sbagliata, ti imputeranno di aver perseverato nella tua idea anche se il sistema aveva formulato una diagnosi diversa. Questo è un incentivo a diminuire la centralità umana nella decisione. E in alcuni ambiti questo può essere pericoloso. Come si fa a diminuire questa conseguenza sociale negativa nell’uso della IA? Bisogna progettare il sistema in modo tale che, quando formula una predizione, ogni tanto, casualmente, la predizione viene cambiata di segno.”

Abbiamo conosciuto la straordinaria concentrazione di potere che la nascita dei social networks, la sviluppo delle reti di comunicazione basate sui cellulari e gli smartphones, l’evoluzione connessa dei dispositivi personali dai computer portatili, ai tablet sino a smartphones sempre più potenti e versatili; sviluppo che peraltro si è fondato, come già detto, sulla capacità di sussumere la potenza creativa e collaborativa dell’open source, nelle sue varie declinazioni. La stessa cosa sta accadendo e accadrà, per cui se è vero che vi sono forme e reti digitali collaborative per lo sviluppo aperto dell’I.A. , in un contesto di economia capitalista -che resta tale anche quando è fortemente tenuta sotto controllo dallo stato come  in Cina- la parola dell’open source è destinata a ripetersi se non si afferma  carattere strategico, di bene comune, caratterizzato da un fortissimo intervento pubblico, finalizzato non ha sostenere lo sviluppo oligopolistico delle nuove tecnologie, ma a valorizzarlo in quanto bene comune, in quanto strumento fondamentale per l’affrontamento delle crisi che caratterizzano il momento presente.

In buona sostanza una rivoluzione rispetto a come le cose si stanno evolvendo. La situazione europea totalmente dipendente da quanto si sta producendo in Cina e negli Stati Uniti, richiederebbe la creazione di un movimento a livello continentale in grado di promuovere una iniziativa pubblica delle istituzioni europee e nazionali -stante l’attuale organizzazione dell’Unione Europea.

E’ del tutto evidente come la questione climatica, quella sociale – intesa come organizzazione e retribuzione del lavoro, distribuzione della ricchezza, garanzia di reddito e servizi – e quella della conoscenza, della sua produzione e condivisione, del libero accesso ad essa garantito ad ogni soggetto individuale o collettivo, siano inestricabilmente connesse, entro un orizzonte comune di rivoluzione sociale complessiva, di cui peraltro non possediamo modelli, la cui pratica è assieme contenuto e strumento del processo di trasformazione necessario, se vogliamo liberarci delle catene che imbrigliano gran  parte dell’umanità e se vogliamo che l’umanità affronti quegli orizzonti catastrofici ravvicinati, quelle porte strette  che solo una minima parte di essa potrà attraversare, stanti così le cose, uscendone per così dire in buone condizioni e magari arricchita.

Il dibattito allora su una moratoria possibile e auspicata da molti imposta allo sviluppo delle tecnologie di I.A. dei LLL in particolare- di cui l’intervista sulla repubblica all’astrofisico Battiston8, espone alcune buone ragioni- assume tuttaltro significato, laddove il problema e la soluzione non sono i 6 mesi o più di moratoria, ma riconsiderazione dei rapporti sociali, dei rapporti di forza che determinano l’evoluzione dell’I.A. e dialetticamente questa è destinata ad incidere sulla concentrazione del potere e della ricchezza, sulla capacità di produrre un agire strategico condiviso nei confronti delle crisi globali.

È un pensiero ed un agire complessi, articolati nella loro composizione soggettiva che deve essere messo in campo. Riprendendo il tema delle ontologie, come strumento per descrivere la realtà, nella consapevolezza che esite una ontologia, in altri termini, una descrizione unica del mondo da cui far discendere un modello di conoscenza universale, certo abbiamo bisogno di una definizione di piani della realtà, con la loro organizzazione, sia pure in evoluzione, di oggetti e relazioni, con cui capirci; se le ontologie nella società del digitale sono al servizio della costruzione di algoritmi per controllare e automatizzare processi, sociali e materiali, sulla base della mappa di oggetti e relazioni che le ontologie offrono, in un processo di liberazione l’esplicitazione di modelli del mondo, per quanto provvisori, costituiscono uno strumento fondamentale di critica dell’esistente, un strumento per svelare i meccanismi di estrazione automatica di un punto di vista dalle informazione, accumulate e codificate nel tempo nel pluriverso digitale.

Nella conferenza sull’I.A.  si è prospettato l’uso diffuso delle tecnologie del computer quantico entro una quindicina d’anni, questa ipotesi non fa che aggiungere un tassello ulteriore alla descrizione di quanto sta avvenendo e quanto si prospetta in un lasso di tempo che è già domani. Se un mondo di diseguaglianze accresciute si prospetta come sito di una trasformazione che concentra potere e ricchezza, la dimensione globale delle diseguaglianze, anche di fronte al cambiamento climatico, si manifesta nei flussi migratori, le cui cause sono destinate ad accentuarsi. Se l’orizzonte ed il contesto sono quelli sommariamente sopra descritti è del tutto evidente una oggettiva convergenza di interessi – detto volgarmente – tra gli abitanti del mondo più sviluppato e chi dal sud globale preme sui confini del mondo più ricco e sviluppato. Non è certo semplice creare una coalizione tra chi nel settore  bancario e in altri settori rivendica una riduzione dell’orario di lavoro e chi cerca il proprio futuro attraversando su un barcone il mediterraneo; in realtà i bisogni oggettivi, se così li vogliamo definire, sono molto più prossimi di quanto sembri e traspaiono nell’evoluzione delle nostre società, se ne consideriamo tutte le dimensioni, in cui si connettono l’evoluzione tecnologica, la crisi climatica e ambientale, il gelo demografico, la crescita delle diseguaglianze, l’incertezza del futuro su cui incombono crisi economiche e finanziarie, obsolescenza di interi settori produttivi, trasformazione dei ruoli lavorativi entro una mutevole divisione del lavoro, per darne una descrizione sommaria.

Ancora una volta, ci troviamo a scoprire la necessità di una rivoluzione culturale nei processi di lotta sociale e di liberazione a tutti i livelli; vale la pena ripetere quanto detto più sopra e cioè è necessario definire, approssimare un orizzonte comune di rivoluzione sociale complessiva, di cui peraltro non possediamo modelli, ma solo una coscienza ed una conoscenza storica dell’evoluzione delle sue forme, contenuti e valori , la cui pratica è assieme contenuto e strumento del processo di trasformazione necessario, se vogliamo liberarci delle catene che imbrigliano gran  parte dell’umanità e se vogliamo che l’umanità affronti  realmente gli orizzonti catastrofici ravvicinati, che solo una minima parte di essa potrà sperimentare uscendone garantita in tutte le sue possibilità di vita ed espressione.

Roberto Rosso

  1.    https://www.europarl.europa.eu/news/en/headlines/society/20211209STO19124/eu-digital-markets-act-and-digital-services-act-explained?&at_campaign=20234-Digital&at_medium=Google_Ads&at_platform=Search&at_creation=RSA&at_goal=TR_G&at_audience=digital%20services%20act&at_topic=DMA_DSA&at_location=IT&gclid=Cj0KCQjwxMmhBhDJARIsANFGOStxQW2NwMKeH_ybqyIf75d8wuLaBmHIUPn80WDSu2Hvoi2PuTtEQHIaAnRiEALw_wcB    []
  2. https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-markets-act-ensuring-fair-and-open-digital-markets_en  []
  3.   https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act-ensuring-safe-and-accountable-online-environment_en []
  4. https://www.ai.gov/

    (a) ESTABLISHMENT; PURPOSES. -The President shall establish and implement an initiative to be known as the ‘‘National Artificial Intelligence Initiative’’. The purposes of the Initiative shall be to—

    (1) ensure continued United States leadership in artificial intelligence research and development;

    (2) lead the world in the development and use of trustworthy artificial intelligence systems in the public and private sectors;

    (3) prepare the present and future United States workforce for the integration of artificial intelligence systems across all sectors of the economy and society; and

    (4) coordinate ongoing artificial intelligence research, development, and demonstration activities among the civilian agencies, the Department of Defense and the Intelligence

    Community to ensure that each informs the work of the others

    Vedi anche https://datacoalition.org/  il documento che illustra la struttura  della National AI Initiative Act of 2020[]

  5.   https://www.cnbc.com/2023/02/07/baidu-shares-leaps-as-it-reveals-plan-for-chatgpt-style-ernie-bot.html  http://research.baidu.com/  https://intl.cloud.baidu.com/    https://www.reuters.com/technology/alibaba-unveils-tongyi-qianwen-an-ai-model-similar-gpt-2023-04-11/

    https://www.ilsole24ore.com/art/la-cina-progetta-misure-gestire-servizi-intelligenza-artificiale-generativa-AECnj3FD []

  6. https://centroriformastato.it/non-ce-crisi-tecnologica-nella-silicon-valley/  []
  7.   https://www.technologyreview.com/2020/11/12/1011944/artificial-intelligence-replication-crisis-science-big-tech-google-deepmind-facebook-openai/

    AI already suffers from the black-box problem: it can be impossible to say exactly how or why a machine-learning model produces the results it does. A lack of transparency in research makes things worse. Large models need as many eyes on them as possible, more people testing them and figuring out what makes them tick. This is how we make AI in health care safer, AI in policing more fair, and chatbots less hateful. (…)

    To take one example, training the language generator GPT-3 is estimated to have cost OpenAI $10 to $12 million—and that’s just the final model, not including the cost of developing and training its prototypes. “You could probably multiply that figure by at least one or two orders of magnitude,” says Benaich, who is founder of Air Street Capital, a VC firm that invests in AI startups. Only a tiny handful of big tech firms can afford to do that kind of work, he says: “Nobody else can just throw vast budgets at these experiments.”

    (…) One thing that stops AI experiments from being replicated is a lack of access to the code. According to the 2020 State of AI report, a well-vetted annual analysis of the field by investors Nathan Benaich and Ian Hogarth, only 15% of AI studies share their code. Industry researchers are bigger offenders than those affiliated with universities. In particular, the report calls out OpenAI and DeepMind for keeping code under wraps. []

  8.   https://www.repubblica.it/cronaca/2023/04/04/news/intelligenza_artificiale_lastrofisico_battiston_ecco_perche_ho_firmato_la_moratoria_chiesta_da_musk_per_chatgtp-394832637/?ref=RHLF-BG-I394837070-P7-S2-T1   []
Crisi Climatica, digitale, potere, rivoluzione
Articolo precedente
Venticinque anni dopo. L’eredità del conflitto e del processo di pace nell’Irlanda del Nord
Articolo successivo
L’Unione Europea sospesa tra “vassallaggio” agli USA e “autonomia strategica”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Compila questo campo
Compila questo campo
Inserisci un indirizzo email valido.