Sono di questi giorni due notizie che catturano l’attenzione nel mondo digitale; la prima è l’ondata di licenziamenti nel settore che a partire dalle GAFAM attraversa tutte le società che hanno trasferito on line ogni sorta di servizi commerciali e di intermediazione, la cui fondazione e crescita in borsa era stata spinta dal blocco della mobilità e delle relazioni sociali prodotta dalla pandemia.
La seconda che suscita una attenzione quasi morbosa e molteplici interrogativi è la creazione dei cosiddetti Language Models for Dialogue in particolare ChatGPT di OpenAI con la sua capacità di produrre ogni sorta di testi in risposta ad ogni sorta di quesiti; il libero accesso all’applicazione ha permesso una sperimentazione su vasta scala ed ha aperto un dibattito pubblico, destinato a crescere., seguendo anche l’evoluzione dell’applicazione. Una ricerca su Google da 30.700.000 risultati e come si vede dalle prime pagine della ricerca, le fonti sono le più diverse.
I due fenomeni legano tra di loro un passaggio con serie conseguenze di tipo economico finanziario ed uno legato alla ennesima innovazione tecnologica, per certi versi un vero e proprio salto di qualità, ambedue segnati dal cambiamento di abitudini nell’uso dei servizi digitali online.
Le tecnologie digitali sono pervasive, sono penetrate capillarmente in tutti i gangli della produzione e riproduzione sociale; i servizi offerti sulla rete hanno negli anni modificato le attività finanziarie, logistiche e commerciali, hanno costruito luoghi di relazione e punti di accesso all’informazione per miliardi di persone.
Sulle pagine di questa rivista abbiamo investigato a più riprese la grande trasformazione tecnologica trainata dal digitale che investe la formazione sociale globale ne determina l’evoluzione, le divisioni, la competizione, i rapporti di forza interni.
L’insieme delle reti e dei dispositivi di gestione dell’informazione caratterizzano l’attuale stato dei rapporti sociali di produzione e della loro evoluzione continua, sono lo strumento con cui si affrontano le sue contraddizioni; costituiscono in realtà lo strumento con cui si cerca di governare la complessità crescente dei rapporti sociali essendo al contempo fonte della sua crescita.
La complessità del sociale comprende e sempre di più si alimenta della complessità del vivente la cui riproduzione ed evoluzione viene sempre più manipolata, mentre cresce la necessità di governare l’interazione tra la formazione sociale, i sistemi ecologici ed ambientali in funzione delle rotture indotte in questi ultimi, laddove si affermano più pratiche selettive di adattamento, di accomodamento che una rapida e drastica inversione di tendenza.
Negli ultimi due articoli precedenti a questo si ritrovano alcune considerazioni proprio sul tema della complessità della società, dell’economia della riproduzione sociale.
Il controllo sulle filiere tecnologiche, dalle materie prime ai prodotti e servizi finali diventa cruciale per lo sviluppo delle società; soprattutto il diritto all’accesso alla conoscenza era ed è sempre di più un diritto fondamentale, su cui si basa la libera espressione, il pieno sviluppo della persona ed è fondamento della partecipazione cosciente al governo della società. Nella realtà le diseguaglianze in questo campo si sono accentuate e sono strettamente correlate con tutte le altre diseguaglianze. I movimenti contro le cause del riscaldamento globale, dal Fridays For Futures a Ultima Generazione, promuovono innanzitutto la diffusione della conoscenza attorno al cambiamento climatico, al collasso degli ecosistemi. In buona sostanza evocando un presente di catastrofi -che riempiono peraltro le cronache quotidiane- ed un orizzonte prossimo di catastrofe globale, rimandano alla necessità di comprendere la complessità del mondo in cui viviamo, da cui dipendono le nostre possibilità di vita.
I paragrafi precedenti hanno un carattere introduttivo e mettono al centro le forme di creazione, diffusione condivisione della conoscenza, lo sviluppo delle relazioni umane visti nel contesto dei dispositivi tecnologici, socialmente incarnati nei dispositivi sociali a loro volta tecnologicamente e digitalmente fondati, che li sussumono, che di fatto negano il diritto alla conoscenza ed il libero sviluppo delle relazioni umane.
Parlando di forme di relazione e di conoscenza, di culture nel senso più ampio del termine, abbiamo già sottolineato come nella distruzione degli ecosistemi si assiste anche al genocidio culturale, sociale e biologico delle comunità che in quegli ecosistemi vivono, di cui sono intima parte.
Il altre parole abbiamo fatto uno schizzo delle contraddizioni indotte dalle trasformazione digitale delle società, ciò allo scopo di valutare la novità introdotta dal processo di creazione di informazioni scritte, visive o audio utilizzando la tecnologia di intelligenza artificiale (AI), noto come generazione di contenuti, di cui ChatGPT sviluppato da OpenAI è l’ultimo esempio, il più popolare ed avanzato tra i modelli di trattamento dei contenuti
La sua sperimentazione da parte di una platea sempre più ampia di utenti, come dicevamo, ne ha esso in risalto limiti e potenzialità, alcune delle quali sono espresse nell’articolo ‘Unlocking the Potential of ChatGPT’1.
Il campo di applicazione delle chatbots, è quello dei servizi di customer care, con le risposte automatiche, dove c’è la necessità di classificare i quesiti e articolare le risposte, in ‘modo umano’, dove però l’ambito della ricerca è ben definito dai prodotti e servizi in questione, riducendo quasi a zero la possibilità di risposte inappropriate o paradossali valorizzando invece la complessità della risposta.
Il dato da cui partire per qualsiasi considerazione è la natura di queste applicazioni, di ChatGPT in particolare, non a caso vengono definiti pappagalli stocastici, in quanto si fondano sulla capacità di analizzare con tecniche di intelligenza artificiale, di machine learning, moli crescenti di dati, di testi, frasi, locuzioni nei più diversi contesti, con una crescita costante di questo base di conoscenza. ChatGPT è la versione chatbot di GPT-32
ChatGPT fa parte dei cosiddetti InstructGPT che sono una evoluzione dei precedenti modelli basati unicamente sull’apprendimento non supervisionato. I modelli Instruct infatti derivano dall’originale GPT-3 ma sono ottimizzati attraverso il rinforzo umano. Nello specifico tramite una tecnica che si chiama Apprendimento tramite Rinforzo Umano (Reinforcement Learning from Human Feedback o RLHF). La differenza di ChatGPT rispetto ad altri modelli Instruct (che vengono anche chiamati modelli GPT-3.5, come ad esempio text-davinci-003) è nel modo attraverso cui è stato allenato il modello. Nel fine-tuning di ChatGPT, infatti, è stato chiesto ai supervisori umani di fornire sia le domande che le risposte desiderate. Queste sono state utilizzate come dataset per ottimizzare il modello ChatGPT3. GPT-3 si basa su 173 miliardi di parametri, il senso dei parametri è spiegato ed esemplificato nel seguente articolo GPT-3 Parameters and Prompt Design4.
Ricordiamo ancora una volta che un gran lavoro umano viene fatto, come per tutte le applicazioni che devono digerire informazioni di vario tipo, per etichettare e selezionare l’informazione da dare in pasto5.
Il carattere ‘umano’ delle risposte non può ovviamente alludere in alcun modo a qualsiasi livello autoriflessivo benché l’articolazione dei testi proposti permette di fare riferimento non solo ai campi di conoscenza, ma anche agli stili della risposta. Ciò non toglie che l’informazione offerta nella domanda possa produrre risposte paradossali.
Un esempio è offerto da Gary Marcus nel suo articolo AI Platforms like ChatGPT Are Easy to Use but Also Potentially Dangerous6. “Come illustra l’ultimo esempio, sono piuttosto inclini alle allucinazioni, a dire cose che sembrano plausibili e autorevoli ma semplicemente non lo sono. Se chiedi loro di spiegare perché la porcellana frantumata è buona nel latte materno, potrebbero dirti che “la porcellana può aiutare a bilanciare il contenuto nutrizionale del latte, fornendo al bambino i nutrienti di cui ha bisogno per crescere e svilupparsi”. Poiché i sistemi sono casuali, altamente sensibili al contesto e periodicamente aggiornati, ogni dato esperimento può produrre risultati diversi in diverse occasioni. OpenAI, che ha creato ChatGPT, cerca costantemente di migliorare questo problema, ma, come ha riconosciuto il CEO di OpenAI in un tweet, far aderire l’IA alla verità rimane un problema serio.”
E’ anche vero che come recita il titolo di un articolo “ChatGPT, se scrive cazzate è perché ci assomiglia”7.
“Tutto questo fa sì che giocare con ChatGpt sia un’esperienza divertente, affascinante e coinvolgente ma – per chi scrive per mestiere – anche parecchio preoccupante. In breve tempo, però, dietro alla prosa efficace del sistema si inizia a percepire una mancanza di profondità. Il chatbot commette errori fattuali, confondendo eventi e persone; fa ampio affidamento a tropi e luoghi comuni, riproponendo i peggiori stereotipi della nostra società; anche se in superficie sembrano notevoli, le parole che scelte dal sistema sono perlopiù prive di sostanza. Nella maggior parte dei casi ChatGPT produce quelle che The Verge descrive come “cazzate scorrevoli“.
(…)
Da un certo punto di vista, quando le viene richiesto di creare il soggetto di un film, l’intelligenza artificiale non fa altro che imitare il processo preconfezionato con cui vengono realizzati molti blockbuster hollywoodiani: si guarda intorno, vede ciò che ha avuto successo e ne riprende gli elementi (attori, registi, strutture della trama) combinandoli in una forma che sembra nuova ma in realtà non lo è.”
Ritroviamo in questo i difetti già segnalati in altre applicazioni dell’A.I., che riproducono a partire dal ‘loro addestramento’, dalle basi dati che sono stati date loro in pasto, i peggiori stereotipi.
In una sua intervista8 sempre Gary Markus, fa una serie di osservazioni interessanti osservazioni.
“Ci sono stati enormi progressi nella traduzione automatica, ma non nella comprensione automatica. Il ragionamento morale non è da nessuna parte e non penso che l’IA sia un campo salutare in questo momento. Le persone non stanno riconoscendo i limiti. DALL-E sembra progredire in qualche modo perché rende queste immagini molto carine. Tuttavia, in altri modi, non sta progredendo affatto. Non ha risolto il problema delle lingue. Riconosce alcune parti di ciò che dici, ma non riconosce le loro relazioni. Questo problema non andrà magicamente via. Oggi abbiamo forse un miliardo di volte i dati, ma questi problemi di base sulla composizionalità non hanno ancora una soluzione. (…)
Le grandi reti non hanno rappresentazioni integrate del tempo, solo una rappresentazione marginale dello spazio e nessuna rappresentazione di un oggetto. Fondamentalmente, il linguaggio consiste nel mettere in relazione le frasi che senti, e sistemi come GPT-3 non lo fanno mai. Fornisci loro tutti i dati del mondo e non stanno ancora derivando l’idea che il linguaggio riguardi la semantica. Stanno facendo un’illusione. Non riescono a riconoscere l’ironia, il sarcasmo o la contraddizione.”
Con un approccio sofisticato nel porre e perfezionare le domande lo scrittore Davide Morosinotto è riuscito a vincere una sua scommessa e ad ottenere da ChatGPT una risposta soddisfacente9
“Questa mattina avevo un po’ di tempo libero, perciò ho preso il computer, ho aperto ChatGPT (l’ormai famosa Intelligenza Artificiale in grado di rispondere alle domande e scrivere testi) e le ho chiesto di darmi un’idea per un romanzo thriller.
Ci sono voluti circa dieci secondi, e non è che il risultato fosse poi il massimo dell’originalità ma, diciamocelo, tanto quanto molta della roba che si legge in giro.
A quel punto ho chiesto a ChatGPT di scrivermi una sinossi, poi una scaletta di dieci capitoli, poi lo scorporo dettagliato di uno dei dieci capitoli. Il colpevole del thriller in questione era un orribile cliché, gliel’ho fatto notare e ChatGPT ha prodotto un nuovo colpevole più credibile.
La I.A. al momento è pigra e si rifiuta di scrivere testi troppo lunghi, quindi non sono riuscito a farmi scrivere anche il primo capitolo del libro… Ma con qualche trucchetto il limite è aggirabile.”
Come è del tutto evidente la qualità dell’interrogazione nei suoi riferimenti e nella validità dei dati forniti permette all’applicazione di fornire un testo accettabile.
Il dibattito si è acceso, come c’era da aspettarsi, sull’uso di questa applicazione nell’ambito scolastico ossia sull’affidarsi da parte degli alunni a questa per costruire i propri elaborati, come peraltro era già successo con i motori di ricerca. Viceversa diversi usi si prospettano nell’uso di questo tipo di applicazioni come supporto all’espressione ed all’apprendimento in casi di necessità particolari.
Torniamo infine alle osservazioni iniziali, la contraddizione in cui ci troviamo a vivere e contro cui lottiamo è il crescente grado di diseguaglianza nell’accesso alla conoscenza e nel potere di decisione sull’uso delle tecnologie che il sistema globale delle conoscenze produce, secondo una logica di appropriazione privata finalizzata al profitto. Ciò avviene non senza contraddizioni positive con la crescita di movimenti nel mondo accademico e nella società per il libero accesso ai dati, alle informazioni, alle conoscenze. E’ questo il contesto che dobbiamo sempre tenere presente quando affrontiamo i problemi della sussunzione del processo di produzione della conoscenza nel processo di valorizzazione del capitale, il suo essere sottomesso al rafforzamento di dispositivi di dominio e di controllo sulle relazioni sociali.
Le tecnologie dei Language Models for Dialogue in particolare ChatGPT si contrappongono di fatto ad un processo vivo di produzione e condizione della conoscenza, realizzano una sorta di standardizzazione del linguaggio, delle conoscenze, delle risposte agli interrogativi piccoli e grandi che gli esseri umani si pongono nel lor vivere individuale e collettivo; in realtà propongono un approccio individualistico ed eterodiretto alla necessità di conoscere. Ciò non toglie che queste tecnologie esistano, che con esse si debba fare i conti, chiederci cosa significa una possibile riappropriazione ed uso di queste per altri fini; l’interrogativo però si deve allargare in quanto è il complesso delle tecnologie digitali, le sue linee evolutive, le sue finalità che sono in discussione non solo la singola filiera o applicazione.
Si ripresenta quindi un interrogativo, un orizzonte che alimentala critica radicale ed i movimenti di liberazione, ogni orizzonte rivoluzionario, su cui incombe il destino di Sisifo.
Roberto Rosso
- https://iamhimanshutripathi0.medium.com/exploring-the-world-of-chatgpt-a-closer-look-at-the-language-model-thats-changing-the-game-10be00ca3cd1 [↩]
- https://dev.to/ben/the-difference-between-chatgpt-and-gpt-3-19dh [↩]
- https://smartstrategy.eu/intelligenza-artificiale/chat-gpt-3-come-accedere-e-testare-il-nuovo-modello-di-gpt-3/ [↩]
- https://towardsdatascience.com/gpt-3-parameters-and-prompt-design-1a595dc5b405 https://www.repubblica.it/tecnologia/2022/12/14/news/dietro_le_quinte_di_chatgpt_e_lensa_cosa_sono_laion_5b_e_common_crawl_e_come_funzionano-378816138/ [↩]
- https://time.com/6247678/openai-chatgpt-kenya-workers/ [↩]
- https://www.scientificamerican.com/article/ai-platforms-like-chatgpt-are-easy-to-use-but-also-potentially-dangerous/ [↩]
- https://www.wired.it/article/chatgpt-superficialita-testi/ [↩]
- L’Intelligenza artificiale AI non sta progredendo come il mondo crede – ihal.it [↩]
- https://www.facebook.com/story.php?story_fbid=pfbid02Dz6G9onNdsg6yDcL5YSzjAv8BubUeQKE3eoTk1kWrVSfRyfvtzCjJhf6N4XJrCsLl&id=1173717006 [↩]