Quando ho iniziato a pensare a un testo su Chat-GPT per transform!, mi sono immediatamente reso conto che l’impegno nello scriverlo rischiava di pregiudicare un’altra intenzione, che consideravo molto importante, quella di scrivere un testo per l’anniversario della morte di Antonio Caronia, che ci ha lasciato il 30 Gennaio del 2013, dieci anni fa. In genere, non sono il tipo che si fa sconti del tipo “paghi uno e prendi due”. In questo caso, tuttavia, parlare di Caronia e di Chat-GPT mi sembrava non solo possibile ma necessario e, sarei tentato di dire, urgente. Il pensiero di Caronia è collocato nel centro rovente dei problemi che Chat-GPT solleva. Credo che in ambito marxiano nessuno potrebbe affrontare il pericoloso passaggio che Chat-GPT rischia di rappresentare per l’epoca digitale con una finezza interpretativa paragonabile a quella con cui lo avrebbe affrontato lui.
Intanto, per chi non conoscesse Chat-GPT, vale ricordare che si tratta di uno dei più strabilianti risultati della ricerca sulla simulazione del linguaggio naturale. Un dispositivo interattivo, raggiungibile su web, che permette di interloquire, in forma testuale, con un potentissimo strumento di intelligenza artificiale che genera risposte non soltanto paragonabili a quelle di un interlocutore umano ma, in numerosi aspetti, ad esse superiori. Per esempio, Chat-GPT incorpora, tra le tante risorse web che ha assorbito, l’intera Wikipedia, la grande enciclopedia online, in tutte le lingue in cui essa è presente. Questo implica che abbiamo a che fare con un interlocutore straordinariamente dotto, quasi onnisciente, capace di generare non solo una risposta efficace, ma proprio la risposta che cerchiamo, quella che più ci occorre. Pur con qualche vistosa imperfezione, si tratta di uno dei risultati più clamorosi di un settore di ricerca che oramai ha ben oltre settant’anni di storia e che ha provocato, soprattutto negli ultimi decenni, dibattiti infiniti, polemiche, speranze e, soprattutto, investimenti colossali.
Antonio Caronia, per farne un rapido profilo a beneficio di quanti non lo hanno conosciuto, non lo hanno letto e non ne hanno sentito parlare, è stato uno dei più raffinati intellettuali di ispirazione marxiana attivi in Italia alla fine del Novecento. Ha percorso un itinerario culturale estremamente singolare, dalla direzione di “Bandiera Rossa”, rivista della Quarta Internazionale, a un ruolo chiave nella redazione di “Un’ambigua utopia”, rivista di teoria critica della fantascienza, fino ad arrivare a una maturità intellettuale culminata in opere straordinarie tra cui vale almeno citare “Il cyborg” (saggio sull’uomo artificiale) uscito nella prima versione nel 1985 e poi più volte ripubblicato con aggiornamenti cospicui e significativi, fino all’ultima versione che risale al 2008.
Chi ha tenuto d’occhio la palla avrà anche fatto due più due: una persona che ha scritto nel 1985 un “saggio sull’uomo artificiale” sarebbe stata sicuramente anche in grado di interpretare con una certa fecondità un dispositivo di simulazione artificiale del linguaggio umano come Chat-GPT. Se questo può apparire ovvio, direi che il fatto veramente importante, che mi spinge a scrivere queste righe, è che il linguaggio era diventato per Antonio Caronia, negli ultimi anni della sua vita una questione centrale, oserei dire un’ossessione. Era solito iniziare i corsi che teneva a Brera e altrove con la dichiarazione che, quale che fosse il “titolo” del corso, si sarebbe in ogni caso potuto definirlo un corso di filosofia del linguaggio.
A questo proposito, mi sembra utile presentare, in apertura, alcune domande cruciali che Caronia pose nel 2011 al grande scrittore di fantascienza William Gibson, che si trovava a Roma per presentare un nuovo libro. Sono alla base delle cose che diremo dopo. Eccole:
«In tutti i suoi romanzi, ma specificamente negli ultimi, trovo tre questioni fondamentali: il linguaggio, la libertà, il controllo. Lei, come tutti i romanzieri, usa il linguaggio come strumento di libertà, ma il linguaggio oggi, soprattutto quello informatico, sembra più uno strumento di controllo. Qual è l’equilibrio fra libertà e controllo nella società contemporanea ? E come può una persona, anche uno che non sia scrittore, usare il linguaggio come strumento di libertà e non di controllo?»
La risposta di Gibson qui non interessa particolarmente. Lo scrittore americano fu rassicurante e sbrigativo. Probabilmente perché, nell’ambito di una conferenza stampa, non è semplice rispondere a domande di una simile complessità. Ma quei quesiti, oggi, davanti al trionfo delle simulazioni linguistiche, tornano di grande importanza e atttualità.
“Linguaggio e libertà” è il titolo di una raccolta di saggi di Noam Chomsky degli anni Settanta. Una sera ebbi occasione di discutere con Antonio Caronia della linguistica di Chomsky. Fu nei primi anni del 2000, lo stavo accompagnando in macchina verso una serata cyberpunk in un locale di Pietralata. Chiacchierammo una buona mezz’ora di questi temi. La sua tesi di laurea in matematica l’aveva discussa nel 1971, ed era sull’opera di Chomsky. Ma non si trattò di una tesi compilativa. Il suo relatore gli aveva chiesto di formalizzare, in termini matematici, la linguistica-generativo trasformazionale di Chomsky. “Mission Impossible” direbbero senza esitare gli scienziati di oggi. Sospetto fortemente, tuttavia, che Caronia si sia avvicinato meglio di altri all’impossibile obiettivo. In ogni caso, quella sera fu molto secco: la struttura universale soggiacente del linguaggio, quella che Chomsky spera di individuare, non esiste. E questa era per lui una conclusione definitiva. Personalmente, per quanto mi sia trastullato a lungo e qualche volta mi intrattenga ancora con libri di linguistica, sono sempre stato una sorta di spettatore curioso di questo dibattito affascinante, del tutto incapace di elaborare convincimenti personali forti su questioni così complesse (come Don Abbondio: un vaso di coccio tra i vasi di ferro). Ma rispetto alla tesi di Chomsky ero (e sono) più possibilista di Caronia e lui lo sapeva bene. Ma occorre iniziare a ragionare di libertà e controllo, i due temi fondamentali della domande di Caronia a Gibson. Noam Chomsky, nel saggio del 1970 che dava il titolo alla raccolta “Linguaggio e Libertà” scrive che:
«Il linguaggio, nelle sue proprietà essenziali e nel modo in cui viene impiegato, fornisce il criterio di base per accertare se un altro organismo o un altro individuo è un essere dotato di mente umana e di umane capacità di espressione e di libertà di pensiero e se condivide il fondamentale bisogno che ha l’uomo di essere libero da costrizioni esterne e da qualsiasi autorità repressiva.»
Si può dividere grossolanamente questo suo ragionamento in due tesi distinte: la prima è quella secondo cui, se un oggetto (o un organismo) è dotato di linguaggio allora ne consegue che ha una mente umana. E questo mi sembra un principio sconfitto dalle evidenze attuali e decisamente obsoleto. Chat-GPT è evidentemente dotato di linguaggio ma chiaramente non è umano. La seconda questione, quella secondo cui un essere si deve considerare dotato di mente umana quando ha capacità di libertà di pensiero e il bisogno di essere libero da autorità repressive, mi sembra invece un argomento che ancora tiene assai bene e sarà oggetto di considerazioni alla fine di questo articolo. Ora è meglio tornare a occuparsi della prima delle due idee suggerite da Chomsky, quella secondo cui, se una cosa è dotata di un linguaggio antropomorfo, allora è umana. Vale notare come questo modo di intendere, per quanto fallace, sia molto diffuso. Più che essere sostenuta a livello teorico, si tratta di una credenza implicita e molto radicata. Farei l’ipotesi che sia un criterio di verifica quasi innato, automatico, della nostra specie. Le persone tendono a considerare qualsiasi interlocutore linguistico come un interlocutore umano. Naturalmente nessuno crede che Chat-GPT sia un interlocutore umano. Ma, se c’è qualcosa di vero nella famosa affermazione di Steven Pinker secondo la quale il linguaggio sarebbe un istinto, si deve individuarlo proprio in questo “istinto” che ci spinge a interagire spontaneamente con un interlocutore dotato di “facoltà di linguaggio”, qualsiasi cosa (o organismo) esso sia.
C’è un libro, che risale agli anni Settanta, “Computer Power and Human Reason”, di Joseph Weizembaum. Un classico che meriterebbe di essere letto e riletto perché pone il problema delle simulazioni linguistiche al tempo delle loro prime realizzazioni digitali. Weizembaum è stato il padre di Eliza, probabilmente il primo software linguistico interattivo. Simulava uno psichiatra rogersiano, se non ricordo male. Ebbene, Weizembaum rimase talmente scosso dalla sua creatura che divenne una specie di “Torquemada” dell’intelligenza artificiale. Inizialmente, si stupì che i suoi collaboratori confidassero ad Eliza i loro problemi personali. Così si affrettò a spiegare loro che si trattava solo di un programma. Quando quelli continuarono a confidarsi con il programma, ben sapendo che si trattava di un programma, il Nostro ruppe gli indugi e iniziò la sua crociata contro l’AI. Quel che tanto scandalizzava Weizembaum avrebbe probabilmente destato la curiosità e l’interesse di qualche spregiudicato pubblicitario. Eliza mostrava un peculiare potere di attrazione, la capacità di avvicinare soggetti umani offrendo loro la possibilità di interagire.
Racconto questa vicenda perché mi pare sia centrale per individuare i reali problemi che sollevano le simulazioni linguistiche. Personalmente, credo abbia sempre avuto ragione il filosofo John Searle: non esiste un’indipendenza dal sostrato. Il linguaggio è incorpato. I calcolatori digitali sono confinati nel mondo della sintassi. Non sapranno mai nulla di semantica (“del senso”). Credo, tuttavia, che il problema della relazione che si stabilisce con un dispositivo sintattico che fornisce risposte sensate sia in gran parte un problema di tipo diverso rispetto a quelli che si pongono i filosofi in merito all’intelligenza artificiale. Ed è un problema di cui si è ragionato poco o nulla.
Un testo di Caronia, di sole tre pagine, intitolato “Dimenticare McLuhan” contiene una sua dichiarazione piuttosto forte: il concetto di “protesi tecnologica” tanto caro al pensatore canadese Marshall McLuhan, deve essere messo in discussione. Oggi, affermava Caronia in quelle pagine, non abbiamo a che fare solo con protesi tecnologiche, che aumentano le nostre capacità di interagire con l’esterno, ma con veri e propri “mondi”. Intendeva mondi esterni, di natura tecnologica, che alterano non direttamente e immediatamente il soggetto, come fanno le protesi ma che, almeno in prima istanza, alterano l’ambiente in cui il soggetto vive la sua esperienza. Pensava, principalmente, ma non esclusivamente, alla realtà virtuale. La sua, non era un’ abiura nei confronti di quanto aveva scritto e pensato McLuhan, ma un sapiente segnale di “alert”: abbiamo enfatizzato il concetto di protesi troppo a lungo, bisogna iniziare a pensare anche al suo rovescio, alle problematiche che schiude l’artificializzazione degli ambienti che ci circondano.
Mentre l’Intelligenza Artificiale classica ha posto il problema dell’automatizzazione dei processi mentali, la realtà virtuale ha sempre alluso alla possibilità, decisamente più inquietante, di fare dell’ambiente un automa. In un certo senso, Chat-GPT è un ambiente artificiale. Almeno fin dove siamo disposti a riconoscere al linguaggio le caratteristiche e le qualità di un ambiente. Una concezione, quest’ultima, che Wittgenstein teneva in una certa considerazione.
L’idea che la produzione non consista soltanto nel dare un materiale a un bisogno ma anche nel dare un bisogno a un materiale, sostenuta da Marx nei Grundrisse, ci fornisce la base teorica per interrogarci su un problema centrale: quale “bisogno” si tende a produrre attraverso il “materiale” digitale e, segnatamente, attraverso queste sue nuove e mirabili articolazioni quali Chat-GPT ? Al momento, il bisogno di interazione mi pare il candidato più promettente per rispondere a una simile domanda, troppo a lungo trascurata dal pensiero critico contemporaneo. In questo senso preciso, Chat-GPT è una “tecnologia-mondo” nel senso in cui Caronia intendeva questa espressione. Ma conviene, prima di ulteriori approfondimenti su questo tema, fare un breve excursus sulla struttura delle simulazioni linguistiche.
I grandi progressi delle simulazioni linguistiche di questi ultimi anni non sono basati sulla “cattura” di una struttura formale soggiacente al linguaggio come quella ipotizzata da Chomsky, ma su criteri di tipo associativo e statistico. Per essere un po’ più precisi, diversamente da quanto oggi si tende facilmente a pensare, non abbiamo a che fare con programmi software che funzionano “soltanto”, come si dice oggi, “a forza bruta”. Come avviene da tempo nella maggior parte dell’intelligenza artificiale matura, la ricerca si avvale di sistemi ibridi, in cui sono presenti sia dei motori inferenziali, logico-simbolici, che appartengono all’Intelligenza artificiale cosiddetta “classica” (quella a cui molti affidavano le speranze di Chomsky), sia delle reti neurali formali che sfruttano con profitto l’enorme potenza di calcolo oggi disponibile. Sono state soprattutto queste ultime, che fanno parte dell’intelligenza artificiale cosiddetta “sub-simbolica” (quella delle reti neurali), a migliorare in modo così significativo i risultati dei software di simulazione del linguaggio. Indubbiamente, la spiegazione principale del successo di queste potenti simulazioni va individuata nei processi statistico-associativi applicati su masse sterminate di dati e non nell’individuazione di strutture universali soggiacenti al linguaggio naturale come quelle ipotizzate da Chomsky. Il linguaggio naturale viene “rispecchiato” da questi software di simulazione attraverso un accurato quanto istantaneo conteggio automatico delle frequenza di occorrenza delle singole parole e delle loro relazioni. E i risultati in output, la qualità delle risposte, migliorano al crescere delle dimensioni del “modello”, alla sua fedeltà al linguaggio reale, quello scritto spontaneamente da miliardi di utenti ogni giorno nella rete. Questo significa che la massa immensa di testi filtrata e messa a disposizione del software di simulazione aumenta di giorno in giorno. Non per nulla, uno degli argomenti principali su cui si appunta la critica proveniente dall’interno del contesto scientifico-tecnologico in cui si lavora alle simulazioni linguistiche, è quello che denuncia gli enormi consumi di energia richiesti dall’addestramento di questi sistemi di machine learning. Dunque, al netto di qualche dettaglio, la componente di “forza bruta”, di potenza di calcolo, è effettivamente ciò che ha permesso di fare la differenza. Come a volte si dice ironicamente tra gli addetti ai lavori, gli ingegneri, nei laboratori della grandi holding informatiche, hanno avuto la meglio sui linguisti.
Una considerazione che non viene dichiarata esplicitamente negli ambienti istituzionali della scienza, ma che molti iniziano a sussurrare in privato, è che questa sia una rivincita del comportamentismo. Se non è stato catturato l’algoritmo segreto che la natura avrebbe predisposto per il linguaggio umano come Chomsky ipotizzava, è stata invece implementata una potente struttura automatica che si basa su criteri, piuttosto meccanici, di associazione-ripetizione. Quegli stessi criteri che il comportamentismo proponeva per l’apprendimento animale e umano. L’addestramento delle reti delle simulazioni linguistiche ricorda troppo da vicino quello a cui venivano sottoposti gli animali dai comportamentisti perché non si cologa una matrice teorica comune.
Quando Skinner scrisse “Verbal Behaviour” sostenendo che il linguaggio si fonda su principi associativi, Chomsky ebbe l’audacia e l’intelligenza di contestarlo duramente e di mostrare quanto arbitraria e inadeguata fosse la prospettiva comportamentista del linguaggio. Che la grammatica universale esista o non esista, penso che, su questo, avesse in ogni caso completamente ragione. Ma non credo sia questa la sede per dilungarsi nel discutere la raffica di obiezioni che Chomsky oppose alla teoria comportamentista del linguaggio proposta da Skinner.
Propongo, invece, un breve ricordo personale: a Londra, a metà degli anni Ottanta, c’era un centro di formazione per l’apprendimento delle lingue che si chiamava “Skinner Institute”. Lì venivano applicate metodologie di apprendimento del linguaggio rigorosamente comportamentiste. Funzionavano ? Certamente un po’ funzionavano. Ma non perché Skinner avesse rivelato definitivamente come funziona il linguaggio. Si trattava semplicemente di esercitazioni strutturate, fondate su criteri progressivi di apprendimento, che fornivano una simulazione abbastanza buona di alcuni dei processi interattivi di apprendimento del linguaggio naturale. Non c’era da biasimare le persone che sceglievano di studiare inglese con quel metodo, ma questo non significa che Skinner avesse risolto, con le sue teoria associative, i problemi del linguaggio.
La convinzione che una simulazione “spieghi” un fenomeno, in molti casi si rivela un abbaglio. Di solito, nella migliore delle ipotesi, aiuta a comprenderlo. A dirla tutta, nei primi anni dell’intelligenza artificiale, quando il comportamentismo era ancora imperante, non era richiesto che una simulazione di un ratto avesse qualsivoglia analogia con un ratto reale, quel che contava era soltanto che ne riproducesse il comportamento.
Il fatto che Chat-GPT funzioni, che simuli molto bene il linguaggio umano, non significa che ne costituisca una spiegazione scientifica attendibile. Una fotografia ben fatta può farti percepire un ambiente così bene da darti la sensazione di poter “toccare” gli oggetti che vi sono rappresentati, ma questo non significa che quella foto abbia le proprietà dell’ambiente che descrive. Provate a tuffarvi nel lago di montagna del poster che avete in casa e darete solo una gran testata contro la parete. Sono delle banalità ma banalità che pongono questioni serie. Quali ?
Beh, intanto quella del vero scopo di un’indagine scientifica di questo tipo. Nel testo di Gary Marcus discusso con intelligenza da Roberto Rosso nel numero precedente di Transform, non c’è alcuna osservazioni a tale riguardo. Marcus considera del tutto ovvio che si cerchi di simulare il linguaggio. Del resto si tratta del suo mestiere. Le sue osservazioni critiche sulle conseguenze sociali dell’uso di Chat-GPT riguardano essenzialmente questioni come la produzione di disinformazione o le possibili forme di discriminazione sociale e culturale, o anche di esclusione, che questo dispositivo può determinare. Questioni importantissime, non c’è dubbio, ma che non toccano il nodo principale del problema, che, a mio modo di vedere, è questo: le simulazioni linguistiche, soprattutto quelle attuali, sono realmente utili a far avanzare la ricerca sul linguaggio o servono ad altri scopi ? Al netto dell’aura di magnificenza e di eroismo che avvolge l’avventura del pensiero scientifico, cosa spiega l’accanimento e i colossali investimenti con cui questi prodotti vengono spinti dalle grandi holding informatiche ?
Sul fatto che non ci siano rapporti molto credibili tra il linguaggio naturale e quanto viene prodotto dai “pappagalli stocastici” come Chat-GPT non credo siano rimasti molti dubbi. E dunque, per quale motivo insistere così tanto in questo tipo di ricerca ? Ovviamente servizi quali quelli di traduzione automatica sono un ottimo sistema per coinvolgere l’utenza e un progresso di cui sarebbe assurdo mettere in discussione il valore sociale, ma non costituiscono il “core problem” della ricerca contemporanea sull’interazione linguistica con le simulazioni artificiali.
Qui dobbiamo tornare a Marx, all’esigenza di produrre un bisogno per il materiale digitale e ad Antonio Caronia che, ragionando in quell’articolo sul passaggio dalle tecnologie-protesi alle “tecnologie-mondo”, scriveva:
«Questo cambiamento apre problemi che solo superficialmente somigliano a quelli di ieri, ma non sono per questo meno drammatici. Sono i problemi di gestione, circolazione, redistribuzione di una ricchezza sociale che non è mai stata così abbondante e mai così iniquamente concentrata; di una nuova emarginazione della maggioranza dell’umanità che non si chiama più colonialismo ma “digital-divide”; dell’apparizione di forze produttive il cui carattere distruttivo non è più solo accessorio o relativo a scelte opinabili, ma insito nel funzionamento di qualche software. Per cominiciare a comprendere meglio questa situazione, sospetto che dobbiamo ringraziare McLuhan, congedarlo definitivamente, abbandonare l’ipotesi delle tecnologie-protesi e cominciare seriamente ad indagare quella della tecnologia-mondo.»
Se vogliamo riprendere una lettura di Chat-GPT come “tecnologia-mondo” dobbiamo introdurre la problematica del controllo. La domanda sulla libertà del linguaggio rivolta da Caronia a Gibson poneva al primo posto il rapporto tra linguaggio e controllo. A giudicare da quanto Shoshana Zuboff ha mostrato con chiarezza ne “Il capitalismo della sorveglianza” la matrice fondamentale del controllo è la profilatura digitale. Contare i nostri passi su Google, le nostre interrogazioni, significa arrivare a conoscere molto degli utenti. Merce preziosa, che porta denaro fresco a Mountain View. “Google ti conosce meglio di tua madre” recita un adagio diffuso tra i nerd. Ma tutto questo non è nulla rispetto allo scenario che annuncia Chat-GPT. Il progetto aspira abbastanza esplicitamente all’eliminazione definitiva, per obsolescenza, dell’intero World Wide Web e alla sua sostituzione con una interfaccia intelligente e veloce che, dopo averlo interamente inghiottito, lo riassume nel migliore dei modi, rendendolo di fatto superfluo.
Con una conseguenza micidiale: i gradi di libertà, le possibilità di sfuggire alla profilatura che il web ancora concede saranno progressivamente eliminati. Ogni conversazione che stabilirete con quel programma di simulazione sarà archiviata e intestata in modo chiaro e definitivo a voi e soltanto a voi. Stabilire un rapporto continuativo con Chat-GPT (o con qualche suo potente successore) significherà rivelare completamente la propria personalità, i propri interessi, le proprie scelte quotidiane a un’azienda privata che le registrerà puntualmente passo dopo passo.
Altra questione: se questo è, come sospetto, l’obiettivo principale di chi investe con tanta munificenza su questi progetti, quali conseguenze può avere un siffatto programma sulla libertà di linguaggio e di pensiero ? Chomsky, come abbiamo detto, pensava che la libertà fosse uno degli elementi fondamentali che ci permette di riconoscere un linguaggio come umano. Caronia, su questo punto, gli avrebbe dato senz’altro ragione.
Per avvicinare la visione del linguaggio di Caronia si deve, prima di tutto, tenere in giusto conto la sua estrema attenzione alle problematiche sollevate dalla fantascienza e dall’antropologia culturale. Se dovessi riassumere in una riga la concezione del linguaggio di Caronia direi che per lui il linguaggio rappresenta la struttura di base da cui, in larga parte, dipende qualsiasi organizzazione sociale. E su questo, a tutt’oggi, non sarebbe facile dargli torto. L’enorme difficoltà che le persone di ispirazione marxiana incontrano nell’accettare l’esistenza di una struttura innata del linguaggio, trova fondamento nel fatto ovvio che il linguaggio ha caratteristiche sociali che difficilmente possono essere sopravvalutate. In ultima analisi, le leggi che regolano la vita associata, da quelle degli stati nazionali a quella dei singoli condomini, sono fissate linguisticamente, sono scritte. E’ chiaro come la fantascienza, investigando mondi possibili, sfidi il linguaggio a produrre alternative, a costruire nuove ipotesi di realtà. Analogamente, la storia della culture, l’antropologia culturale, volge il suo sguardo alle diverse forme di società umana che si sono presentate nel corso dei secoli. Il discorso dell’antropologia culturale indaga la diversità sociale e, analogamente alla fantascienza, i gradi di libertà rispetto a una presunta regola, a qualche tipo di canone prestabilito.
La possibilità di una discrepanza tra reale e possibile risiede in questa risorsa immaginativa che è peculiare del linguaggio. Se la relativizzazione del linguaggio operata dal cognitivismo, particolarmente da Steven Pinker, ha un temibile correlato politico, esso risiede nella pretesa di portare alla sbarra ogni tipo di relativismo culturale. In definitiva, dire che il linguaggio non è poi così importante, significa, prima di tutto, mettere dei limiti alle sue risorse immaginative. Pinker nei suoi libri fa il tiro al bersaglio contro gli antropologi americani a cavallo della metà del Novecento, come Franz Boas e Margaret Mead, per la ragione non dichiarata, ma implicita, che costoro hanno osato indagare le differenze culturali senza i pregiudizi culturali tipici dell’occidente.
Una interpretazione del concetto di desiderio abbastanza singolare e insolita ma dotata di fascinose valenze di carattere politico, tende ad identificarlo con la spinta che scaturisce dalla consapevolezza condivisa della discrepanza tra ciò che è e ciò che potrebbe essere. Quando Stalin nel 1936 promulgò la costituzione sovietica, essa proclamava che “l’uomo nuovo” era stato definitivamente realizzato. Le differenze non esistevano più, erano solo forme di devianza da reprimere. Nessuna discrepanza tra reale e possibile sarebbe stata ammessa. Il desiderio, in questa sua peculiare connotazione politica, andava estinto.
Che oggi, attraverso il controllo digitale, si sta raggiungendo una dittatura “dolce”, basata su un consenso che appiana ogni discrepanza per via interna, riducendo progressivamente il ruolo del linguaggio e delle sue proprietà desideranti, non è un’ipotesi da escludere.
Nella prospettiva di Chomsky questo non sarebbe possibile in linea di principio, perché la libertà, in quanto proprietà innata del linguaggio, riuscirebbe in ogni caso ad esprimersi. Caronia, più realisticamente e in sintonia con Foucault, riteneva invece che quella di Chomsky rischiasse di rivelarsi una forma di autoconsolazione, e che il gioco della libertà linguistica andasse mantenuto vivo nella sua dimensione immanenente, mettendo in primo piano il problema politico della libertà di linguaggio. Possiamo fare un passo ulteriore nel comprendere il senso di questa idea di discrepanza andando a vedere come Caronia intendeva il rapporto tra linguaggio e mondo.
Con una semplificazione – presa in prestito da alcune sue lezioni – possiamo affermare che tra il mondo fenomenico e il linguaggio si può rilevare una zona comune, come nell’esempio grafico dei due cerchi che si compenetrano. Si tratta di una metafora grafica riconducibile alla teoria degli insiemi. L’insieme mondo e l’insieme linguaggio hanno una zona comune in cui coincidono. Ma nelle parti in cui il cerchio del linguaggio e quello del mondo mondo non si sovrappongono restano ampie zone di eccedenza, in cui il mondo non comprende il linguaggio e in cui il linguaggio non comprende il mondo. Questo sono le zone della discrepanza. In altri termini sono le zone in cui si svolge la danza del possibile.
Credo che l’idea di libertà di linguaggio che alimentava la ricerca di Caronia partisse da una considerazione di questo tipo: la zona di aderenza perfetta tra rappresentante e rappresentato ritaglia una parte minima delle dimensioni fondamentali dei processi conoscitivi del linguaggio. La libertà linguistica è libertà di giocare i rapporti tra questi processi di costruzione della realtà.
Secondo Caronia, il tentativo violento di raggiungere una codifica completa, di sussumere il mondo nel linguaggio è pericoloso e intrinsecamente assurdo.
Uno degli esempi più significativi di questa sua concezione critica della “datizzazione del mondo”, e della raccolta bulimica di dati caratteristica di quella che Caronia chiamava “l’informatica del dominio”, ci viene da una sua analisi del romanzo di Ballard intitolato “Condominium”.
Condominium narra la vicenda di un palazzo immaginario di concezione moderna, costituito da oltre mille appartamenti alla periferia di Londra, in cui i condomini iniziano a combattere gli uni contro gli altri in una sorta di regressione collettiva. Notava Caronia:
«Non è nel mitico e ideologico ‘stato di natura’ che si sviluppa il bellum omnium contra omnes (…) alcontrario è nelle condizioni del capitalismo sviluppato e ipertecnologico che i legami sociali tradizionali, svuotati al loro interno proprio da quello sviluppo del predominio dell’astrazione e del denaro e della razionalità produttiva, possono dissolversi e dar luogo a una caricatura di società, in cui però una serie di pulsioni basilari dell’uomo, represse ma non cancellate dalla civiltà, possono riemergere»
E proseguiva:
«nel suo essere una città in miniatura il condominio incuba in sé una crisi che non viene da nient’altro, in ultima analisi, se non dall’oblio dei limiti del linguaggio, dal rifiuto della componente extralinguistica dell’esperienza, dalla pretesa astratta di costruire un linguaggio (una città, un palazzo) che sia integralmente trasparente. Un sistema di controllo integrale dei corpi affidato (…) agli automatismi di un linguaggio pervasivo e insensato proprio perché si pretende ubiquo e immediatamente ‘comunicativo’ un sistema di controllo dei corpi di questo genere non può che generare instabilità, rottura della solidarietà sociale, guerra» (Da le radici immaginarie della guerra, Cyberzone, 2003).
Chiudo rivolgendo a voi la domanda con cui si apre questo testo: Chat-GPT, cosa ne avrebbe pensato Antonio Caronia ?
Giuseppe Nicolosi