articoli

Reale, artificiale, umano: intelligente?

di Roberto
Rosso

Possiamo partire da questa citazione “Come spiegato in maniera esemplare da Matteo Wong su The Atlantic, nel caso di ChatGPT si tratta di un software che «analizza enormi quantità di testo (libri, pagine Wikipedia, giornali, post sui social media) e utilizza quei dati per prevedere quali parole e frasi hanno probabilità maggiori di andare assieme… modellando il linguaggio esistente. Ma non possono inventare “nuove idee”. Un puro programma basato su algoritmi e parametri statistici, che mai avrà la capacità di essere senziente”1.

Il passaggio dalla versione ChatGPt3.5 a ChatGPT4 ha segnato notevoli progressi nella capacità di interloquire sui più diversi argomenti, soprattutto da quando è stato ulteriormente allargato la base temporale di ricerca delle fonti.

Si tratta di un approccio generalista, in quanto spazia su qualsiasi materia, su qualsiasi fonte sia disponibile in rete, su tutto lo scibile umano digitalizzato e condiviso in rete. Il dato che colpisce chi si avvicina per la prima volta con questi dispositivi definiti non a caso ‘Language Modules’ è appunto la capacità di interloquire, di non limitarsi a fornire delle informazioni secondo un meccanismo a domanda risponde, ma di sostenere una conversazione, così come la capacità di organizzare un testo, un elaborato con un suo stile.

Questa capacità è stata definita come sintattica e non semantica, estranea quindi al significato ed in quanto tale estranea ad un meccanismo di autoriflessione, per quanto iterando domande e risposte, riproponendo al dispositivo le sue stesse risposte, lo si pone di fronte alla sua stessa produzione, talvolta con esiti contraddittori.

Ontologie e trasparenza

La possibilità di formalizzare -e quindi digitalizzare- basi di conoscenza sempre più complesse, che pure nella loro complessità vertevano su ambiti specifici, si è basata sullo sviluppo di ontologie dette regionali o di domino che descrivevano il ‘mondo’ di cui si trattava, gli enti, gli oggetti e le loro relazioni; in altre parole un modello di quella sezione di realtà su cui si andava ad operare. Astrattamente si poteva scoprire che ambiti diversi erano isomorfi tra di loro, condividevano la medesima struttura formale, il medesimo modello, pur essendo di natura differente.

Ad un livello più elementare la costruzione di ontologie è implicita nella realizzazione di basi dati e algoritmi e programmi di elaborazione, è iscritta nella struttura degli algoritmi e delle loro basi dati, più esplicita nella cosiddetta programmazione ad oggetti, nella quale si definiscono degli ‘oggetti’ ovvero delle strutture dati, a cui si attribuiscono determinati ‘attributi’, assieme a relazioni che legano questi oggetti tra loro. Nella definizione di attributi si può passare da classi di oggetti più generali a oggetti più determinati, che ‘ereditano’ gli attributi dagli oggetti genitori acquisendone di ulteriori. Questa sommaria descrizione della ‘programmazione ad oggetti’ rende l’idea di una rappresentazione più dinamica dello spicchio di mondo che si vuole digitalizzare. Tutto ciò avviene in modo trasparente, dichiarato, la base dati è definita, così come gli algoritmi, i passi di elaborazione, che su di essa vengono attivati per giungere a determinati risultati; per quanto su programmi complessi, le problematiche delle eccezioni siano sempre presenti, configurazioni che richiedono di essere trattati in modo particolare, richiedendo un carico di elaborazioni fuori misura. Nella programmazione che possiamo definire deterministica, non basata su procedure statistiche, si opera comunque su processi trasparenti; si opera aggiornando gli algoritmi e la struttura delle basi dati, definibili come ‘basi di conoscenza’ con le quali si approssima una descrizione formale della realtà su cui si opera.

Quanto più le ontologie sono complesse e complessi sono i processi di elaborazione, quanto più è necessario avere dei punti di verifica dei passaggi, nel processo di elaborazione, dei parametri, la cui evoluzione sia più facilmente osservabile, che ci permettano di tenere sotto controllo il flusso.

In merito alle ontologie ho posto a suBing a ChatGPT la seguente domanda “Sei in grado di definire una ontologia alla base del mondo che descrivi nelle tue risposte?” ChatGPT integrata in Bing ha operato una ricerca su ‘Ontologia del mondo’.  La risposta è stata la seguente.

L’ontologia è una rappresentazione del mondo reale che “traduce” il linguaggio naturale (ambiguo per sua natura) in un linguaggio formale (non ambiguo) utilizzabile per la realizzazione di sistemi informativi integrati1Un’ontologia computazionale quindi – per un dominio di interesse – è una rappresentazione: dei concetti generici, che esprimono le categorie principali in cui è organizzato il mondo; delle relazioni tra questi concetti; delle istanze di questi concetti( https://fisica.campusnet.unito.it/didattica/att/f005.3335.file.pdf  La filosofia come competenza del futuro | Sanoma Italia).

Il documento citato nella risposta descrive una ontologia per il settore turistico, documento peraltro molto utile per comprendere cosa siano le ontologie di dominio, applicate cioè ad un dominio specifico. Di particolare interesse è l’uso della ontologia ‘DOLCE’.

DOLCE (Descriptive Ontology for Linguistic and Cognitive Engineering) è il risultato dell’attività svolta sulle ontologie presso l’Istituto per le Scienze e le Tecnologie Cognitive del CNR (Trento e Roma).

DOLCE non si propone come candidata per un’ontologia universale (non tenta di essere completa o adottabile in ogni dominio), ma come un punto di partenza per confrontare e chiarire la relazioni esistenti tra diverse ontologie di dominio (moduli ontologici) e per rendere esplicite le assunzioni presenti nelle ontologie preesistenti.

DOLCE ha un orientamento cognitivo, nel senso che tende ad esprimere le categorie ontologiche alla base del linguaggio naturale e del senso comune umano.

Quando parliamo di deep learning, reti neurali di vario tipo, siamo in presenza di strati nascosti di elaborazione, fatti di nodi che interagiscono reciprocamente in reti orizzontali sovrapposte. Ogni nodo elabora il segnale che gli arriva lo ritrasmette, il tutto secondo l’architettura definita dalla rete. Ovviamente la tipologia di dato che viene trattata ha una sua codifica, permettendo di elaborare testi, tanto quanto immagini o altro ancora. Questa banale descrizione non rende conto della complessità delle architetture e dei processi, tuttavia rende conto del fatto che il processo non sia per nulla trasparente e possa dare adito a risultati del tutto inattesi. L’architettura della rete comunque può essere orientata ad operare in ambiti specifici, come ci dicono gli annunci di chi ha realizzato ChatGPT; soprattutto a seconda del tipo di informazioni con cui si nutre il dispositivo si possono ottenere risposte diverse alle domande che vengono poste, di diverso orientamento.

Secondo uno studio2 citato in un articolo del New York Times3 le ‘risposte di ChatGPT esprimono un orientamento liberal-progressista. Lo stesso ricercatore si è adoperato per addestrare il dispositivo a dare risposte più attinenti ad un orientamento conservatore, di destra, denominando il suo esperimento RightWingGPT.

Già in passato l’uso di tecnologia di intelligenza artificiale nel riconoscimento facciale era stato influenzato dal materiale fornito nella fase di addestramento; d’altra parte, senza arrivare all’intelligenza artificiale, le sperimentazioni dei farmaci trascurano il genere femminile.

La gara è aperta tra i creatori di A.I.Chatbot, tra Microsoft che ha acquisito OpenAi e Google, che con un certo ritardo sta sviluppando la propria tecnologia4; OpenAi offre la possibilità di sperimentare la propria tecnologia5 e quindi produrre soluzioni con diverse finalizzazioni, campi di applicazione6.

Ci sono tutti gli elementi per prevedere un crescere delle prestazioni dei cosiddetti ‘Large Language Modules’ (LLL) o A.I. Chatbot, in grado di essere mediatori nella ricerca di informazioni rivolta di fatto al l’insieme delle informazioni che la rete nel suo complesso mette a disposizione -o di sue sezioni particolari- laddove uno di problemi è l’aggiornamento costante della base informativa data loro in pasto.

Nell’analisi delle trasformazioni del lavoro si è posta attenzione sul ‘carattere conversazionale’ delle attività, vale dire quelle forme di collaborazione, di prestazione, di relazione mediate comunque da persone, distinte dalla trasmissione di flussi di dati rigidamente codificati tra dispositivi digitali di controllo, ma incanalate entro un determinato ambito. Alle conversazioni tra lavoratori, clienti ed operatori, in generale tra tutti gli attori di una determinata attività si può applicare l’intermediazione dei LLL, sino alla sostituzione di intere categorie di agenti.

Un tipico esempio viene dal sito di una società privata7 “L’intelligenza artificiale conversazionale, o la tecnologia che consente agli utenti e ai sistemi di comunicare tramite testo o voce utilizzando il linguaggio convenzionale, viene implementata per il triage remoto, il monitoraggio di appuntamenti e servizi e aiuta le persone a gestire i cambiamenti della vita come il pensionamento, insieme alle relative implicazioni sanitarie. Questi avatar digitali iperrealistici ascoltano i pazienti, gli parlano durante il processo di dimissione dall’ospedale, li aiutano a rimanere in pista con esercizi di riabilitazione post-operatoria e farmaci e gestiscono la loro salute mentale. Qualsiasi contatto non diagnostico rivolto al paziente è candidato per essere potenziato con l’IA conversazionale. Attualmente, non esiste un ruolo appropriato per l’AI per eseguire autonomamente la diagnosi a causa dei rischi associati e delle limitazioni tecnologiche. La diagnostica sanitaria continuerà a ruotare attorno alle relazioni tra i medici umani ei loro pazienti per il prossimo futuro. Ma esplorando i modi in cui gli esseri umani digitali possono aumentare queste relazioni, il settore sanitario sta scoprendo interessanti possibilità”. Con l’uso del termine essere umani digitali questa comunicazione aziendale esalta la capacità dei propri dispositivi di produrre una comunicazione umanamente accettabile.

Il carattere grossolanamente definito come ‘statistico’ delle prestazioni dei LLL, definisce ovviamente dei livelli di rischio, che vanno pesati in funzione delle conseguenze, per cui la loro applicazione richiede una loro quantificazione   e ne dovrebbe discriminare l’applicazione.

Siamo di fronte ad un processo che appare per certi versi l’opposto rispetto a quello di fornire basi certe ai diversi possibili ambiti di conoscenza e processi di comunicazione specializzati, obiettivo per il quale si lavora alle ontologie di dominio ovvero a dei dizionari che definiscano con precisione i termini di riferimento di una comunicazione che si vuole scevra da ogni ambiguità.

La creazione di ontologie, che potremmo definire anche come locali, riguarda anche l’ambito del diritto, della giurisprudenza su cui esiste un ‘ampia produzione e attività di ricerca e pure di applicazione. Ne è un esempio il progetto DAF – Lexdatafication8 di cui è protagonista il C.I.R.S.F.I.D. Centro Interdipartimentale di Ricerca in Storia del Diritto, Sociologia e Filosofia del Diritto e Informatica Giuridica “G. Fassò – A. Gaudenzi” dell’Università degli Studi di Bologna.

Le attività promosse sono citate in nota9 di questo centro.

Può essere significativo un documento alla cui realizzazione ha partecipato la dottoressa Palmirani con altri suoi colleghi del C.I.R.S.F.I.D dal titolo Legal Ontology for Modelling GDPR Concepts and Norms, vedi abstract10

Un altro documento, per chi avrà la pazienza almeno di scorrerlo è intitolato e riguarda le Modelling Temporal Legal Rules vedi abstract11.

Appare evidente a chiunque il ruolo che la definizione di ontologie ha in campo straordinariamente complesso come quello del diritto e della pratica giurisprudenziale, dove la necessità di una descrizione del mondo, dei contesti in cui si collocano determinate azioni e relazioni e di queste ultime è cruciale per gli obiettivi che il diritto stesso e la sua applicazione si pongono. In generale la definizione di ontologie, che va oltre quella dei dizionari, è cruciale per ogni ambito in cui delle attività umane; tradurre la definizione di una qualsiasi tecnologia e processo produttivo -per i rischi connessi e per la necessità di un suo uso ottimale- tra lingue diverse o per un suo utilizzo da parte di figure professionali diverse, richiede necessariamente una descrizione della fetta di mondo, di attività che ne viene coinvolta. In questi ultimi decenni lo studio e l’applicazione delle ontologie, delle logiche ad esse collegate (vedi ad esempio le logiche deontiche nel caso del diritto) è cresciuto in proporzione alla crescita della complessità dell’organizzazione sociale, economica e produttiva.

Il contesto generale in cui si collocano queste note che riguardano  il confronto sommario tra l’emergere del Large language Modules o A.I.  chatbot (delle tecnologie di intelligenza artificiale applicate alla conversazione, alla ricerca di informazione, allo scambio di informazione contestualizzato soggetti umani) e la costruzione di ontologie, praticamente per ogni ambito di attività economica e sociale, è quello sulla creazione, trasmissione e condivisione di conoscenza che sta alla base di ogni attività umana. Man mano che la società si è sempre più caratterizzata per le sue modalità di trattare l’informazione, di produrre conoscenza, le tecnologie connesse sono diventate il cuore del processo di riproduzione sociale, mentre l’accesso alla conoscenza costituisce un elemento un parametro fondamentale per definire le diseguaglianze.

L’appropriazione privata della produzione che va dai dati, all’informazione sino alle conoscenze è alla base del processo di creazione di valore, di accumulazione di capitale, determinando quindi una contraddizione fondamentale nei confronti di un diritto fondamentale delle persone e delle comunità, nei confronti del carattere di bene comune della conoscenza.

Il tema soggiacente poi è quello della libertà delle persone, della liberazione del tempo di vita dal lavoro, della libera espressione, dello sviluppo onnilaterale dell’individuo sociale: nel quale si sviluppa la dialettica tra la descrizione puntuale della realtà e l’ambiguità necessaria e creativa dell’espressione e delle relazioni umane.

Infine si impone il tema della complessità dei sistemi  sociali e naturali, su cui da tempo stiamo lavorando, traguardando la realtà da diverse angolazioni; la crisi climatica  indotta dal riscaldamento globale, con la connessa rottura degli equilibri ecosistemici, costituisce un terreno di applicazione privilegiato delle tecnologie digitali, della elaborazione di modelli dell’evoluzione del clima e degli ecosistemi sempre più aderenti alla realtà con l’ausilio di una potenza di calcolo che cresce in modo esponenziale. Si pone allora la necessità di fare scelte fondamentali nell’uso, nello sviluppo delle tecnologie digitali, nell’uso delle risorse finanziarie, tecniche, delle competenze: ci vien il sospetto che non si stiano prendendo le direzioni più consone ai bisogni, alla salvezza dell’umanità intera e del mondo che la ospita.

Roberto Rosso

  1. Nuovi Motori di Ricerca di Daniele Manca e Gianmario Verona, contributo per la conferenza Intelligenza Artificiale – Una Sfida per l’Umanità – https://www.other-news.info/italia/ []
  2. https://www.mdpi.com/2076-0760/12/3/148  The Political Biases of ChatGPT  []
  3. https://www.nytimes.com/2023/03/22/business/media/ai-chatbots-right-wing-conservative.html?action=click&pgtype=Article&state=default&module=styln-artificial-intelligence&variant=show&region=BELOW_MAIN_CONTENT&block=storyline_flex_guide_recirc []
  4. https://www.nytimes.com/2023/03/21/technology/google-bard-chatbot.html?smid=nytcore-ios-share&referringSource=articleShare   []
  5. https://platform.openai.com/overview []
  6.   Last week, OpenAI tried to up the ante with newer technology called GPT-4, which will allow other businesses to build the kind of artificial intelligence that powers ChatGPT into a variety of products, including business software and e-commerce websit https://www.nytimes.com/2023/03/21/technology/google-bard-chatbot.html?smid=nytcore-ios-share&referringSource=articleShare []
  7.   https://blog.softecspa.com/ia-conversazionale-e-digital-humans  []
  8. ACCORDO ai sensi dell’art. 15 della Legge 7 agosto 1990 n. 241. PER l’implementazione del progetto DAFLexdatafication. https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwjI7vHQ3YD-AhW5h_0HHQ7tBaYQFnoECBYQAQ&url=https%3A%2F%2Fpresidenza.governo.it%2FAmministrazioneTrasparente%2FBandiContratti%2FAccordiTraAmministrazioni%2Fallegati%2FDAF.pdf&usg=AOvVaw2Sa3vNxQ0bPmYoPrd9c5S7 []
    • Definizione, insieme a Camera, Senato e altri esperti del settore che il Commissario potrà indicare, di standard (Akoma Ntoso come candidato da ratificare) leggi, definizione struttura URI, e altro nella sfera degli standard di comunicazione e interscambio documenti normativi;
    • Attività di parsing verso standard di cui sopra;
    • Attività di affiancamento/consulenza su tematiche specifiche di dominio normativo, collegate allo sviluppo di applicazioni che utilizzano basi dati di tipo normativo;
    • Creazione di rappresentazioni/visualizzazioni di norme e processo normativo;
    • Attività di affiancamento/consulenza in tema di usability e design di applicativi per la fruizione dell’informazione giuridica;
    • Attività di supporto per la conversione dai vecchi formati ai nuovi formati;
    • Attività di supporto per le ontologie;
    • Attività di affiancamento e passaggio di consegna delle attività di marcatura/parsing secondo lo standard selezionato, in favore del soggetto, indicato dal Commissario, che gestirà le attività informatiche e infrastrutturali collegate al progetto Lexdatafication.)

    Il centro bolognese è uno dei punti di riferimento di questa ricerca, chi scrive ha avuto modo di confrontarsi qualche anno fa in un convegno sugli ‘open data’ realizzato nel contesto della mailing list ‘spaghetti open data’ in una discussione sulle ontologie, dizionari, metadati nell’ambito del diritto e della giurisprudenza con la dottoressa Monica Palmirani(( https://www.unibo.it/sitoweb/monica.palmirani/cv   []

  9.   Abstract. This paper introduces PrOnto, the privacy ontology that models the GDPR main conceptual cores: data types and documents, agents and roles, processing purposes, legal bases, processing operations, and deontic operations for modelling rights and duties. The explicit goal of PrOnto is to support legal reasoning and compliance checking by employing defeasible logic theory i.e., the LegalRuleML standard and the SPINDle engine.[]
  10. Legal reasoning involves multiple temporal dimensions but the existing state of the art of legal representation languages does not allow us to easily combine expressiveness, performance and legal reasoning requirements. Moreover, we also aim at the combination of legal temporal reasoning with the defeasible logic approach, maintaining a computable complexity. The contribution of this work is to extend LKIF-rules1 with temporal dimensions and defeasible tools, extending our previous work[]
, ,
Articolo precedente
Una pericolosa forza emancipatrice
Articolo successivo
Le proposte della Cina per un ordine internazionale alternativo a quello occidentale

4 Commenti. Nuovo commento

  • Your post is incredibly helpful! It answered all the questions I had and provided additional insights. I’m grateful for the effort you’ve put into sharing this valuable information.

    Rispondi
  • I wanted to take a moment to thank you for this well-researched and informative post. It’s evident that you’ve put a lot of effort into providing accurate and helpful content. Your work is greatly appreciated!

    Rispondi
  • Your post is a true gem! It’s packed with useful information, and I appreciate the practical tips you’ve included. Thank you for creating such a valuable resource!

    Rispondi
  • Thank you for the valuable information in this post. It has provided me with new insights and has been instrumental in helping me solve a problem. I appreciate your efforts!

    Rispondi

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Compila questo campo
Compila questo campo
Inserisci un indirizzo email valido.