Guest post di Fabio Vomiero
Come di solito succede per ogni ambito intellettuale legato in qualche modo ai processi di produzione della conoscenza e dei saperi, anche per quanto riguarda le molteplici e variegate applicazioni della cosiddetta Intelligenza artificiale (IA) dovrebbe essere necessaria un'attenta e costante riflessione epistemologica.
In realtà il dibattito non manca, come è normale che sia nel caso di un tema diventato rapidamente così universale e pervasivo, il problema però è che questi dibattiti, che oramai si generano di continuo a tutti i livelli, dal bar al laboratorio di ricerca, appaiono troppo spesso viziati da una contaminazione teorica di stampo evidentemente ideologico.
Così, ci sono coloro che credono nella quasi onnipotenza delle macchine virtuali e che un giorno sì e uno no intravedono il raggiungimento della cosiddetta "Singolarità", ossia quel momento in cui le macchine potrebbero diventare più intelligenti degli esseri umani comportandosi di fatto come delle entità autonome e imprevedibili e poi ci sono gli scettici di vario tipo, spesso ancorati a uno spettro di visioni, più o meno grossolane, legate ai concetti di unicità e di irriducibilità di tutte quelle che sono le capacità cognitive specifiche degli esseri umani.
Nel frattempo, il significato del termine "intelligenza artificiale" si è ampliato in maniera ipertrofica fino ad assumere proporzioni davvero imbarazzanti, nonostante il concetto sia vecchio oramai di decine di anni e l'incipit di questo complesso programma di ricerca risalga addirittura alla metà del secolo scorso grazie ai prodigiosi lavori in particolare di A. Turing e J. Von Neumann.
Ma lasciando per una volta da parte la pedanteria legata all'indicazione puntuale e all'analisi di tutti gli incredibili successi ottenuti da queste nuove tecnologie nei più disparati campi di applicazione e di ricerca, favoriti naturalmente anche da una capacità computazionale dei computer che soltanto poco tempo fa era ritenuta impensabile, proviamo a fare invece qualche riflessione sul significato profondo di questo modo di produrre e di gestire la conoscenza.
Potremmo iniziare per esempio con il porci delle semplici domande: si tratta di vera intelligenza? Con che tipo di produzione di conoscenza abbiamo a che fare? Ci possiamo fidare dell'IA generativa, tipo ChatGPT e altri programmi linguistici? E' possibile definire una sorta di verità della conoscenza a cui tutti poi faranno in qualche modo riferimento? E che fine ha fatto, oppure farà, il potere perturbante, ma allo stesso tempo creativo, del pensiero e del ragionamento critico? Come saranno gestiti dalle macchine gli eventi casuali (imprevisti e imprevedibili), le novità interpretative e l'emergenza continua di nuovi pattern sistemici della realtà? E inoltre, spingendosi ancora più in là, è possibile che una macchina possa riuscire a replicare addirittura caratteristiche tipiche della complessità della mente come le emozioni, la creatività, la moralità o la coscienza?
Ovviamente non esistono delle risposte univoche e definitive a questo tipo di domande, tuttavia, una modalità di approccio fondamentalmente pragmatica non può non considerare almeno tre aspetti preliminari che appaiono piuttosto evidenti: primo, non esiste ad oggi alcuna macchina dotata di pensiero e di comportamento autonomi che riesca a simulare integralmente le caratteristiche umane, la cosiddetta AGI (Artificial General Intelligence), secondo, le proclamazioni del raggiungimento imminente di nuovi e clamorosi obiettivi tecnologici da parte dell'IA subiscono quasi sistematicamente uno slittamento in un futuro perlopiù indefinito, e terzo, al di fuori del dominio per il quale è stato progettato, nessun programma di IA generativa riesce ancora a superare il test di Turing, ossia l'eventuale possibilità che un osservatore ignaro non riesca a distinguere una macchina da un essere umano durante o dopo un dialogo a distanza.
Esistono quindi dei limiti epistemologici che vincolano in qualche modo il raggiungimento di certi risultati, oppure è soltanto una questione di tempo per cui, prima o poi, tutto sarà possibile?
In realtà, a parte i domini specifici e iperspecializzati che generalmente sono ottimamente gestiti sia dalle enormi capacità computazionali della IA simbolica classica, che dalle performance aggiuntive (dinamicità, adattamento, apprendimento, ecc.) fornite dalle nuove tecnologie basate sulle reti neurali artificiali (Artificial Neural Networks), ci sono invece degli ambiti più generalisti, come per esempio la ricerca sulle nuove forme di AGI, oppure lo sviluppo dei processi di produzione della conoscenza da parte dell'IA generativa, in particolare ad opera di modelli linguistici autoregressivi tipo ChatGPT, che mostrano invece degli aspetti di possibile criticità (M.Boden, 2018)
Per esempio, mentre per un programma sviluppato specificatamente per il gioco degli scacchi (come Deep Blue che vinse contro il campione Kasparov, oppure il famoso AlphaGo) non c'è in teoria alcun problema in quanto l'algoritmo riesce a cogliere perfettamente sia le regole del gioco che tutte le possibilità di movimento di ogni singolo pezzo, diversamente il discorso si complica esponenzialmente quando ad essere in gioco è invece l'intera gestione di un sistema fortemente aperto, complesso e dai confini estremamente mobili come quello della conoscenza.
Un programma generatore di testi come ChatGPT, infatti, basato su modelli a reti neurali, crea certamente nuovi contenuti, ma non produce conoscenza dal nulla, limitandosi generalmente a gestire in vari modi quella già esistente con algoritmi che lavorano su una memoria molto grande e che utilizzano diversi metodi statistici efficaci a vari livelli: per esempio, nella fase di "addestramento" (machine learning), la rete regola i suoi pesi e le sue connessioni in modo da poter stabilire la massima probabilità di connessione tra una frase e la parola che segue e altre operazioni di questo tipo... Ebbene, si può definire intelligente un sistema di questo tipo? Oppure è soltanto la sensazione degli utenti a percepirlo come tale.
Il problema è che l'atto logico-linguistico esercitato dalla mente umana non ha quasi mai delle regole fisse e predeterminate, ma è invece quasi sempre figlio anche di una certa dose di soggettività dettata dalle esperienze, dal background culturale, dalla ricchezza semantica o dall'ambiguità del linguaggio stesso, dalla multidimensionalità del pensiero e dalle possibili e plurali visioni del mondo. Le regole del "se/allora" funzionano molto bene in contesti, come quello degli scacchi, in cui la sintassi e la semantica coincidono perfettamente, ma diventano invece meno performanti quando l'ambito di elaborazione diventa estremamente aperto, dal punto di vista semantico, come quello del linguaggio o della conoscenza.
Ecco che allora all'interno di uno scenario teorico di questo tipo, si può comprendere facilmente come anche tutto il complesso, ma nebuloso processo che le IA utilizzano per la selezione delle fonti e la sistemazione/categorizzazione di fatti, teorie e scelte, con lo scopo di creare una certa rappresentazione del mondo, possa costituire un punto effettivamente delicato.
C'è poi il serio problema della reale significatività dei dati, oggi chiamati comunemente big data. Occorre ricordare che un dato non è mai di per sé un qualcosa di neutro ed oggettivo, ma è piuttosto un segnale che assume uno o più significati soltanto all'interno di una schema teorico, o di un modello, che sia in grado di osservarlo, di riconoscerlo e di definirlo. A volte gli stessi dati possono anche essere letti ed interpretati in modi completamente diversi proprio perché le teorie e soprattutto i modelli non sono quasi mai universali, ma tendono invece sempre a focalizzarsi su certi aspetti del mondo e non su altri.
Inoltre queste enormi masse di dati, sia pubblici che privati, per vari motivi sono spesso soggetti a tutta una serie di possibili problematiche che ne possono ridurre la qualità complessiva: dati vecchi oppure non adeguatamente aggiornati, dati inaffidabili o inattendibili, dati parziali o non accessibili, dati troppo selettivi o poco rappresentativi, dati che derivano da errori procedurali, strumentali o anche da azioni di malafede, ecc. (Leonelli, 2018).
Recentemente, anche diversi autori si stanno concentrando proprio su questo tipo di problematiche. Sulle riviste scientifiche più importanti, come per esempio Nature, si intravedono oramai diversi lavori che iniziano a lanciare un messaggio di allarme su come un uso esagerato ed improprio dei mezzi di IA potrebbe in qualche modo danneggiare persino la ricerca scientifica stessa, introducendo nuovi elementi di bias legati per esempio alla generazione di errori, all'illusione di obiettività, o alla riduzione delle capacità di comprensione generale di concetti complessi (Messeri e Crockett, 2024 – Biyela, 2024).
Pertanto, al di là dei soliti e facili entusiasmi che scaturiscono inevitabili di fronte all'indiscutibile successo delle straordinarie applicazioni dell'IA, occorre mantenere, come sempre, un atteggiamento prudente e consapevolmente critico, anche perché, come ci ricorda sapientemente il fisico teorico Ignazio Licata: “i modelli di Open IA (es. ChatGPT) non sfuggono alla legge universale dell'informatica (GIGO: garbage in, garbage out), ma possono aggirarla in un gran numero di modi grazie ad una quantità di risorse informazionali pari idealmente all'intera rete.”
Malgrado quindi il tifo dei più accaniti sostenitori (ricordiamo che il business mondiale legato all'IA si aggira già sui 160-180 miliardi di dollari all'anno), quelle appena descritte sono delle problematiche così articolate e complesse, che difficilmente potranno essere risolte da future nuove performance computazionali dei computer, per le stesse ragioni epistemologiche, o quasi, per cui in biologia sintetica, nonostante i proclami, non si riuscirà mai a sintetizzare ex novo nemmeno il più semplice degli esseri viventi (figuriamoci un essere umano) e per cui in biologia molecolare, nonostante il pressoché completo sequenziamento del genoma umano, si è di fatto ancora lontani dal comprendere davvero il reale significato e la funzione dei circa 25000 geni codificanti apparentemente descritti.
giustissimo. Occorre che chi lavora in tale ambito produca una specifica analisi epistemologica per chiarirne i presupposti taciti o meno che ne sono alla base