Ultimamente ho partecipato a vari incontri sull’intelligenza artificiale. L’argomento ChatGPT è giustamente all’ordine del giorno: abbiamo a che fare con una macchina che si esprime fluentemente nel nostro linguaggio. Non era mai accaduto. Tutt’al più abbiamo potuto scambiare solo pochi segnali convenzionali con animali addestrati allo scopo. Finalmente possiamo fare quattro chiacchere con una entità non umana.

Il comportamento di questa macchina conversazionale (definita genericamente LLM, Large Language Model, di cui ChatGPT è l’esponente più famoso) mette in discussione l’idea stessa di macchina. Da quando, circa 20.000 anni fa, l’Homo Sapiens inventò il propulsore per dare alla zagaglia una spinta quattro volte maggiore, la macchina è stata sempre un servitore obbediente e prevedibile. Invece, un LLM va oltre l’ottusa obbedienza, mostrando di saper interpretare richieste anche vaghe dell’interlocutore umano e di rispondere con un certo grado di creatività. Cosa che ci dà grande soddisfazione nel dialogo, ma che solleva un interrogativo: possiamo fidarci di una macchina che non si limita a obbedire ciecamente?

Ogni dibattito ruota intorno al concetto di ‘intelligenza’. I nuovi sistemi computazionali portano appiccicato il termine intelligenza fin da quando nel 1956 John McCarthy definì “Artificial Intelligence” il nuovo campo di studio sull’apprendimento e sulle funzioni avanzate delle macchine informatiche. Ma fin dall’inizio si capì che il termine era fuorviante. Marvin Minsky, un pioniere del settore, sostenne che ‘intelligenza’ fosse una parola-valigia perché viaggiava sempre associata con termini cugini, quali apprendimento, pensiero, cognizione, significato, informazione, coscienza, ragione, emozione.

Senza dubbio l’illusione di avere a che fare con una entità intelligente è irresistibile: ChatGPT è cortese e disponibile, usa un linguaggio impeccabile nel tono e nella sintassi, mostra interesse e partecipazione verso l’interlocutore. Insomma, per una conversazione amichevole è perfetta. Comincia a dare qualche problema quando le viene richiesto un compito un po’ più specialistico. Allora le risposte tendono a diventare superficiali e stereotipate. Altre volte inventa di sana pianta, come quando mi ha fornito citazioni di Italo Calvino che non esistono. Lo ha fatto perché ho insistito troppo e alla fine ha voluto compiacermi, come fa un servo troppo zelante.

Gli scienziati e gli ingegneri che l’hanno inventata ci dicono che ChatGPT è stata costruita e allenata con miliardi di testi solo per individuare la parola successiva congruente con tutte le parole già dette della conversazione corrente. Non conosce il senso della parola scelta, né del testo che sta componendo. Cerca solo di completare lo schema individuato nel testo che sta leggendo. Invece di utilizzare ‘intelligenza artificiale’ per descrivere un simile comportamento sarebbe opportuno, per evitare equivoci, parlare di ‘linguistica computazionale’, un calcolo fatto con le parole. Ne consegue che l’intelligenza della macchina sarebbe solo una nostra allucinazione, la proiezione antropomorfa di abilità umana su una entità meccanica, come quando diciamo ‘lui’ parlando di un computer. Per non parlare di tutte le illazioni che si fanno su una presunta coscienza della macchina.

È una spiegazione tecnicamente ineccepibile, che dovrebbe chiudere il dibattito sull’intelligenza. Eppure, non ci convince perché qualcosa non torna. Nello Cristianini, professore di Intelligenza Artificiale all’Università di Bath, nel suo ultimo libro Machina Sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza, ha riportato la seguente conversazione con ChatGPT:

Nello: ChatGPT, se ho una macchina senza benzina e una tanica vuota, e il distributore è distante un chilometro, come posso riempire il serbatoio?

ChatGPT: Puoi camminare fino al distributore con la tanica vuota, riempirla di benzina e poi tornare alla macchina per versare la benzina nel serbatoio.

Se è vero cha la macchina calcola la parola che si aggiunge con la più alta probabilità alle parole precedenti di un testo, come ha potuto sviluppare un ragionamento che utilizza un modello di mondo, secondo cui il distributore distribuisce benzina (e non caramelle), un uomo può fare un chilometro a piedi senza sforzo, una tanica vuota può essere riempita di un liquido, la benzina è un liquido, ecc. ecc. Quando e come la macchina ha esperito il mondo su cui imbastisce la propria risposta?

L’unica ipotesi ragionevole è la seguente: il linguaggio naturale incorpora il nostro modo di ragionare sul mondo, che a sua volta incorpora un modello di mondo. ChatGPT, imparando il funzionamento del linguaggio naturale, senza volerlo ha imparato a ragionare come noi e, in modo ancora più inatteso, ha appreso il modello di mondo che nel nostro ragionare è cablato.

Dunque, conviene essere cauti nel considerare i limiti di questa macchina. La cautela è necessaria anche perché la nuova macchina si trova nella sua fase infantile. Le prestazioni sono destinate a migliorare velocemente per due ragioni. Primo, perché essa apprende continuamente: più viene usata, più sbaglia, più si corregge e migliora. Secondo, perché la sua struttura algoritmica sta subendo una mutazione silenziosa, assumendo una architettura modulare, come il modello che Jerry Fodor ha immaginato per la mente umana.

Per Fodor la mente umana è come una cattedrale con una navata centrale, dove risiede l’intelligenza generale, circondata da tante cappelle specializzate, dove si trovano moduli dedicati al ragionamento logico, alle abilità matematiche, alle abilità sociali, ecc. L’archeologo Steven Maiden ha utilizzato il modello di Fodor per descrivere l’evoluzione della mente nella preistoria del genere umano. Ebbene, ChatGPT sta seguendo lo stesso processo evolutivo: prima c’è stato solo l’algoritmo centrale provvisto di una capacità generale di apprendimento e di decisione, ora si aggiungono un insieme di algoritmi specialistici, tra breve - predice il modello - gli algoritmi specialisti si salderanno con quello generale mediante interfacce sempre più sofisticate. E, allora, le prestazioni dei LLM faranno un balzo in avanti.

Da tutto ciò ricavo un paio di conclusioni: la macchina fa qualcosa che c’entra poco sia con l’intelligenza umana, con quella degli animali e delle piante: essa fa solo calcoli probabilistici con le parole; non per questo bisogna sottovalutarla, perché nelle parole c’è il nostro mondo. Consiglierei, dunque, di assumere un atteggiamento pragmatico, intermedio tra il riduzionismo tecnico e i ragionamenti filosofici sull’intelligenza. Lo stesso che consigliava Forrest Gump nel film di Zemeckis quando affermava: “Stupido è chi stupido fa”. Nel nostro caso diventa: “Intelligente è chi intelligente fa”. Studiamo quindi i comportamenti intelligenti di questa macchina straordinaria e utilizziamoli per farci aiutare - se ne siamo capaci - a sviluppare un rapporto più equilibrato tra noi e col nostro pianeta.

Bibliografia

Le notizie sulla storia dell’intelligenza artificiali sono ricavate dal libro di Melanie Mitchell, Artificial Intelligence. A Guide for Thinking Humans, Pelican Books, 2019.
Il libro di Nello Cristianini, Machina Sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza, è stato pubblicato da Il Mulino nel 2024. La citazione si trova a pag. 12.
Il libro di Jerry A. Fodor è La mente modulare, Il Mulino, 1988 (ed. or, 1983).
Il libro di Steven Mithen è The Prehistory of Mind. The Cognitive Origins of Art and Science, Thames and Hudson, 1996. Il modello dell’evoluzione della mente modulare è descritto alle pagg. 61-72.