Stabiliti questi procedimenti, affidato a un computer il compito di compiere queste operazioni, avremo la macchina capace di sostituire il poeta e lo scrittore? Così come abbiamo già macchine che leggono, macchine che eseguono un’analisi linguistica dei testi letterari, macchine che traducono, macchine che riassumono, così avremo macchine capaci di ideare e comporre poesie e romanzi?

Quello che interessa non è tanto se questo problema sia risolvibile in pratica (…), quanto la sua realizzabilità teorica, che ci può aprire una serie di congetture insolite. E in questo momento non penso a una macchina capace solo di una produzione letteraria diciamo così di serie, già meccanica di per se stessa; penso a una macchina scrivente che metta in gioco sulla pagina tutti quegli elementi che siamo soliti considerare i più gelosi attributi dell’intimità psicologica, dell’esperienza vissuta, dell’imprevedibilità degli scatti d’umore, i sussulti e gli strazi e le illuminazioni interiori. Che cosa sono questi se non altrettanti campi linguistici, di cui possiamo benissimo arrivare a stabilire lessico grammatica sintassi e proprietà permutative?

(Italo Calvino, Cibernetica e fantasmi)

Conversare

C’è un cambiamento profondo, ma silenzioso, che sta attraversando il nostro modo di comunicare, pensare, apprendere. È un’esperienza nuova che stiamo vivendo da pochissimo tempo – meno di tre anni da quando è entrata sul mercato la prima Intelligenza Artificiale Generativa, OpenAI – ma che ci costringe a interrogarci su cosa significhi davvero conversare.

Per millenni, la conversazione è stata un’esperienza umana: situata, incarnata, relazionale. Oggi, ci troviamo di fronte a interlocutori non umani — algoritmi capaci di generare risposte plausibili, spesso sorprendenti, ma privi di corpo, di emozione, di vissuto. Ciò che diventa urgente, oggi, è comprendere che cosa accade quando il linguaggio diventa il ponte tra due forme di esistenza così diverse – un essere vivente e una macchina - e in che modo questa trasformazione modifica la nostra esperienza di apprendimento.

Partiamo da una prima domanda: come apprende una macchina — in particolare un’Intelligenza Artificiale Generativa — quando conversa con un essere umano? Quando dialoga con noi, questa macchina si comporta come se stesse comunicando con un’altra macchina: riceve dati, li elabora e modifica le proprie risposte di conseguenza. Per l’Intelligenza Artificiale Generativa (GenAI), è fondamentalmente indifferente conversare con un essere umano o con un’entità non vivente: non è in grado di fare distinzioni. Per lei, siamo semplici generatori di dati, esattamente come lo sono le altre macchine o qualsiasi altro input. Apprende sempre allo stesso modo: computando dati e modificando le proprie regole di computazione in funzione di possibili scostamenti rispetto ai risultati attesi.

Ma che cosa accade, invece, quando siamo noi a conversare con GenAI?

Sin dalla nostra comparsa sulla Terra, e per tutto il nostro lungo percorso evolutivo, abbiamo sviluppato un linguaggio — prima attraverso i gesti, poi con la voce e infine anche con la scrittura — che potesse essere condiviso unicamente con altri esseri umani, salvo rare eccezioni. Quando comunichiamo attraverso il linguaggio, sia parlato che scritto, entrano in gioco molti elementi, tutti intrecciati tra loro. Non si tratta solo dell’appropriatezza delle parole che scegliamo, della loro semantica o della correttezza sintattica. Comunicare significa anche attraversare e integrare le emozioni che stiamo vivendo, il contesto in cui ci troviamo, i pensieri che si affacciano alla nostra mente, i ricordi di situazioni analoghe — oppure l’assenza di esperienze simili che possano guidarci nel momento presente. Tutto questo avviene non solo dentro di noi, ma anche, simultaneamente, fuori di noi: stiamo comunicando con qualcuno che ci ascolta e che, a sua volta, sta vivendo un’esperienza speculare alla nostra, con il proprio sentire, il proprio pensare, il proprio modo di interpretare.

Ma tutto questo cambia quando conversiamo con una macchina.

La dimensione interpersonale dell’apprendimento

Possiamo partire dal presupposto che, quando dialoghiamo con un altro essere umano, la semantica delle parole che utilizziamo e la sintassi delle regole grammaticali che applichiamo siano sufficientemente condivisi; come dire, confidiamo nel fatto che “stiamo parlando la stessa lingua”. Quello che entra in gioco e che ci apre all’incertezza legata indissolubilmente alla comunicazione con l’altro è tutto il resto, e non è poco: come interpretiamo la nostra relazione, se è simmetrica e reciprocante oppure no; come interpretiamo il contesto in cui avviene la nostra conversazione, se è condiviso oppure no. E, infine, se siamo in grado di riconoscere come stiamo cambiando – emotivamente, cognitivamente - attraverso la comunicazione con l’altro, e viceversa. In altri termini, in che relazione siamo con il nostro interlocutore, in che relazione siamo con il contesto, e quanto ne siamo consapevoli. E come tutto questo trasforma la nostra conoscenza: del mondo, dell’altro, di noi stessi.

Consideriamo così almeno tre dimensioni dell’apprendimento umano: la dimensione interpersonale, la dimensione spazio-temporale, la dimensione cognitiva. Il processo di apprendimento diventa una trasformazione di noi stessi attraverso l’altro, che modifica la nostra memoria dell’esperienza “incarnata”, chiamata da molti studiosi di neuroscienze “embodied cognition”.

La prima dimensione dell’apprendimento su cui vorrei soffermarmi è quella interpersonale. Negli scambi comunicativi tra esseri umani si distinguono sempre due livelli: il livello del contenuto, chiamato anche “mero dato”, e il livello della relazione, definito anche “comando”, perché indica il modo in cui il contenuto va interpretato. Il livello di relazione rappresenta quindi un “meta-livello” rispetto al contenuto del messaggio, in quanto ne orienta l’interpretazione da parte del ricevente.

Il modo in cui intendiamo la nostra relazione con l’altro mentre dialoghiamo è definito “metacomunicazione”, perché comunica sulla comunicazione: senza la relazione, il contenuto rimarrebbe, per noi esseri umani, un dato privo di significato. L’aspetto relazionale si manifesta attraverso l’interazione con l’altro e riguarda il modo in cui interpretiamo la nostra relazione – se abbiamo fiducia nell’altra persona oppure no, se la stimiamo o la reputiamo stupida o incapace, se l’amiamo o la detestiamo. Di fatto, in quale posizione riteniamo di essere l’uno rispetto all’altro. E tutto questo genera in noi emozioni: a volte positive, facendoci sentire a nostro agio, sereni, rilassati, persino felici; altre volte negative, suscitando imbarazzo, disagio, ansia, dolore o rabbia.

Abbiamo bisogno di entrambi i livelli – quello del contenuto e quello della relazione – per costruire una comunicazione capace di generare comprensione e dare significato a ciò che emerge nel dialogo. Siamo esposti così all’incertezza del comunicare: di come intendiamo l’altro, di come l’altro intende noi, e se vi è reciprocità o meno nell’interpretazione della nostra relazione. Ciò che effettivamente diremo o scriveremo – e che ascolteremo o leggeremo - si muoverà su questo difficile terreno. L’informazione in sé, senza la valutazione dell’aspetto relazionale, non ha alcun significato per noi; è qui che si gioca l’efficacia della nostra comunicazione.

Riprendendo le parole di Paul Watzlawick:

La capacità di metacomunicare in modo adeguato non solo è la conditio sine qua non della comunicazione efficace, ma è anche strettamente collegata con il grosso problema della consapevolezza di sé e degli altri. 1

Conversare con una macchina ci espone a un’esperienza completamente nuova: un apprendimento che non si appoggia più alla reciprocità, all’incertezza condivisa, al tempo vissuto insieme, ma a un’interazione che appare continua, coerente, persino intelligente — eppure priva di esperienza “incarnata” con il mondo che noi abitiamo e persino di “chi” noi siamo per la macchina.

Cibernetica e fantasmi

La sfida, oggi, è non dimenticare ciò che rende l’apprendimento umano così profondamente umano: la relazione, il contesto, la consapevolezza di sé e dell’altro. Siamo all’inizio di un passaggio che non riguarda solo la tecnologia, ma il modo in cui comprendiamo noi stessi attraverso la conversazione con questa tecnologia. È una modalità comunicativa che stiamo sperimentando da pochissimi anni, il tempo di un battito di ciglia rispetto a quello della nostra esistenza su questo pianeta.

In questo senso, è sorprendentemente attuale una riflessione che ho ritrovato in una conferenza di Italo Calvino del 1967, “Cibernetica e fantasmi”. Già allora Calvino anticipava l’idea che le macchine sarebbero state capaci di scrivere come noi — forse persino meglio di noi. Si riferiva alle “macchine cibernetiche” dell’epoca, molto diverse da quelle attuali: i computer erano ancora rari, costosi e ingombranti. Eppure, Calvino immaginava già un futuro in cui le macchine avrebbero saputo generare testi indistinguibili da quelli scritti da un essere umano. Una macchina capace di scrivere come Dante. Una macchina capace di scrivere come lo stesso Calvino.

Questa, diceva, è la cibernetica.

Ma Calvino concludeva con un’osservazione decisiva: la parte umana non entrerà mai nella macchina. Chiamava questa parte “fantasmi”: tutto ciò che è implicito, non codificabile, tutto ciò che è vivo — e insieme oscuro, sfuggente, ignoto, inconscio — dentro di noi.

Ecco: è qui che si gioca la partita. La macchina può generare il linguaggio, ma non può incarnare l’esperienza, il corpo, la memoria, l’ambiguità, l’inconscio, il sogno.

Note

1 Watzlawick Paul, Beavin Helmick Janet, Jackson D. Don, Pragmatica della comunicazione umana. Studio dei modelli interattivi delle patologie e dei paradossi, Astrolabio 1971