Negli ultimi anni l’intelligenza artificiale ha puntato a un traguardo tanto complesso quanto cruciale: sviluppare una vera Teoria della mente (Theory of Mind), ossia la capacità delle macchine di comprendere e anticipare gli stati mentali degli altri, come credenze, intenzioni e desideri. Questa abilità è fondamentale per la collaborazione con gli esseri umani, per la robotica sociale e per la gestione di sistemi multi-agenti. I modelli attuali, però, mostrano forti limiti: si comportano bene in situazioni standardizzate, ma tendono a fallire non appena il contesto cambia, aumenta l’incertezza o la fatica mentale da sovraccarico cognitivo.

Un recente studio, One Model, Two Minds: A Context-Gated Graph Learner that Recreates Human Biases1, sviluppato da ricercatori dell’Università del Maryland, propone un nuovo modello di Theory of Mind ispirato alla celebre teoria dei “due sistemi”, resa popolare dallo psicologo premio Nobel Daniel Kahneman nel celebre libro Thinking, Fast and Slow, secondo la quale nella vita quotidiana gli esseri umani alternano due modi di ragionare: uno rapido, intuitivo (“istintivo”) ma spesso impreciso, e uno più lento, riflessivo e accurato (“razionale”). Il sistema cognitivo umano ha infatti risorse limitate e quindi, come risposta ai propri limiti, fa uso di forme di ragionamento rapido per semplificare decisioni e problemi.

Per esempio, nel processo diagnostico il medico sfrutta molto spesso (70% circa dei casi) percorsi cognitivi ‘veloci’, chiamati “euristiche”. Si tratta di strumenti decisionali a basso dispendio energetico, molto efficienti ed efficaci nella gestione quotidiana dei pazienti, ‘regole cognitive’ pratiche per risolvere i problemi quotidiani in ambulatorio. Nel rimanente 30% circa vengono utilizzate invece strategie più ‘lente’.

Un gruppo di ricercatori dell’Università del Maryland ha cercato di replicare questo doppio modo di ragionare all’interno di un modello di intelligenza artificiale (IA). Nello studio in oggetto i ricercatori si sono posti il seguente obiettivo: costruire una IA capace non solo di rispondere in modo veloce ed efficiente, ma anche di fermarsi, riflettere e cambiare idea quando il contesto lo richiede, proprio come fanno gli umani.

Il sistema si chiama OM2M (One Model, Two Minds) ed è formato da:

  • un Sistema 1 (la mente veloce) che pensa rapidamente, in modo automatico, usando una rete neurale che riconosce schemi abituali sulle relazioni tra agenti, oggetti e luoghi con grande efficienza;

  • un Sistema 2 (la mente lenta) che interviene quando serve riflessione perché la situazione è ambigua, complessa o richiede correzioni, usando un meccanismo di apprendimento adattivo che aggiorna le “convinzioni” del modello (i parametri) alla luce degli indizi contestuali;

  • un “interruttore intelligente” (contextual gating) che decide di volta in volta quale dei due sistemi deve avere la precedenza in base al contesto consentendo al modello di decidere quando “pensare veloce” e quando “pensare lento”, cioè quanto peso attribuire al ragionamento intuitivo e quanto a quello riflessivo.

Per esempio, se il carico cognitivo è alto o se i dati sono ambigui, viene attivato il ragionamento riflessivo. Il modello è stato messo alla prova in compiti classici di psicologia cognitiva, come il test della falsa credenza (la storia di Sally e Anne).

Questo è un esperimento usato in psicologia per capire se una persona (spesso un bambino) riesce a mettersi nei panni degli altri, cioè se ha sviluppato la cosiddetta “teoria della mente”.

Il test è il seguente: Sally ha un cestino e mette dentro una biglia. Poi esce dalla stanza. Mentre Sally è fuori, Anne prende la biglia e la sposta in una scatola. Quando Sally torna, si chiede al bambino: “Dove cercherà la biglia Sally?”. La risposta giusta è: nel cestino, perché Sally non sa che la biglia è stata spostata. Lei ha una credenza “sbagliata” (falsa credenza), ma coerente con quello che ha visto. Se un bambino risponde “nella scatola”, vuol dire che non riesce ancora a distinguere tra ciò che lui sa e ciò che l’altro personaggio crede. In sintesi: è un modo per testare se capiamo che gli altri possono avere pensieri diversi dai nostri, anche se sbagliati.

L’IA non solo ha mostrato una notevole capacità di sapersi adattare anche a situazioni inedite: nella versione “veloce” sbaglia, ma con il Sistema 2 attivo riesce a ragionare su cosa sa l’altro, cioè dimostra una forma computazionale di Theory of Mind.

In modo sorprendente, il sistema OM2M ha anche riprodotto spontaneamente quattro bias cognitivi tipici degli esseri umani, come l’ancoraggio, il condizionamento da priming, gli effetti del framing e la fatica da sovraccarico cognitivo (vedi box), senza alcun addestramento specifico per ciascun bias.

Bias cognitivi umani riprodotti dall’IA

Ancoraggio (anchoring)

Quando dobbiamo prendere una decisione o stimare un valore, tendiamo a fissarci sul primo numero o informazione che riceviamo (l’“ancora”).

Esempio: in ambito medico è il caso di un paziente con lombalgia che abbia una storia di ernia del disco; si è portati a diagnosticare ancora una volta una lombalgia da ernia discale perché ci si lega a una diagnosi già nota.

Priming

Il nostro cervello può essere condizionato da stimoli recenti o nascosti che influenzano il comportamento successivo, anche senza che ce ne accorgiamo.

Esempio: se prima di mostrarti un testo leggi la parola “vecchio”, potresti interpretare più lentamente un’immagine ambigua, perché sei stato inconsciamente orientato verso l’idea di lentezza.

Framing (effetto cornice)

Le persone prendono decisioni diverse a seconda di come un’informazione viene presentata, anche se i dati oggettivi sono identici.

Esempio: un farmaco che “ha il 90% di probabilità di successo” viene percepito meglio dello stesso farmaco descritto come “ha il 10% di probabilità di fallire”.

Sovraccarico cognitivo (cognitive load fatigue)

Quando la nostra mente è troppo impegnata da compiti complessi, stress o fatica, cediamo al pensiero veloce e superficiale invece di riflettere a fondo.

Esempio: se sei stanco dopo una giornata pesante, è più probabile che tu scelga cibi poco salutari o prenda decisioni impulsive, perché il cervello non ha più “energie” per ragionare con calma.

L’aspetto curioso e affascinante è che l’IA riesce anche a correggere questi bias quando riceve abbastanza indizi per attivare il Sistema 2. Così può cambiare risposta, proprio come farebbe una persona attenta e riflessiva.

Perché questo studio è importante

Questa ricerca non è solo un esercizio accademico. Le sue applicazioni potenziali sono vastissime:

  • robot sociali capaci di capire l’intenzione di un paziente o un anziano;

  • assistenti virtuali che sanno quando “fermare l’autopilota” e riconsiderare una decisione;

  • sistemi AI che non cadono in trappole cognitive in contesti critici come medicina, giustizia o guida autonoma.

Pur essendo promettente, il modello ha peraltro ancora limiti:

  • funziona bene in ambienti simulati, ma è da testare nel mondo reale;

  • richiede una definizione chiara del contesto per sapere quando attivare il Sistema 2;

  • è suscettibile a framing e fatica, proprio come noi.

Conclusioni

In pratica per la prima volta un modello computazionale non solo ragiona in maniera adattiva, ma commette anche i nostri stessi errori rispecchiando le dinamiche dei processi cognitivi umani, nei quali il pensiero intuitivo è efficiente ma fallibile e viene corretto dal pensiero deliberativo in situazioni complesse. OM2M è un passo avanti verso una IA che non solo “pensa”, ma pensa nel modo giusto al momento giusto.

In altre parole, OM2M non imita soltanto cosa pensiamo, ma anche come ci lasciamo influenzare dal contesto, aprendo la strada a macchine in grado di pensare in maniera più simile a noi, con comportamenti sociali più realistici e decisioni più flessibili. In questo modo, si dischiudono scenari interessanti per l’integrazione tra neuroscienze cognitive e intelligenza artificiale.

Note

1 Shalima Binta Manir, Tim Oate, One Model, Two Minds: A Context-Gated Graph Learner that Recreates Human Biases.