All’inizio si pensava che fosse possibile programmare l’intelligenza o, in altre parole, che fosse possibile costruire una macchina avendo come fonte di ispirazione l’essere umano. Per fare questo, si studiava il comportamento di “esperti”, ad esempio nel gioco degli scacchi, oppure si conduceva un’analisi del linguaggio naturale, e in seguito si trasferivano nel computer le regole di questi esperti o quelle del linguaggio, per far sì che la macchina acquisisse intelligenza. Questo approccio non ha portato a grandi risultati, perché il comportamento intelligente è qualcosa di adattativo, e perché il linguaggio non è fissato una volta per tutte, ma è in continua evoluzione.

(Luc Steels, L’intelligenza artificiale, evolutiva e ascendente)

Le cose facili sono difficili

L’Intelligenza Artificiale Generale (AGI) rappresenta, fin dalle origini dell’IA, l’orizzonte ideale sognato dai suoi promotori: una macchina capace di esprimere un’intelligenza pari, se non superiore, a quella umana, in grado di emulare comportamenti e capacità tipicamente umane. Non più soltanto macchine efficienti, progettate per svolgere compiti specifici, ma sistemi creativi, evolutivi, capaci di generare sorpresa. Un’intelligenza non solo funzionale, ma trasformativa.

Nel programma di ricerca sull’Intelligenza Artificiale nato dall’incontro di Dartmouth del 1956 — promosso da un gruppo di studiosi legati a John McCarthy, Marvin Minsky, Herbert Simon e Allen Newell — si faceva ricorso a sistemi simbolici per simulare nelle macchine le capacità logiche e razionali del cervello umano, senza tuttavia riprodurne i reali meccanismi di funzionamento. Nonostante le grandi aspettative e gli ingenti investimenti economici, i risultati sperati tardavano ad arrivare. Solo dopo anni di delusioni e un progressivo abbandono di queste ricerche — una fase passata alla storia come “l’inverno dell’IA” — si è iniziato a esplorare e applicare, inizialmente in sordina e poi con sempre maggiore diffusione negli ultimi vent’anni, modelli alternativi a quelli simbolici.

Una parte della ricerca sull’IA ha così cominciato a impiegare reti neurali multilivello, ispirate alla struttura e al funzionamento stratificato delle reti neuronali del cervello umano, associandole al deep learning: un apprendimento “profondo” delle macchine, capace di elaborare enormi quantità di dati per individuare correlazioni e scoprire pattern nascosti, spesso difficili da rilevare con altri metodi.

Come ci ricorda Melanie Mitchell 1:

I freddi inverni dell’IA hanno impartito agli esperti alcune importanti lezioni. La più semplice l’ha rilevata John McCarthy, cinquant’anni dopo la conferenza di Dartmouth: “L’IA era un obiettivo più difficile di quanto pensavamo”. Marvin Minsky mise in luce come le ricerche sull’IA avessero in realtà rivelato un paradosso: “Le cose facili sono difficili”. Gli obiettivi originari dell’IA – computer che potessero conversare con noi in un linguaggio naturale, descrivere quello che vedevano attraverso gli occhi delle loro videocamere, imparare nuovi concetti dopo aver visto solo pochi esempi – sono cose che i bambini piccoli fanno agevolmente. Eppure, a sorpresa, queste “cose facili” si sono rivelate per l’IA più difficili da realizzare che non diagnosticare malattie complesse, battere campioni in carne e ossa a scacchi o a Go, o risolvere complessi problemi algebrici. Minsky affermava inoltre che “in generale, siamo meno consapevoli di quello che le nostre menti fanno meglio”. Il tentativo di creare un’intelligenza artificiale ha contribuito, perlomeno, a chiarire quanto sottili e complesse siano le nostre menti.

Le nostre menti sono, senza alcun dubbio, complesse. E lo è anche il nostro cervello, che opera attraverso reti di neuroni intrecciate tra loro: un sistema complesso, forse il più complesso che siamo in grado di osservare, e di cui ancora oggi cerchiamo di comprendere le modalità di funzionamento, i limiti e, soprattutto, le potenzialità. Potrebbe essere che il tentativo di costruire l’IA come un’intelligenza capace di riprodurre le facoltà più evidenti dell’intelligenza umana si è rivelato, sin dall’inizio, una meta, se non impossibile, almeno troppo ambiziosa da raggiungere attraverso macchine concepite e progettate come sistemi complicati.

Sorge allora una domanda inevitabile: l’intelligenza artificiale è anch’essa un sistema complesso? Oppure resta un sistema complicato, come le altre macchine che l’essere umano ha creato fino a oggi?

Sistemi complicati e sistemi complessi

Una prima distinzione, fondamentale soprattutto per chi non ha familiarità con questi temi, riguarda ciò che differenzia un sistema complicato da un sistema complesso.

Cominciamo da ciò che definisce un sistema in quanto tale: si intende per “sistema” un insieme di elementi che interagiscono tra loro in modo organizzato, non casuale. Questa organizzazione — lo schema delle interazioni tra gli elementi, chiamato anche pattern — è ciò che conferisce al sistema un comportamento globale diverso da quello dei singoli componenti e che non si riduce alla semplice somma delle sue parti.

Cosa differenzia, quindi, un sistema complicato da un sistema complesso? La distinzione si gioca sulla natura dell’organizzazione: in un sistema complicato, essa è definita dall’esterno, progettata e imposta al sistema stesso; in un sistema complesso, invece, l’organizzazione emerge dall’interno, generata dalle relazioni tra gli elementi che lo compongono.

In breve: in un sistema complicato l’organizzazione del sistema è determinata esternamente al sistema. In un sistema complesso, lo schema organizzativo è determinato internamente al sistema. Sebbene questa differenza possa apparire sottile, ha implicazioni profonde.

Un computer, ad esempio, è un sistema complicato: è composto da numerosi elementi, presenta molte interazioni, e il suo comportamento globale non è riducibile a quello dei singoli componenti. Tuttavia, l’organizzazione che lo struttura è interamente definita dall’esterno.

Una cellula, invece, è un sistema complesso: essendo un sistema, condivide alcune caratteristiche — pluralità di elementi, interazioni multiple — dei sistemi complicati, ma si distingue per la capacità di auto-organizzarsi. Ed è questa capacità che genera proprietà sorprendenti, come la vita. È questa autonomia organizzativa che segna una differenza essenziale, anche nella relazione che instauriamo con le macchine. Tanto per cominciare, i sistemi complicati hanno proprietà e comportamenti prevedibili; i sistemi complessi hanno proprietà e comportamenti imprevedibili.

Da sistemi prevedibili a sistemi imprevedibili

Fino a pochi anni fa, la ricerca sull’intelligenza artificiale si è basata su sistemi che possiamo descrivere come sistemi complicati, in quanto caratterizzati da un comportamento eterodiretto. È chi li progetta e li programma a stabilire in anticipo il fine da raggiungere e il risultato da ottenere. Si tratta di macchine in grado di elaborare dati, effettuare comparazioni, organizzarli in categorie e risolvere problemi anche molto difficili, fornendo soluzioni precise ed efficaci.

La loro peculiarità risiede proprio nella finalizzazione del comportamento: tendono verso un punto di equilibrio predeterminato, definito da chi le ha costruite. Ed è per questo che si parla di sistemi complicati. Sono prevedibili e convergenti: operano entro confini noti, orientandosi verso risultati attesi, coerenti con le istruzioni ricevute. Proprio per queste caratteristiche, risultano particolarmente adatti alla risoluzione di problemi complicati. L’essere umano li utilizza per ottimizzare tempo e risorse, semplificando la vita quotidiana e il carico di lavoro da svolgere.

Questa tipologia di IA è stata definita “intelligenza artificiale ristretta” o “intelligenza artificiale debole”, per distinguerla dalla cosiddetta “intelligenza artificiale generale” o “intelligenza forte”. L’intelligenza ristretta è progettata per svolgere compiti specifici, o un insieme limitato di attività correlate. Si tratta di macchine efficienti, capaci di migliorare l’esecuzione di determinati compiti attraverso l’ottimizzazione delle prestazioni rispetto agli obiettivi per cui sono state create.

Negli anni più recenti si è compiuto però un altro passaggio fondamentale. Oltre all’uso del deep learning — l’apprendimento profondo basato su reti neurali — si è aggiunta una nuova linea di ricerca, quella dei Large Language Model (LLM), che ha integrato i meccanismi dell’apprendimento automatico con i modelli linguistici del linguaggio naturale. Il risultato è l’emergere di sistemi capaci di apprendere autonomamente, di auto-organizzarsi, senza più una regolazione esterna. Una volta addestrati con enormi quantità di dati in ingresso, questi modelli proseguono il loro funzionamento in modo indipendente, sviluppando traiettorie di elaborazione che possono anche allontanarsi radicalmente da quanto previsto in fase di progettazione.

Manifestano un comportamento evolutivo, apprendono continuamente, possono imboccare direzioni non pianificate. Sono sistemi che si auto-rinforzano, strutturati internamente proprio grazie all’apprendimento basato su meccanismi di retroazione che premiano le scelte ritenute valide e modificano quelle ritenute non adeguate, in base a criteri che la macchina stessa stabilisce. Il percorso che queste macchine seguono nell’interazione con altri sistemi – umani e non umani – e nelle decisioni che prendono non è possibile conoscerlo, né tanto meno, controllarlo.

Per queste ragioni, non rientrano più nella categoria dei sistemi complicati: sono, a pieno titolo, sistemi complessi. A differenza dei primi, non tendono alla convergenza verso un unico risultato atteso, ma si muovono in modo divergente. Sono sistemi generativi: si parla infatti di intelligenza artificiale generativa (GenAI) perché non si limitano ad assemblare contenuti preesistenti, ma ne producono di nuovi. Generano, non ripetono.

Un aumento di complessità

L’interazione con questi sistemi non semplifica il contesto: lo trasforma, e spesso lo rende più denso, articolato, imprevedibile. Si sta così passando da tecnologie pensate per affrontare problemi prevedibili a sistemi che interagiscono con noi in modo aperto, non lineare. I problemi che ci troveremo ad affrontare non saranno necessariamente quelli che avevamo posto all’inizio. Questi sistemi non possono essere progettati per risolvere problemi complessi. Al contrario, come ogni sistema complesso, generano a loro volta nuova complessità. La nostra interazione con loro farà aumentare la complessità dei problemi che ci troveremo di fronte.

Uno dei principi fondamentali nello studio dei sistemi complessi afferma che, all’aumentare della complessità esterna, deve corrispondere un incremento della complessità interna del sistema stesso. La nostra interazione con queste tecnologie non riduce la complessità del contesto, al contrario: la amplifica, rendendo sempre più articolate le situazioni con cui ci troveremo a confrontarci. Questo implica la necessità di potenziare la nostra preparazione non solo tecnica, ma anche culturale, emotiva, sociale e politica. Richiede lo sviluppo di nuove capacità, in grado di accompagnarci in scenari sempre più fluidi, instabili e in continua trasformazione.

Tuttavia, al momento, siamo ancora poco attrezzati per comprendere pienamente ciò che sta accadendo e per affrontare in modo consapevole una trasformazione che non riguarda solo la tecnologia, ma investe profondamente anche la nostra condizione umana.

Note

1 Mitchell Melanie, L’Intelligenza Artificiale. Una guida per esseri umani pensanti, 2022, Giulio Einaudi Editore.