Probabilmente, tutti ricordano la scena di 2001. Odissea nello spazio in cui una scimmia raccoglie da terra un grosso femore, e realizza di poterlo usare come arma. Di là dalla correttezza scientifica (oggi sappiamo che questo ‘scatto evolutivo’ è in realtà avvenuto quando la specie homo si era già differenziata dagli altri primati), quello che Kubrick ci mostrava era uno dei modi in cui - appunto - avviene l’evoluzione consapevole, cioè quella che si produce a livello mentale, non biologico. Non sempre, infatti, questa avviene come risposta ad una domanda latente, ma spesso è il risultato derivante da una opportunità casuale.

Ugualmente, lo sviluppo dell’Intelligenza Artificiale (AI), a sua volta derivato da quello delle tecnologie digitali, non era sin dall’inizio finalizzato a ciò che è poi divenuta. Ma ha offerto un’opportunità, e questa è stata colta. E se l’AI è il femore-clava, il capitalismo liberista è lo scimmione che l’ha impugnato. L’AI, come scrive Benedetta Brevini, docente di economia politica della comunicazione all’Università di Sydney, funge da “ancella del neoliberismo”1.

A partire dai primi anni duemila, per una serie di fattori convergenti, le ricerche e lo sviluppo delle AI hanno preso una direzione ben precisa, ovvero quella di creare strumenti sempre più efficaci nella gestione multipurpose di grandi masse di dati, e quindi per il passaggio da un uso a fini di gestione esecutiva di attività ripetitive, a quello di un uso a fini di programmazione e controllo delle attività umane in generale. A ciò si è affiancato il parallelo sviluppo di una vera e propria ideologia dell’algoritmo, una narrazione (spesso tossica) sul potere pressoché salvifico, e comunque amplissimo ed al tempo stesso ineluttabile, dell’intelligenza artificiale. Secondo questa narrazione, un certo modo di utilizzarla viene dipinto come cosa buona, e soprattutto ‘naturale’.

Questo processo si è dapprima orientato secondo una mera ricerca del profitto (gestire immense quantità di dati personali, al fine di trarne utile economico), per poi ampliarsi ad una più generale funzione di controllo sociale, ed è stato definito ‘capitalismo della sorveglianza’2. Entrambe queste funzioni (profitto e controllo) sono intrecciate tra loro, e funzionali ad assicurare la sopravvivenza di un sistema (il capitalismo liberista), in una fase in cui attraversa una crisi epocale, in particolare a fronte della collisione tra il suo continuo sviluppo e la sostenibilità sul pianeta.

In questo modello socio-economico, quale si va delineando, è implicita l’esigenza di centralizzazione della funzione di controllo; ed è questa la ragione per cui, negli ultimi anni, si sta assistendo ad una parziale inversione di tendenza. Mentre, infatti, questa si è per decenni orientata allo svuotamento delle istituzioni politiche, in favore di un meta-controllo delle istituzioni economiche, attualmente è riemersa una certa centralità dello stato, però nella forma non del decisore, ma del controllore.

È interessante notare che, sia pure in forme ancora contraddittorie, questo modello sia nel suo stato più avanzato in quella che è oggi la potenza mondiale emergente, ovvero la Cina. Un Paese in cui l’economia capitalista è ormai pienamente accettata, ma in cui l’autorità politica statuale (paradossalmente in mano ad un partito unico che formalmente ancora si definisce comunista!) mantiene però uno stretto controllo sull’economia.

In un certo senso, si può dire che quello cinese è un modello che affascina le democrazie liberali, proprio per la sua inarrivabile capacità di controllo, ma che suscita diffidenza per il suo statalismo. Quello che si sta cercando di realizzare, quindi, è una ‘terza via’, che equipari la pervasività del controllo sociale cinese, fermo restando il principio indefettibile della subordinazione, non già della politica all’economia, ma proprio dello stato al capitale.

E non è affatto per caso che sia la Cina, oggi, ad essere più avanti di chiunque altro nella ricerca sulla AI. Cosa che suscita l’invidia di alcuni importanti esponenti del complesso militare-industriale statunitense. Come Nicolas Chaillan, ex-capo programmatore del Pentagono, che in una intervista al Financial Times3 ha sostenuto che la Cina ha vinto la battaglia delle intelligenze artificiali. Secondo Chaillan, ciò è dovuto al fatto che le aziende Big Tech non sono abbastanza ‘collaborative’ con la Difesa, e che ci sono troppe preoccupazioni etiche rispetto al ‘machine learning’...

Tutto ciò, peraltro, porta con sé rischi notevoli, che vanno al di là del (possibile) prosciugarsi delle libertà democratiche (nonché della democrazia stessa). Tutto lo - scarsissimo - dibattito che ruota intorno all’intelligenza artificiale, per di più quasi esclusivamente appannaggio di una ristretta cerchia di specialisti, non si pone mai le domande essenziali. La prima delle quali, senza perciò voler scadere in forme di passatismo, dovrebbe essere non tanto ‘come’ utilizzare l’AI, o per quali scopi, ma proprio ‘se’ utilizzarla o meno. Una delle cose che sappiamo per certo, ad esempio, è che i processi di machine learning, cioè di apprendimento autonomo dei sistemi d’intelligenza artificiale, fondamentali per il loro sviluppo, sono spaventosamente energivori.

C’è comunque un altro aspetto, di non secondaria importanza per poter mettere in discussione quella ‘ideologia algoritmica’ di cui si diceva, ovvero l’effettiva capacità dell’AI di eguagliare, o addirittura sopravanzare, l’intelligenza umana.

Di sicuro, sappiamo che una AI ha bisogno di una enorme quantità di dati su cui lavorare, anche solo per avvicinarsi decentemente ad una capacità umana, ad esempio, il linguaggio, la capacità espressiva. Anche se coloro che si occupano di sviluppare forme sempre più sofisticate di intelligenza artificiale si basano, come modello, sulla struttura neurale umana, si muovono comunque nell’ambito di un sistema computazionale. Le AI sono software (sovrastrutture) che per funzionare si appoggiano su sistemi hardware (infrastrutture), le cui capacità sono meramente nell’ambito del calcolo. Sono, cioè, fondamentalmente macchine ‘quantitative’. Pensare che una grandissima capacità quantitativa ad un certo punto diventi automaticamente anche qualitativa, è tipico di chi ha come unico orizzonte i numeri. I soldi, ad esempio...

Insomma, l’intelligenza è mera capacità e velocità di calcolo? Oppure la sensibilità, l’empatia, l’immaginazione, persino i sentimenti, ne sono elementi costitutivi? Può un umano che non provi emozioni, essere realmente intelligente? O, per altri versi, davvero pensiamo che proprio l’eliminazione di questi fattori umani sia il plus delle AI, ciò che le rende ‘oggettive’ e quindi ‘giuste’?

Ci sono una infinità di domande che noi tutti, come cittadini, dovremmo porci; e dovremmo farlo finché ci è possibile, prima cioè di delegare agli algoritmi un potere di controllo pervasivo sulle nostre vite. Il calcolo computazionale, l’intelligenza artificiale, possono fare tantissimo per rendere la nostra vita migliore - più comoda, più piacevole, più sicura. Ma non dobbiamo mai perdere di vista quanto ci costa tutto ciò. Il rapporto costi/benefici non può essere escluso, nel valutare se e come utilizzarli.

Probabilmente, tutti ricordano la scena di Blade runner in cui un ‘replicante’, Leon/Rutger Hauer, mostra di aver sviluppato emozioni e sentimenti umani. Ma quello immaginato da Philip Dick4 era un mondo distopico. Nonostante ciò che sostengono gli aedi dell’intelligenza artificiale, è assai improbabile che il machine learning possa mai approdare a questo. E se anche fosse, è davvero questo quel che vorremmo?

Paradossalmente, mentre inseguiamo l’utopia di una vera intelligenza artificiale, il QI medio umano sembra continuare ad abbassarsi...5

Note

1 Benedetta Brevini, Is AI Good for the Planet?, Wiley.
2 Shoshana Zuboff, Il capitalismo della sorveglianza. Il futuro dell'umanità nell'era dei nuovi poteri, Luiss.
3US has already lost AI fight to China, says ex-Pentagon software chief”.
4 Philip K. Dick, "Do Androids Dream of Electric Sheep?"
5 Cfr. Bernt Bratsberg and Ole Rogeberg, Flynn effect and its reversal are both environmentally caused.