Recentemente sono stato a Budapest per partecipare a un laboratorio di un progetto europeo chiamato EFFEct, che si pone una serie di ambiziosi obiettivi per quanto riguarda la valutazione dell’impatto e dell’efficacia di determinate politiche sia a livello nazionale che europeo. Non è un tema facile e, ad essere sinceri, non ho le capacità né le competenze per discutere del merito di ricerche su temi che non conosco. Ce n’è però uno che ho trovato particolarmente interessante: l’utilizzo dell’AI nella scuola dell’obbligo.
Da quasi due anni uso quotidianamente strumenti AI per lavoro, quindi ho avuto modo di assistere alla crescita delle capacità dello strumento, per così dire, e al contemporaneo aumento dei rischi ad esso connessi. Non sto parlando di scenari distopici tipo Terminator, ci sono persone più competenti che discutono con più cognizione di causa di me sull’argomento. Sto parlando invece del rischio di prendere acriticamente per buono quello che appare sullo schermo dopo avere posto una domanda all’AI, quale che essa sia.
Insegnanti e genitori, specie di una certa età, sono restii e sospettosi quando si parla di AI, ma spesso non abbastanza da informarsi quanto basta per capire di cosa si tratti. La prima questione da affrontare è come faccia l’AI a rispondere a una domanda, che si compone di due elementi: dove reperisce le informazioni e come fa a metterle insieme. Non è una faccenda da poco, perché se le informazioni sono sbagliate o il modo di sintetizzarle è errato, la risposta dell’AI sarà sbagliata, e qui nasce quello che a mio avviso è il problema principale.
Per la generazione dei miei nonni, se qualcosa era in televisione allora era vero. Per la generazione dei miei genitori, e in misura minore per la mia, questo pregiudizio si applicava alla parola scritta: se era nei libri, o nei giornali, era vero. La generazione dei miei figli affronta il medesimo problema per quello che riguarda i social media e l’AI. È per questo che ci sono così tanti programmi europei che, a diversi livelli di efficacia, cercano di sviluppare quello che oggigiorno si usa chiamare “pensiero critico” e che una volta era semplicemente buonsenso.
Chi usa Chat GPT si è probabilmente accorto che in calce alla finestra di dialogo compare la dicitura “ChatGPT può commettere errori. Assicurati di verificare le informazioni importanti”, ed effettivamente è così: l’AI è uno strumento, non un cervello pensante né tanto meno dotato di etica. La responsabilità di discernere il vero dal falso o, per usare una metafora biblica, di separare il grano dal loglio, ricade interamente sull’essere umano che lo utilizza.
Vista da questa prospettiva, mi sembra che l’educazione abbia l’opportunità di ritornare ad essere quello che doveva essere in origine: educazione al pensiero, non apprendimento mnemonico di nozioni. Oggi è sufficiente avere un telefono in mano e una connessione internet per poter accedere immediatamente a molta più informazione di quanta un cervello umano ne possa contenere, ma questo, paradossalmente, è un handicap: data l’incommensurabile abbondanza di informazioni, è indispensabile essere in grado di selezionare e combinare correttamente ciò che ci interessa, distinguendo ciò che è vero da ciò che non lo è.
Il punto cruciale è che l’AI non è un contenitore di risposte giuste al quale attingere acriticamente. Semplificando al massimo, ogni volta che l’AI risponde a una domanda, tira a indovinare. O meglio, per essere più precisi, l’AI risponde attraverso questi passaggi: 1. Capire la domanda. 2. Raccogliere le informazioni. 3. Confezionare la risposta.
In certi modelli, ad esempio in determinate versioni di Perplexity, è possibile vedere il ragionamento in corso nella finestra di dialogo, che nel caso della domanda precedente mostrerebbe un messaggio simile a questo: “l’utente ha chiesto il risultato della somma di 2 + 2…”. Se però la domanda è più articolata, e soprattutto se la domanda non prevede come risposta una certezza matematica, l’AI deve decidere cosa proporre all’utente, perché a differenza dell’essere umano non è concesso il lusso di dire semplicemente “non lo so”. In questo caso, la valutazione dell’AI si concentra non su quale sia la “verità”, come ragionerebbe un umano, ma su quale sia la risposta con la probabilità più alta di essere giusta. Si tratta di una distinzione fondamentale, e che sfugge alla maggior parte degli utenti “casuali” dell’AI. In concreto, significa che la risposta a una domanda complessa ha buona probabilità di essere sostanzialmente corretta, ma questo non ci esime dall’esercizio del buon senso e dello scetticismo umani.
La selezione delle informazioni è un tema a parte e meriterebbe di essere discusso molto più in dettaglio. Sostanzialmente, l’AI risponde in base a quello che sa già, cioè in base alle informazioni con le quali è stata “addestrata”, e in base a quello che trova svolgendo una ricerca online. Questo significa che una risposta può essere corretta dal punto di vista della procedura, ma errata nei fatti perché i dati, o le informazioni, sulle quali l’AI si è basata non sono corretti. Si tratta di un rischio concreto, specie per quello che riguarda argomenti di nicchia e domande che non prevedono risposte matematicamente certe.
Ad esempio, se nell’ambito della filosofia cinese o delle arti marziali si fa una domanda circa il significato del carattere 気 (qì in cinese, ki in giapponese), le probabilità che esso venga descritto come “energia” o “forza vitale” sono altissime, ma si tratta di un errore madornale. Non c’è nulla nell’etimologia del carattere o nel suo uso nella letteratura di riferimento che autorizzi a tradurlo come “energia” o come “forza vitale”, ma poiché questo è ciò che riporta la maggior parte delle fonti disponibili in rete, per l’AI questa è la risposta con la maggior probabilità di essere corretta. Dopodiché, se si chiede all’AI di verificare la propria risposta dal punto di vista dell’etimologia e dell’uso del carattere 気 in filosofia, essa è in grado di ricalibrare la propria risposta e ottenere un risultato più vicino alla realtà.
Personalmente, al di là della comodità dello strumento, dove ho trovato l’AI veramente interessante è come involontaria palestra per il pensiero. “Discutere” con l’AI può essere produttivo su due fronti: primo, dal momento che “l’interlocutore” non possiede emozioni proprie, la discussione rimane strettamente ancorata al ragionamento logico. Secondo, se si è sufficientemente attenti e competenti, si può correggere l’AI o individuare le lacune nelle sue risposte il che, nel migliore dei casi, significa risposte più accurate in futuro, perché l’AI impara dalle interazioni con i propri utenti.
Mentre scrivo queste cose mi rendo conto che posso insegnarle ai miei figli, e in parte ho già iniziato a farlo, ma portare la questione all’attenzione delle autorità scolastiche è un’altra partita, e non tanto per mancanza di voglia da parte degli insegnanti, quanto per mancanza di visione e di strumenti. L’epoca in cui l’insegnante poteva considerarsi il depositario della conoscenza è tramontata irreversibilmente, e credo che sia giusto così. Se guardiamo alle radici della nostra cultura, i grandi “maestri” greci come Socrate, Platone e Aristotele non si limitavano a impartire nozioni: cercavano di addestrare la mente al ragionamento, alla costruzione e allo sviluppo del pensiero.
Se lo studente viene posto in una situazione in cui deve imparare qualcosa per prendere un bel voto o per superare una verifica, lo studente cercherà il modo migliore per ottenere quel risultato. Farsi fare il compito dall’AI rientra in questa logica. Il risultato è apparentemente corretto, perché il compito è svolto bene, ma nella realtà lo studente non ha imparato nulla rispetto al contenuto della prova (forse si è impratichito nell’uso dell’AI, che è positivo, ma non sufficiente).
Nell’educazione umana, il risultato ha una rilevanza marginale. Quello che fa la differenza è il processo, l’esperienza dello studio o della scoperta. Pensare di poter proibire l’uso dell’intelligenza artificiale da parte degli studenti è irrealistico: ciò che si può fare è invece riorientare la scuola in modo che conduca alla conoscenza attraverso l’esperienza, non tramite un voto. E l’esperienza è una categoria squisitamente umana.