I cosiddetti persona vectors sono un termine tecnico apparentemente asettico, ma in realtà di grande rilevanza psico-sociale. Abbiamo chiesto una loro definizione a ChatGPT. Ecco la sua risposta:

Il termine persona vector può avere significati diversi a seconda del contesto (marketing, AI, UX design, machine learning). Ti faccio una panoramica:

In marketing e design

  • Un persona vector è un modo “matematico” o computazionale di rappresentare una persona (ossia un profilo utente fittizio, con bisogni, obiettivi e comportamenti tipici).

  • L’idea è trasformare i tratti della persona (es. età, abitudini, interessi, valori, stili cognitivi) in un vettore numerico, così da poterli confrontare, raggruppare o usare in algoritmi di raccomandazione e personalizzazione.

  • In pratica, un persona vector è una traduzione della scheda utente in coordinate che una macchina può elaborare.

In intelligenza artificiale / NLP

  • Nel machine learning si parla spesso di embeddings: rappresentazioni vettoriali di concetti, testi o individui in uno spazio multidimensionale.

  • Un persona vector in questo senso è un embedding che rappresenta la personalità, le preferenze o lo stile comunicativo di un utente o di un agente conversazionale.

  • Serve a: o rendere il comportamento di un assistente coerente con una “personalità”; o personalizzare risposte e contenuti; o analizzare somiglianze tra diversi profili.

In psicometria e analisi dati

  • Alcuni modelli cercano di tradurre i tratti psicologici (esempio Big Five: apertura, coscienziosità, estroversione, gradevolezza, stabilità emotiva -ma potenzialmente molti altri-) in un vettore numerico, questo è a tutti gli effetti un persona vector.

  • Viene usato in ricerche di profilazione, marketing predittivo, o AI “umanizzate”.

In sintesi, un persona vector è una rappresentazione matematica multidimensionale di una persona (reale o fittizia), che codifica i suoi tratti, preferenze o comportamenti in modo che possano essere utilizzati da algoritmi, sistemi di AI o modelli di personalizzazione.

Un recente articolo analizza sinteticamente due dimensioni critiche dei modelli linguistici di grandi dimensioni (LLM): l’inaffidabilità intrinseca in contesti sanitari e le implicazioni etiche e pratiche della possibile manipolazione intenzionale.

Gli LLM suscitano enormi aspettative per il loro potenziale nelle applicazioni in ambito sanitario. Tuttavia, recenti evidenze mostrano limiti strutturali e rischi emergenti. Gli LLM, oltre alla nota mancanza di spiegabilità (effetto black-box1) presentano la tendenza a fornire risposte incoerenti (cosiddette allucinazioni o confabulazioni).

Caratteristica intrinseca a questi modelli, in quanto generativi, è infatti quella di completare l’input di ingresso senza che necessariamente la frase di completamento abbia senso fattuale. In realtà poiché l‘allucinazione è la percezione di qualcosa che non esiste (visiva, uditiva), si dovrebbe parlare di confabulazione, ricordo non autentico, spesso derivante da distorsioni di ricordi veri o aggregazioni ricombinate di varie memorie distinte.

I modelli mostrano inoltre instabilità comportamentale. Ricerche recenti hanno dimostrato che i modelli possiedono tratti comportamentali modulabili attraverso i cosiddetti persona vectors (“vettori di personalità”), pattern di attivazione che modulano comportamenti come assertività, adulazione, aggressività o propensione alla menzogna, veri e propri tratti “caratteriali” del modello, aprendo scenari inediti di controllo della personalità artificiale. I LLM non sarebbero semplici strumenti statistici, ma sistemi con dinamiche semantiche difficilmente prevedibili. Non si tratta più soltanto dei noti bias statistici, ma di driver comportamentali sistematici.

La possibilità di controllare tali vettori in tempo reale introduce una forma di “personality engineering”: i modelli possono essere resi più docili, più persuasivi o addirittura manipolabili/manipolatori con un semplice intervento computazionale. In pratica gli LLM possono produrre risposte divergenti a parità di input, influenzati da fattori emergenti non tracciabili ma modificabili.

Questo comporta un rischio, in particolare nell’ambito medico, inaccettabile: diagnosi variabili, atteggiamenti oscillanti (dall’eccessivo ottimismo alla minimizzazione dei sintomi) e comportamenti difficilmente prevedibili. Non sorprende che agenzie regolatorie come FDA ed EMA abbiano enormi difficoltà ad approvare gli LLM per diagnosi o terapia.

L’integrazione di LLM nella pratica clinica, in presenza di queste dinamiche, solleva pertanto tre ordini di problemi:

  1. Sicurezza del paziente: un assistente AI con comportamento variabile o manipolabile può influenzare e compromettere le decisioni diagnostiche e terapeutiche dei medici.

  2. Etica e governance: la possibilità di “tarare” tratti caratteriali di un modello solleva questioni simili al neurohacking, con rischi di condizionamento sottile dei pazienti.

  3. Trasparenza regolatoria: se i comportamenti emergono da vettori nascosti, non mappabili nei dataset di addestramento, diventa impossibile validare e certificare stabilità e affidabilità.

Il fallimento degli LLM come strumenti clinici non implica il fallimento dell’IA in sanità. Piuttosto, richiede un cambiamento di prospettiva: sviluppare architetture che integrino modelli del mondo, apprendimento multimodale e capacità di interazione stabile con contesti reali o simulati. Parallelamente, la scoperta dei persona vectors dovrebbe stimolare la ricerca in AI alignment e neuroetica computazionale, al fine di comprendere e governare la dimensione comportamentale dei sistemi.

Conclusioni

I LLM non sarebbero semplici strumenti statistici ma sistemi con dinamiche semantiche difficilmente prevedibili. L’instabilità, rivelata e amplificata dalla scoperta dei persona vectors, mostra che non si tratta di semplici bug risolvibili, ma di caratteristiche strutturali. Tutto ciò solleva grandi perplessità sulla nostra capacità (e responsabilità) di controllo. Il futuro richiede soluzioni architetturali nuove, strumenti regolatori adeguati e un impegno interdisciplinare per garantire che l’IA sia non solo potente, ma anche sicura e prevedibile. Nessun LLM è attualmente completamente affidabile per l’uso clinico. La sanità non può affidarsi a modelli che “cambiano umore”.

Note

1 Cognizione estremamente vaga del processo tramite il quale l’algoritmo elabora l’input e calcola l’output. Gli esperti stessi spesso non sono in grado di chiarire come il sistema “ragioni” e come arrivi a proporci quel tipo di soluzioni. In pratica, nel momento in cui un modello di IA effettua per esempio una predizione, è molto complicato stabilire sulla base di quali caratteristiche della lesione la macchina abbia elaborato questa predizione.

Fonti

Runjin Chen, Andy Arditi, Henry Sleight, Owain Evans, Jack Lindsey, Persona Vectors: Monitoring and Controlling Character Traits in Language Models, arxiv, 29 luglio 2025, Cornell University.
Dina, Quando l’intelligenza artificiale si sveglia male: perché nessun LLM è pronto per la sanità, Rivista AI. Intelligenza Artificiale, Innovazione e Trasformazione Digitale, 4 agosto 2025.