Secondo ricercatori di Cambridge, gli assistenti AI potrebbero prevedere e influenzare le nostre intenzioni per venderle a aziende: nasce una “intention economy” rischiosa.
Il futuro dell’economia digitale potrebbe andare oltre l’attenzione: secondo uno studio del Leverhulme Centre for the Future of Intelligence (LCFI) dell’Università di Cambridge, l’AI conversazionale potrebbe diventare una leva per analizzare, prevedere e persino manipolare le nostre intenzioni, trasformandole in un nuovo bene da vendere.
Questo fenomeno, che i ricercatori chiamano “intention economy”, apre scenari etici e commerciali profondi, con implicazioni per la privacy, la libertà individuale e la concorrenza.
Che cos’è l’“intention economy”?
L’intention economy descrive un mercato emergente in cui le intenzioni umane – anche prima di essere consapevoli – vengono catturate e monetizzate.
Gli AI agent (assistenti, chatbot, tutor digitali) non si limiterebbero a rispondere alle nostre richieste, ma raccoglierebbero dati psicologici e comportamentali tramite dialoghi conversazionali intimamente personalizzati.
Questi agenti, usando modelli di linguaggio avanzati, potrebbero inferire motivazioni, desideri e pattern decisionali, creando profili di “intenzione digitale”.
Come l’AI potrebbe “leggere” e vendere le nostre intenzioni
Secondo lo studio di Cambridge, l’AI non sarebbe solo predittiva, ma anche persuasiva.
Può combinare:
- dati sulle abitudini online (navigazione, acquisti, ricerche)
- informazioni psicologiche ricavate da conversazioni (“come parliamo”, “quali dubbi esprimiamo”)
- pattern di linguaggio: età, tono, preferenze, sensibilità.
Queste informazioni potrebbero essere usate per fare offerte mirate in tempo reale: ad esempio, se l’assistente rileva il desiderio latente di relax, potrebbe suggerire e “vendere” un biglietto per il cinema proprio in quel momento.
Il meccanismo sarebbe collegato a reti di “brokeraggio” che massimizzano la probabilità che l’utente segua una determinata direzione, commerciale o persino politica.
Pericoli su scala sociale
I ricercatori lanciano l’allarme: senza regole, l’intention economy potrebbe minare valori fondamentali.
Ecco alcuni rischi chiave:
- Manipolazione su larga scala
Chatbot empatici e “antropomorfici” possono guadagnare la nostra fiducia e orientare le nostre scelte in modo subdolo. - Sovvertimento della democrazia
Se le intenzioni degli utenti diventano un asset commerciale, potrebbero essere utilizzate per influenzare le votazioni, indirizzare le opinioni politiche o favorire determinate organizzazioni. - Monetizzazione della motivazione
In questo nuovo modello, il “motivo” che ci spinge a decidere – la nostra aspirazione, anche non espressa – diventa valuta. - Disuguaglianze nel potere
Le aziende con risorse per accedere a questi dati intenzionali potrebbero ottenere un vantaggio competitivo enorme, consolidando il potere economico e persino culturale.
Chi sta già muovendo i primi passi (e cosa dicono i big)
Non si tratta solo di teoria: ci sono già segnali concreti che le grandi aziende guardano in questa direzione.
- OpenAI ha lanciato una call per “data che esprimono intenzione umana … in qualsiasi lingua, tema e formato”.
- Shopify, partner di OpenAI, ha parlato della possibilità di chatbot che captano intenzioni esplicite degli utenti.
- Nvidia: il suo CEO ha affermato di voler usare LLM per decifrare “intenzione e desiderio”, secondo i ricercatori.
- Meta ha sviluppato modelli per “intenzione umana” (dataset chiamato “Intentonomy”), mentre Apple con il framework “App Intents” punta a prevedere azioni future basate sulle nostre abitudini.
- Un esempio concreto: modelli come Meta CICERO, capaci di giocare a Diplomacy, sfruttano la comprensione dell’intenzione per negoziare dimostrando che l’AI può inferire e usare le intenzioni in modo strategico.
Cosa possiamo fare per prepararci (e difenderci)
Alla luce di queste prospettive, ci sono passi concreti che aziende, policy maker e utenti dovrebbero considerare:
- Incrementare la consapevolezza pubblica
Informare cittadini e consumatori sui rischi dell’intenzione economy è il primo passo: senza conoscenza, non c’è regolamentazione efficace. - Regolamentare in modo mirato
Serve un quadro normativo che limiti la raccolta e la vendita delle intenzioni personali, soprattutto in ambiti delicati come la politica o il benessere psicologico. - Trasparenza e controllo dati
Le piattaforme che raccolgono segnali intenzionali dovrebbero essere trasparenti su cosa registrano, come usano quei dati e con chi li condividono. - Ricerca interdisciplinare
Coinvolgere non solo tecnologi, ma anche eticisti, psicologi, economisti e giuristi — per studiare gli impatti sociali e strutturare salvaguardie efficaci. - Etica nell’AI
Le aziende che sviluppano agenti conversazionali devono adottare principi di design responsabile, evitando tecniche persuasive subdole e rispettando l’autonomia dell’utente.
Conclusione
La intention economy ipotizzata dai ricercatori di Cambridge non è fantascienza, ma una possibile evoluzione del mercato digitale: un mondo in cui i nostri pensieri emergenti diventano un asset economico.
È un bivio cruciale: da una parte, l’AI può offrire esperienze più personalizzate e utili; dall’altra, può trasformarsi in uno strumento di manipolazione su scala industriale.
Per non cadere in una trappola dove le nostre motivazioni sono “monetizzate”, serve vigilanza, regolamentazione e un dibattito pubblico serio — adesso, non dopo.