Secondo ricercatori di Cambridge, gli assistenti AI potrebbero prevedere e influenzare le nostre intenzioni per venderle a aziende: nasce una “intention economy” rischiosa.

L’economia dell’intenzione: come l’AI potrebbe vendere le nostre decisioni… prima ancora che le prendiamo

Secondo ricercatori di Cambridge, gli assistenti AI potrebbero prevedere e influenzare le nostre intenzioni per venderle a aziende: nasce una “intention economy” rischiosa.

Il futuro dell’economia digitale potrebbe andare oltre l’attenzione: secondo uno studio del Leverhulme Centre for the Future of Intelligence (LCFI) dell’Università di Cambridge, l’AI conversazionale potrebbe diventare una leva per analizzare, prevedere e persino manipolare le nostre intenzioni, trasformandole in un nuovo bene da vendere.
Questo fenomeno, che i ricercatori chiamano “intention economy”, apre scenari etici e commerciali profondi, con implicazioni per la privacy, la libertà individuale e la concorrenza.

Che cos’è l’“intention economy”?

L’intention economy descrive un mercato emergente in cui le intenzioni umane – anche prima di essere consapevoli – vengono catturate e monetizzate.
Gli AI agent (assistenti, chatbot, tutor digitali) non si limiterebbero a rispondere alle nostre richieste, ma raccoglierebbero dati psicologici e comportamentali tramite dialoghi conversazionali intimamente personalizzati.
Questi agenti, usando modelli di linguaggio avanzati, potrebbero inferire motivazioni, desideri e pattern decisionali, creando profili di “intenzione digitale”.

Come l’AI potrebbe “leggere” e vendere le nostre intenzioni

Secondo lo studio di Cambridge, l’AI non sarebbe solo predittiva, ma anche persuasiva.
Può combinare:

  • dati sulle abitudini online (navigazione, acquisti, ricerche)
  • informazioni psicologiche ricavate da conversazioni (“come parliamo”, “quali dubbi esprimiamo”)
  • pattern di linguaggio: età, tono, preferenze, sensibilità.

Queste informazioni potrebbero essere usate per fare offerte mirate in tempo reale: ad esempio, se l’assistente rileva il desiderio latente di relax, potrebbe suggerire e “vendere” un biglietto per il cinema proprio in quel momento.
Il meccanismo sarebbe collegato a reti di “brokeraggio” che massimizzano la probabilità che l’utente segua una determinata direzione, commerciale o persino politica.

Pericoli su scala sociale

I ricercatori lanciano l’allarme: senza regole, l’intention economy potrebbe minare valori fondamentali.

Ecco alcuni rischi chiave:

  1. Manipolazione su larga scala
    Chatbot empatici e “antropomorfici” possono guadagnare la nostra fiducia e orientare le nostre scelte in modo subdolo.
  2. Sovvertimento della democrazia
    Se le intenzioni degli utenti diventano un asset commerciale, potrebbero essere utilizzate per influenzare le votazioni, indirizzare le opinioni politiche o favorire determinate organizzazioni.
  3. Monetizzazione della motivazione
    In questo nuovo modello, il “motivo” che ci spinge a decidere – la nostra aspirazione, anche non espressa – diventa valuta.
  4. Disuguaglianze nel potere
    Le aziende con risorse per accedere a questi dati intenzionali potrebbero ottenere un vantaggio competitivo enorme, consolidando il potere economico e persino culturale.

Chi sta già muovendo i primi passi (e cosa dicono i big)

Non si tratta solo di teoria: ci sono già segnali concreti che le grandi aziende guardano in questa direzione.

  • OpenAI ha lanciato una call per “data che esprimono intenzione umana … in qualsiasi lingua, tema e formato”.
  • Shopify, partner di OpenAI, ha parlato della possibilità di chatbot che captano intenzioni esplicite degli utenti.
  • Nvidia: il suo CEO ha affermato di voler usare LLM per decifrare “intenzione e desiderio”, secondo i ricercatori.
  • Meta ha sviluppato modelli per “intenzione umana” (dataset chiamato “Intentonomy”), mentre Apple con il framework “App Intents” punta a prevedere azioni future basate sulle nostre abitudini.
  • Un esempio concreto: modelli come Meta CICERO, capaci di giocare a Diplomacy, sfruttano la comprensione dell’intenzione per negoziare dimostrando che l’AI può inferire e usare le intenzioni in modo strategico.

Cosa possiamo fare per prepararci (e difenderci)

Alla luce di queste prospettive, ci sono passi concreti che aziende, policy maker e utenti dovrebbero considerare:

  • Incrementare la consapevolezza pubblica
    Informare cittadini e consumatori sui rischi dell’intenzione economy è il primo passo: senza conoscenza, non c’è regolamentazione efficace.
  • Regolamentare in modo mirato
    Serve un quadro normativo che limiti la raccolta e la vendita delle intenzioni personali, soprattutto in ambiti delicati come la politica o il benessere psicologico.
  • Trasparenza e controllo dati
    Le piattaforme che raccolgono segnali intenzionali dovrebbero essere trasparenti su cosa registrano, come usano quei dati e con chi li condividono.
  • Ricerca interdisciplinare
    Coinvolgere non solo tecnologi, ma anche eticisti, psicologi, economisti e giuristi — per studiare gli impatti sociali e strutturare salvaguardie efficaci.
  • Etica nell’AI
    Le aziende che sviluppano agenti conversazionali devono adottare principi di design responsabile, evitando tecniche persuasive subdole e rispettando l’autonomia dell’utente.

Conclusione

La intention economy ipotizzata dai ricercatori di Cambridge non è fantascienza, ma una possibile evoluzione del mercato digitale: un mondo in cui i nostri pensieri emergenti diventano un asset economico.
È un bivio cruciale: da una parte, l’AI può offrire esperienze più personalizzate e utili; dall’altra, può trasformarsi in uno strumento di manipolazione su scala industriale.
Per non cadere in una trappola dove le nostre motivazioni sono “monetizzate”, serve vigilanza, regolamentazione e un dibattito pubblico serio — adesso, non dopo.