
Equity
Il punto di svolta dell'IA
Back to all
Mentre i mercati registravano correzioni, i fondamentali dell'intelligenza artificiale si sono rafforzati in modo significativo. In definitiva, investire è un processo di aggiornamento bayesiano, in cui ogni nuovo dato modifica la distribuzione delle probabilità dei possibili esiti. Nel primo trimestre sono emersi diversi segnali ad alto contenuto informativo, che hanno aumentato in modo sostanziale la probabilità che l'opportunità legata all'IA sia molto più ampia di quanto inizialmente previsto. La portata e la continuità dei progressi recenti suggeriscono che siamo ancora in una fase iniziale dl percorso e che il risultato finale potrebbe essere significativamente più rilevante rispetto alle aspettative precedenti.
Il coding con l'IA ha superato la massa critica
Il coding basato sull'intellgenza artificiale ha superato una soglia cruciale. Strumenti come Claude Code di Anthropic sono ormai pienamente agentici e in grado di sviluppare software di livello produttivo con un intervento umano minimo. Anche Andrej Karpathy, co-fondatore di OpenAI e storicamente scettico sulle reali capacità dell'IA nel coding, ha osservato che il processo di sviluppo si è ribaltato: da un modello "80% lavoro manuale e 20% macchina" a uno "80% agente e 20% rifiniture manuali". Ha sottolineato, inoltre, che oggi si trova a programmare prevalentemente in linguaggio naturale, cioè in inglese.
Si tratta del primo esempio su larga scala di intelligenza artificiale che svolge direttamente attività cognitive ad alto valore aggiunto finora dominate dall'uomo. Tuttavia, l'impatto va interpretato più come uno shock di produttività che come una semplice sostituzione del lavoro umano. Storicamente, gli shock di produttività tendono ad abbassare i costi marginali, ad ampliare la produzione e ad aumentare i redditi reali, generando nel complesso più attività economica, non una riduzione della domanda di lavoro.
Storicamente, gli shock di produttività tendono ad abbassare i costi marginali, ad ampliare la produzione e ad aumentare i redditi reali, generando nel complesso più attività economica, non una riduzione della domanda di lavoro. I primi dati sembrano già confermare questa dinamica: la domanda di software engineer resta solida nonstante la rapida diffusione degli strumenti di IA. Considerando che a livello globae ci sono circa 20-30 milioni di sviluppatori, con un costo medio annuo fuly loaded intorno ai 100.000 dollari, parliamo di un bacino di lavoro da 2-3 trilioni di dollari destinato a essere potenziato. With 20–30 million developers globally at approximately USD 100k fully loaded cost, this represents a USD 2–3 trillion labour pool to be augmented.
Esiste anche un limite economico naturale all'automazione completa. L'addestramento e l'uso dei sistemi di IA richiedono enormi quantità di semiconduttori, data center ed energia. Portare l'IA a sostituire su larga scala il lavoro qualificato impiegherebbe una capacità di calcolo di gran lunga superiore a quella oggi disponibile. Man mano che l'automazione cresce, cresce anche la domanda di potenza di calcolo, facendone aumentare il costo marginale. Quando questo costo supera quello del lavoro umano per determinate attività, la sostituzione semplicemente non avviene. In questo senso, è la disponibilità di calcolo a rappresentare il vero vincolo, determinando quanto velocemente e fino a che punto l'automazione può spingersi.
L'ascesa degli agenti
L'emergere degli agenti, di cui OpenClaw è un esempio rappresentativo, segna un punto di svolta rilevante. A differenza delle interfacce di chat, basate su una logica di domanda e risposta, gli agenti svolgono attività in modo continuativo: scrivono codici, gestiscono flussi di lavoro, interagiscono cone le API. Si tratta di un passaggio dall'IA come strumento cognitivo all'IA come livello operativo integrato nell'economia. La chat serve a comprimere e rendere accessibili le informazioni; gli agenti invece producono risultati concreti. Non vengono consultati sporadicamente: restano attivi, osservano, decidono e intervengono.
La conseguenza è un aumento a scatti, non graduale, della domanda di calcolo. Gli agenti funzionano in modo iterativo e ricorsivo: pianificano, eseguono, verificano e correggono lungo più fasi successive. Un singolo compito piò richiedere decine di chiamate al modello. Se le chat hanno fatto crescere il consumo di calcolo in modo più o meno lineare, gli agenti lo fanno crescere in modo esponenziale. Ma c'è un aspetto altrettanto rilevante: gli agenti ampliano drasticamente il numero di "utenti" del software. Come ha osservato Jensen Huang, l'uso umano e quello agentico aumenteranno insieme, moltiplicando la domanda su strumenti, API e infrastruttura di calcolo. La domanda di calcolo non è più legata al numero di licenze o di persone sedute davanti a uno schermo, ma al numero di processi attivi che operano in parallelo.
Monetizzazione
Il modello di consumo sta evolvendo in un modo che aumenta drasticamente il potenziale di monetizzazione. Storicamente, l'IA è stata venduta tramite abbonamenti "all you can eat". Oggi si sta passando a una logica di prezzo basata sull'utilizzo, di fatto un "pay per use". È un cambiamento cruciale. Consente di differenziare i prezzi tra gli utenti in base all'intensità d'uso, alla disponibilità a pagare e alla sensibilità alla latenza. Gli utenti più avanzati, in particolare quelli che eseguono agenti in modo continuo, consumano una quantità di token di gran lunga superiore e sono molto meno sensibili al prezzo.
I primi segnali sono indicativi: alcuni sviluppatori spendono già decine di migliaia di euro l'anno in token, mentre diverse aziende stanno assegnando agli ingegneri budget dedicati all'IA pari a una quota significativa dello stipendio, anche intorno al 50% della retribuzione base, per aumentare la produttività e come strumento di attrazione dei talenti.
Le conseguenze sono due. Da un lato, i fornitori di modelli possono intercettare una quota molto più ampia del valore creato, perché i ricavi crescono con l'utilizzo reale e non più con il semplice numero di utenti. Dall'altro, questo modello contribuisce a smontare il timore del cosiddetto "finanziamento circolare", spesso avanzato dagli scettici. Se l'uso è misurato e la domanda cresce insieme alla produttività, la crescita dei ricavi non è artificiale, perché riflette direttamente un aumento della produzione economica. Ne deriva un meccanismo di monetizzazione più chiaro e più sostenibile nel tempo.
Disaggregare l'inferenza migliora l'efficienza economica e allunga la vita degli asset
Un cambiamento meno evidente, ma altrettanto rilevante, sta avvenendo a livello infrastrutturale. L'inferenza viene sempre più spesso scomposta in due fasi distinte: prefill e decode. la fase di prefill, in cui il modello interpreta il prompt e il contesto, è ad alta intensità di calcolo; la fase di decode, in cui vengono generati i token, è invece limitata dalla banda di memoria ed è particolarmente sensibile alla latenza. Questa separazione permette di ottimizzare i carichi di lavoro su infrastrutture di calcolo eterogenee: le GPU meno recenti possono essere riutilizzate per le fasi di prefill, mentre i sistemi più nuovi o specializzati vengono impiegati per il decode.
La conseguenza è un allungamento significativo del ciclo di vita utile della GPU. Invece di diventare economicamente obsolete dopo 4-5 anni, potrebbero rimanere produttive per un arco di tempo molto più lungo, fino a circa un decennio. Questo ha due implicazioni finanziarie dirette: una minore pressione da ammortimenti e una riduzione dell'intensità di capitale per unità di output. Per gli hyperscaler, ciò si riduce in rendimenti più elevati sul capitale investito nel tempo, soprattutto perché l'infrastruttura si sta spostando dal training, una fase che non genera ricavi, all'inferenza, che invece è direttamente monetizzabile. In sintesi, il sistema diventa più efficiente proprio nel momento in cui la domanda sta accelerando.
Più in generale, l'IA sta diventando sempre più un processo di trasformazione dell'energia in token dotati di valore economico. I continui miglioramenti di efficienza, si sul fronte hardware sia su quello algoritmico, stanno ampliando l'offerta effettiva proprio mentre la domanda accelera.
I modelli di frontiera dimostrano una capacità di monetizzazione senza precedenti per scala ed efficienza
Anthropic ha comunicato un run rate di ricavi annualizzati pari a 30 miliardi di dollari al 7 aprile, in forte aumento rispetto ai 9 miliardi di appena tre mesi prima: un incremento di 21 miliardi di ARR in un solo trimestre. Anche OpenAI mostra una dinamica altrettanto robusta, passando da circa 20 miliardi di ARR a fine 2025 a oltre 25 miliardi già nei primi giorni di marzo. Per dare un termine di paragone, la sola crescita trimestrale del'ARR di Anthropic supera l'aumento complessivo dei ricavi ricorrenti delle prime dieci software company, Microsoft esclusa, nello stesso periodo.
Colpisce altrettando l'efficienza di questi modelli di business. Sia Athropic che OpenAI operano con circa 3.000 dipendenti ciascuna, a fronte dei circa 30.000 addetti che Alphabet aveva quando generava ricavi su una scala comparabile. Non si tratta solo di aziende che crescono rapidamente: rappresentano un modello operativo radicalmente diverso, in cui la scalabilità tipica del software si combina con una monetizzazione di tipo infrastrutturale, dando luogo a un livello di ricavi per dipendente senza precedenti.
È la dimostrazione più chiara finora che i large language model sono in grado di essere monetizzati su larga scala. Non a caso, questa crescita coincide con il cambiamento nel modello di pricing descritto in precedenza. Con la diffusione delle tariffe basate sull'utilizzo, l'andamento dei ricavi è destinato a restare strettamente legato al consumo di token, a sua volta trainato dall'adozione degli agenti e dall'ingresso sempre più deciso delle imprese.
Siamo ormai entrati pienamente nella fase dell'inferenza dell'IA. Nella fase iniziale a dominare era stato il training: un ciclo ad alta intensità di capitale, con ritorni economici rimandati nel tempo. Oggi è l'inferenza a trainare i ricavi e le dinamiche economiche stanno migliorando mano a mano che aumentano i tassi di utilizzo e cresce l'efficienza dell'infrastruttura.
L'IA applicata al mondo reale
Un ulteriore sviluppo da osservare con attenzione è l'estensione dell'IA oltre il dominio digitale, verso il mondo fisico. La novità di questa fase sta nella convergenza di tre elementi chiave: modelli di grandi dimensioni, enormi flussi di dati che si autoalimentano e infrastrutture integrate lungo l'intera catena del valore. In ambiti come la guida autonoma, i sistemi stanno evolvendo da architetture basate su regole a modelli end-to-end, capaci di interpretare l'intera scena, anticipare i comportamenti e tradurre direttamente la percezione in azione.
Questo cambiamento è sempre più evidente nelle applicaioni concrete. Waymo ha moltiplicato di circa dieci volte il numero di corse settimanali a pagamento in meno di due anni, passando da circa 50.000 nel 2025 agli attuali 500.000, con l'obiettivo di raggiungere quota un milione entro la fine dell'anno.
Si tratta dell'equivalente di un vero e proprio "momento ChatGPT" per il mondo fisico. I modelli non si limitano più a riconoscere oggetti, ma iniziano a ragionare su ambienti dinamici. Le implicazioni vanno ben oltre il miglioramento di umanoidi o veicoli autonomi: si profila l'emergere di un livello di intelligenza generale per i sistemi fisici, riutilizzabile e adattabile in settori diversi, dalla logistica alla manifattura, fino alla mobilità.
Questa è una curva a S particolarmente accentuata
Nei precedenti cicli di crescita della potenza di calcolo, l’infrastruttura ha sempre anticipato l’adozione delle applicazioni. Questo schema resta valido, ma con una dinamica molto più ripida del previsto. La costruzione dell’infrastruttura è stata rapida, mentre oggi è il livello applicativo, in particolare l’IA in ambito enterprise, a entrare in una fase di forte accelerazione. Stimiamo che il mercato dell’IA per le imprese possa raggiungere un valore compreso tra i 3 e i 5 trilioni di dollari, a fronte di un tasso di penetrazione che con ogni probabilità è ancora inferiore al 10%. Il percorso di adozione sta diventando sempre più chiaro: si passa dalle chat all’integrazione dell’IA nei flussi di lavoro, poi a strumenti specializzati per singoli compiti, quindi ad agenti pienamente autonomi, fino ad arrivare a reti di agenti coordinate tra loro.
In modo determinante, l'incertezza macroeconomica potrebbe accelerare questo processo invece di rallentarlo. In una fase economica più debole, la spinta a ridurre i costi del lavoro e ad aumentare la produttività diventa più forte. L'IA si afferma così come uno strumento deflazionistico. Le aziende sotto pressione tendono ad adottarla più rapidamente. È quanto accadde, ad esempio, nel 2008–09 durante la Grande Crisi Finanziaria, quando la pubblicità digitale esplose a scapito dei media tradizionali. È nei momenti difficili che le imprese sono più inclini a superare l’inerzia dei vecchi modelli. I primi segnali sono già evidenti nelle dinamiche di assunzione e nelle iniziative di ottimizzazione dei costi.
Conclusioni
L'intelligenza artificiale resta oggi una delle aree di investimento più interessanti, perché ci troviamo ancora nelle fasi iniziali di un mercato che sta migliorando rapidamente i propri prodotti, ampliando i modelli di monetizzazione e rafforzando il proprio valore economico. L'adozione cresce a ritmi sostenuti, i laboratori leader nello sviluppo dell'IA stanno passando da abbonamenti flat a modelli basati sull'utilizzo, più aderenti al ritorno sull'investimento, e i costi dell'inferenza stanno diminuendo man mano che lo stack tecnologico matura. Allo stesso tempo, l'IA non è più solo una storia tecnologica: sta diventando un fattore chiave di produttività, lavoro e allocazione del capitale. L'adozione si sta estendendo dalle semplici chat alle attività di programmazione, fino agli agenti capaci di svolgere lavoro reale e autonomo. Questa combinazione di domanda in forte crescita, migliore monetizzazione, asset computazionali più durevoli e maggiore visibilità sui ritorni di lungo periodo rende il quadro particolarmente attraente. Sebbene molte tecnologie trasformative finiscano col tempo per essere sovraffollate dal punto di vista degli investimenti, l’IA appare ancora sottopenetrata rispetto all’ampiezza dell’opportunità. A nostro avviso, ci troviamo in uno di quei rari momenti in cui crescita fondamentale e tesi di investimento risultano entrambe eccezionalmente solide.
INFORMAZIONI IMPORTANTI
Degroof Petercam Asset Management SA/NV (DPAM) l rue Guimard 18, 1040 Bruxelles, Belgio l RPM/RPR Bruxelles l TVA BE 0886 223 276 l
Questa è una comunicazione di marketing. Le prestazioni passate non sono indicative delle prestazioni future.
Tutti i diritti restano di DPAM, autore del presente documento. È vietata la memorizzazione, l'uso o la distribuzione non autorizzata. Sebbene il presente documento e il suo contenuto siano stati redatti con la dovuta cura e si basino su fonti e/o fornitori di dati terzi che DPAM ritiene affidabili, essi vengono forniti senza alcuna garanzia di alcun tipo e senza garanzie di correttezza, completezza, affidabilità, tempestività, disponibilità, commerciabilità o idoneità a uno scopo particolare. Tutte le opinioni e le stime riflettono la situazione al momento dell'emissione e possono cambiare senza preavviso. Il cambiamento delle circostanze di mercato può invalidare le dichiarazioni contenute nel presente documento.
Le informazioni fornite nel presente documento devono essere considerate di carattere generale e non intendono in alcun caso essere adattate alla vostra situazione personale. Il suo contenuto non rappresenta una consulenza di investimento, né costituisce un'offerta, una sollecitazione, una raccomandazione o un invito ad acquistare, vendere, sottoscrivere o eseguire qualsiasi altra operazione con strumenti finanziari. Il presente documento non è destinato agli investitori di una giurisdizione in cui tale offerta, sollecitazione, raccomandazione o invito sarebbe illegale. Il presente documento non costituisce nemmeno una ricerca indipendente o obiettiva in materia di investimenti o un'analisi finanziaria o un'altra forma di raccomandazione generale su operazioni in strumenti finanziari, come indicato all'articolo 2, 2°, 5 della legge del 25 ottobre 2016 relativa all'accesso alla prestazione di servizi di investimento e allo status e alla vigilanza delle società di gestione del portafoglio e dei consulenti per gli investimenti.