
Progetto “Shallotpeat” e “Rough Times”: il promemoria interno di Sam Altman rivela la più grande crisi di OpenAI – Immagine: Xpert.Digital
Una valutazione di 500 miliardi, ma nessun utile: la bolla dell'intelligenza artificiale sta per scoppiare?
E il problema da 650 miliardi di dollari: perché OpenAI è destinata al successo
Nel novembre 2025, le placche tettoniche dell'industria tecnologica si sono spostate radicalmente. Per molto tempo, OpenAI è stata considerata la monarca intoccabile della nuova era dell'intelligenza artificiale, un Davide che mostra ai Golia della Silicon Valley come funziona l'innovazione. Ma questa aura di invincibilità ha iniziato a incrinarsi. Con il lancio di Google Gemini 3 e la rapida ascesa dei modelli Claude di Anthropic, la tendenza è cambiata. Quella che era iniziata come una marcia trionfale verso la superintelligenza artificiale si è ora trasformata per OpenAI in una battaglia esistenziale contro la stagnazione tecnologica e le realtà economiche.
La situazione è paradossale: OpenAI non è mai stata così preziosa sul mercato azionario, eppure la sua leadership tecnologica non è mai stata così fragile. Mentre l'azienda di Sam Altman, con una valutazione di 500 miliardi di dollari, si sta avventurando in un territorio solitamente riservato ai colossi tecnologici affermati, esiste un pericoloso divario tra il suo valore di mercato e la sua effettiva capacità di guadagno. Un fatturato annuo di 13 miliardi di dollari è in netto contrasto con perdite ingenti e impegni infrastrutturali per centinaia di miliardi. Questo modello di crescita aggressivo ha funzionato finché OpenAI ha avuto il prodotto innegabilmente migliore sul mercato. Ma proprio questa premessa è ora crollata.
Con Gemini 3, Google non solo ha recuperato terreno tecnologicamente, ma ha anche superato OpenAI in aree cruciali. Attraverso la rinascita del pre-addestramento e la massiccia integrazione nel proprio ecosistema, il gigante dei motori di ricerca dimostra che risorse finanziarie consistenti, hardware proprietario e decenni di esperienza nell'elaborazione dei dati superano in ultima analisi il vantaggio di una startup di essere la prima a muoversi. Il frettoloso riallineamento strategico di OpenAI, simboleggiato dal progetto interno "Shallotpeat", è un'ammissione che la sua precedente scommessa sui puri "modelli di ragionamento" non ha dato i suoi frutti.
Il seguente articolo analizza l'anatomia di questo spostamento di potere. Evidenzia come errori di calcolo tecnici, equilibri finanziari e la ripresa della concorrenza creino un mix tossico che potrebbe ridefinire non solo il futuro di OpenAI, ma anche la struttura dell'intero settore dell'intelligenza artificiale.
Adatto a:
- È questa la rivoluzione dell'intelligenza artificiale? Gemini 3.0 vs. OpenAI: non è una questione di modello migliore, ma di strategia migliore.
L'ex avanguardia dell'intelligenza artificiale sta lottando per il suo futuro, mentre Google sta spostando gli equilibri di potere con la sua pura forza tecnologica.
La corsa globale per il predominio nell'intelligenza artificiale ha preso una svolta radicale nel novembre 2025. Quella che per anni era stata considerata la posizione di leadership sicura di OpenAI si è trasformata, nel giro di pochi mesi, in una precaria posizione difensiva. Il lancio di Gemini 3 di Google non solo ha segnato una pietra miliare tecnologica, ma ha anche messo in discussione i presupposti fondamentali sull'architettura del mercato dell'intelligenza artificiale. In una nota interna, il CEO di OpenAI, Sam Altman, ha avvertito i suoi dipendenti dei tempi difficili che li attendevano e ha ammesso che i recenti progressi di Google avrebbero potuto creare temporanei ostacoli economici per l'azienda. Questa valutazione insolitamente sincera rivela la fragilità di una posizione che, fino a poco tempo fa, sembrava insormontabile.
L'entità di questo cambiamento diventa chiara solo nel contesto della logica di valutazione del settore. OpenAI ha attualmente una valutazione di circa 500 miliardi di dollari, ma genera solo 13 miliardi di dollari di fatturato annuo. Questa estrema divergenza tra capitalizzazione di mercato e fatturato effettivo si basa sul presupposto di una crescita esponenziale e di una superiorità tecnologica duratura. Gemini 3 di Google mina entrambi questi presupposti contemporaneamente. Il modello supera GPT-5.1 di OpenAI in quasi tutti i benchmark standardizzati, dimostrando capacità che OpenAI stessa sta ancora cercando di sviluppare.
Le implicazioni economiche vanno ben oltre le variazioni a breve termine della quota di mercato. OpenAI brucia circa otto miliardi di dollari all'anno, registrando una perdita di cinque miliardi di dollari lo scorso anno. Questo deficit può essere sostenuto solo da continui afflussi di capitali, che a loro volta dipendono dalla fiducia degli investitori nella sua leadership tecnologica. Se tale leadership si erode, l'intera logica di finanziamento crolla. La situazione è come un treno ad alta velocità che rimane senza carburante mentre viaggia ancora alla massima velocità.
La fonte principale del promemoria interno di Sam Altman è The Information, una pubblicazione di notizie specializzata nel settore tecnologico.
Il promemoria è stato originariamente pubblicato da The Information il 20 novembre 2025. L'articolo originale è intitolato "Il promemoria di Altman prevede 'vibrazioni difficili' a causa della rinascita di Google" o "Il CEO di OpenAI si prepara a possibili venti contrari economici che attanagliano la rinascita di Google".
La pubblicazione del promemoria da parte dell'Information è stata successivamente ripresa da numerosi altri organi di informazione, tra cui:
Il promemoria in sé era una comunicazione interna di Sam Altman ai dipendenti di OpenAI e a quanto pare è trapelato a The Information da una fonte interna all'azienda. Nel promemoria, Altman avvertiva di "temporanei ostacoli economici" derivanti dai progressi di Google e affermava di aspettarsi "vibrazioni difficili".
L'anatomia della svolta tecnologica
Il successo di Google con Gemini 3 si basa su una rivalutazione fondamentale di una metodologia di sviluppo apparentemente esaurita. Il pre-addestramento, la fase fondamentale in cui i modelli di intelligenza artificiale apprendono da enormi set di dati, era considerato da alcuni nella comunità scientifica ampiamente esaurito. I principi di scalabilità, che per anni avevano promesso miglioramenti prevedibili delle prestazioni attraverso modelli più grandi e una maggiore quantità di dati, sembravano aver raggiunto i loro limiti fisici ed economici. OpenAI ha risposto spostando la sua attenzione strategica sui cosiddetti modelli di ragionamento come o1, che migliorano le loro prestazioni grazie a tempi di riflessione più lunghi durante l'inferenza.
Tuttavia, Google ha dimostrato che il processore, presumibilmente destinato a fallire, ha ancora un potenziale considerevole. Demis Hassabis, responsabile di Google DeepMind, ha riassunto sinteticamente questa intuizione: sebbene non ci siano più salti di prestazioni esponenziali da una generazione all'altra, il ritorno sugli investimenti nel pre-addestramento rimane eccezionalmente buono. Gemini 3 Pro raggiunge il 91,9% nel benchmark GPQA Diamond per il ragionamento scientifico a livello di dottorato, superando GPT-5.1 di quasi quattro punti percentuali. Ancora più impressionanti sono le sue prestazioni nel ragionamento visivo astratto: con il 31,1% nel benchmark ARC-AGI-2, Gemini 3 quasi raddoppia le prestazioni di GPT-5.1 e supera di oltre sei volte il suo predecessore.
L'importanza economica di questa superiorità tecnologica si manifesta in ambiti applicativi concreti. Nella risoluzione algoritmica dei problemi, Gemini 3 Pro ottiene un punteggio Elo di 2439 su LiveCodeBench Pro, quasi 200 punti in più rispetto a GPT-5.1. Non si tratta di una metrica accademica, ma di un indicatore diretto della produttività degli sviluppatori che utilizzano questi modelli. In un mercato in cui OpenAI genera il 70% del suo fatturato dall'accesso alle API e dai clienti aziendali, l'inferiorità tecnologica si traduce in perdite di fatturato immediate.
I problemi di pre-addestramento di OpenAI sono emersi durante lo sviluppo di GPT-5, dove le ottimizzazioni di scalabilità consolidate non funzionavano più. L'azienda si è resa conto che i metodi tradizionali per migliorare le prestazioni avevano perso la loro efficacia. In risposta, OpenAI ha sviluppato GPT-5 con un budget di pre-addestramento significativamente inferiore rispetto a GPT-4.5, ma ha compensato questo problema con un'ottimizzazione post-addestramento intensiva basata sull'apprendimento per rinforzo. Questa strategia si è rivelata efficace nel breve termine, ma ha creato una vulnerabilità strutturale: OpenAI si era specializzata in una metodologia che, pur generando capacità innovative, trascurava le fondamenta fondamentali del modello.
Il riposizionamento strategico e il progetto Shallotpeat
Il promemoria di Altman non si limita a diagnosticare il problema, ma delinea anche la controstrategia di OpenAI. Al centro c'è lo sviluppo di un nuovo modello, nome in codice Shallotpeat, specificamente progettato per affrontare le carenze pre-addestramento identificate. Il nome stesso è programmatico: gli scalogni crescono male nel terreno torboso, il substrato è tutt'altro che ideale. OpenAI segnala quindi la sua consapevolezza che le fondamenta dei suoi modelli esistenti presentano debolezze che non possono essere eliminate attraverso l'ottimizzazione della superficie.
Lo sviluppo di Shallotpeat fa parte di un più ampio riallineamento strategico. Nel suo promemoria, Altman sottolinea la necessità di concentrarsi su obiettivi molto ambiziosi, anche se questo pone temporaneamente OpenAI in una posizione di svantaggio. Una di queste sfide è l'automazione della ricerca sull'IA stessa, un meta-approccio volto ad accorciare drasticamente i cicli di sviluppo di nuovi modelli. Non si tratta di una mera ottimizzazione dell'efficienza, ma di un tentativo di cambiare radicalmente il campo di gioco: se i sistemi di IA riescono ad accelerare la propria evoluzione, potrebbero ridurre i vantaggi strutturali di attori affermati dotati di ingenti risorse.
L'urgenza di questa strategia è sottolineata dalla situazione finanziaria di OpenAI. L'azienda deve raggiungere la redditività entro il 2029 per rispettare gli impegni infrastrutturali nei confronti di Microsoft e di altri partner. Questi impegni ammontano a circa 60 miliardi di dollari all'anno, rispetto agli attuali impegni per l'infrastruttura cloud che supereranno i 650 miliardi di dollari nei prossimi anni. La discrepanza tra questi impegni e gli attuali ricavi di 13 miliardi di dollari evidenzia la portata del problema.
Allo stesso tempo, OpenAI sta perseguendo una strategia di diversificazione per ridurre la propria dipendenza da Microsoft. L'adeguamento della partnership annunciato a gennaio 2025 consente a OpenAI, per la prima volta, di utilizzare anche risorse di calcolo di concorrenti come Oracle. Sebbene Microsoft mantenga il diritto di prelazione per la nuova capacità, l'esclusività è stata interrotta. Per OpenAI, questo significa potenzialmente un accesso più rapido agli enormi cluster di GPU necessari per l'addestramento di nuovi modelli. L'iniziativa Stargate, una collaborazione tra OpenAI, Oracle, SoftBank e Microsoft, è destinata a investire 500 miliardi di dollari in data center in quattro anni. La prima struttura ad Abilene, in Texas, è già operativa con cluster GPU Nvidia GB200.
La fragilità economica del modello di business
I modelli di business delle principali aziende di intelligenza artificiale si basano su una scommessa implicita sugli effetti di rete e sui lock-in tecnologici. OpenAI ha perseguito questa strategia con notevole successo: ChatGPT ha raggiunto circa 700-800 milioni di utenti attivi settimanali a novembre 2025, il doppio rispetto a febbraio. La piattaforma elabora 2,5 miliardi di query al giorno e si colloca al quinto posto tra i siti web più visitati al mondo. Questa base di utenti inizialmente sembra un fossato inespugnabile, ma i tassi di conversione rivelano una debolezza fondamentale: solo circa il 4-10% degli utenti paga un abbonamento.
La redditività economica dipende quindi da due presupposti fondamentali: in primo luogo, che la base utenti continui a crescere in modo esponenziale, in modo che anche piccoli tassi di conversione consentano incrementi assoluti dei ricavi; in secondo luogo, che la superiorità tecnologica vincoli gli utenti alla piattaforma e che i costi di passaggio alla concorrenza rimangano elevati. Gemini 3 di Google mina entrambi i presupposti. La parità tecnica, o addirittura l'inferiorità, rende OpenAI un fornitore intercambiabile in un mercato sempre più mercificato.
La struttura dei costi aggrava questo problema. L'addestramento di modelli linguistici di grandi dimensioni e la loro distribuzione operativa richiedono ingenti risorse di calcolo. I progetti di OpenAI prevedono budget di calcolo superiori a 450 miliardi di dollari dal 2024 al 2030, con impegni totali di circa 650 miliardi di dollari, alcuni dei quali si estendono oltre il 2030. Questi investimenti devono essere giustificati dal fatturato, che a sua volta dipende dalla quota di mercato. Si crea un circolo vizioso: se OpenAI perde quote di mercato, il fatturato diminuisce, limitando la sua capacità di investire ulteriormente e quindi erodendo ulteriormente la sua competitività tecnologica.
Analisi comparative illustrano la portata del problema. Anthropic, un concorrente diretto che utilizza il modello Claude, è attualmente valutata 170 miliardi di dollari con un fatturato annuo previsto di 4 miliardi di dollari. OpenAI e Anthropic insieme dovrebbero raggiungere un fatturato complessivo di oltre 300 miliardi di dollari entro il 2030 per giustificare le loro attuali valutazioni, ipotizzando un margine di flusso di cassa libero del 27%, paragonabile a quello di Alphabet o Microsoft. A titolo di confronto, Nvidia, il principale fornitore di chip per l'intelligenza artificiale, dovrebbe generare solo 350 miliardi di dollari di fatturato entro il 2030.
Google come detentore di un vantaggio strutturale
La posizione di Google nella corsa all'intelligenza artificiale differisce radicalmente da quella di OpenAI per la sua integrazione in un ecosistema consolidato con flussi di entrate diversificati. L'azienda genera oltre 300 miliardi di dollari di fatturato annuo principalmente attraverso servizi pubblicitari e cloud, il che consente di considerare lo sviluppo dell'intelligenza artificiale come un investimento strategico che non deve necessariamente essere redditizio a breve termine. Questa solidità finanziaria consente a Google di sperimentare e investire in aree in cui i player dell'intelligenza artificiale pura come OpenAI subiscono pressioni immediate per generare fatturato.
I vantaggi in termini di distribuzione sono altrettanto significativi. Google integra Gemini nel suo motore di ricerca, che elabora miliardi di query al giorno, in Gmail, con oltre 1,5 miliardi di utenti, in Google Docs, Fogli e nell'intera suite Workspace. Questa onnipresenza crea un'esposizione passiva: gli utenti incontrano Gemini nei loro flussi di lavoro digitali quotidiani senza dover cercare attivamente strumenti di intelligenza artificiale. Anche se GPT-5.1 o Claude Sonnet 4.5 ottengono prestazioni leggermente migliori in benchmark specifici, Google mette il suo modello davanti a miliardi di occhi.
L'integrazione verticale tecnologica amplifica questi vantaggi. Google sviluppa i propri chip di intelligenza artificiale utilizzando TPU (Tensor Processing Unit), controlla l'intera infrastruttura cloud e dispone di risorse di formazione uniche, acquisite in decenni di raccolta dati. Questo controllo sull'intera catena del valore riduce i costi e consente ottimizzazioni non disponibili a fornitori terzi. Come ha sintetizzato un commentatore di Reddit: Google controlla l'hardware, i data center, i canali di distribuzione e le informazioni stesse.
I precedenti storici mettono in guardia dal sopravvalutare la leadership iniziale del mercato. Internet Explorer dominava il mercato dei browser alla fine degli anni '90 con una quota di mercato superiore al 90% ed era considerato insormontabile, ma nel giro di un decennio fu emarginato da alternative tecnicamente superiori. Yahoo e AOL, un tempo sinonimo di accesso a Internet, furono soppiantati da Google e altri. I vantaggi derivanti dall'essere i primi a muoversi nei mercati tecnologici si rivelano spesso temporanei se non si riescono a superare svantaggi strutturali come la mancanza di integrazione verticale o la fragilità finanziaria.
La prospettiva dell'investitore e i rischi di valutazione
La valutazione di OpenAI di 500 miliardi di dollari rappresenta una delle discrepanze più estreme tra utili correnti e capitalizzazione di mercato nella storia del settore tecnologico. Questa valutazione implica un multiplo dei ricavi di circa 38, mentre i giganti tecnologici affermati vengono scambiati a multipli compresi tra 5 e 15. La giustificazione di questo premio si basa sul presupposto che OpenAI conquisterà una quota sproporzionata del mercato emergente dell'intelligenza artificiale.
Questa ipotesi è sempre più messa in discussione dagli sviluppi empirici. L'ultimo round di finanziamento, a marzo 2025, che ha valutato OpenAI a 300 miliardi di dollari, ha registrato una sottoscrizione cinque volte superiore. Il round successivo di novembre, che ha portato la valutazione a 500 miliardi di dollari, è stato raccolto principalmente attraverso vendite secondarie di azioni esistenti, non attraverso nuove iniezioni di capitale. Ciò segnala un cambiamento di sentiment: i primi investitori stanno sfruttando le opportunità di realizzo parziale, mentre i nuovi investitori sono meno disposti a fornire ulteriore capitale primario.
Il paragone con la bolla delle dot-com è inevitabile. Lo stesso Sam Altman ha dichiarato pubblicamente di aspettarsi una bolla dell'intelligenza artificiale, paragonando le condizioni di mercato a quelle del boom delle dot-com e mettendo in guardia contro un'eccessiva euforia degli investitori. Allo stesso tempo, prevede migliaia di miliardi di dollari di spesa per l'espansione dei data center e risponde alle preoccupazioni degli economisti esortando tutti a lasciare che OpenAI faccia il suo lavoro. Questa retorica ricorda l'arroganza della fine degli anni '90, quando le questioni fondamentali relative alla valutazione venivano ignorate con riferimenti a un nuovo paradigma.
Analisti di Reuters e di altre istituzioni hanno calcolato che OpenAI e Anthropic dovrebbero raggiungere un fatturato annuo complessivo superiore a 300 miliardi di dollari entro il 2030 per giustificare le loro valutazioni combinate. Ciò significherebbe che le due aziende insieme dovrebbero generare quasi lo stesso fatturato di Nvidia, leader indiscusso del mercato dei chip per l'intelligenza artificiale. Data l'intensificarsi della concorrenza da parte di Google, Microsoft, Meta e numerosi altri attori, questo scenario appare sempre più improbabile.
La situazione è aggravata dagli sviluppi nel mercato più ampio dell'IA. Uno studio del MIT ha suggerito che il 95% delle aziende non sta ottenendo rendimenti misurabili sui propri investimenti nell'IA generativa. Questa scoperta ha innescato una significativa svendita di titoli tecnologici a novembre, con Nvidia in calo del 3,5% e Palantir di quasi il 10%. I mercati stanno reagendo con crescente nervosismo a qualsiasi indicazione che i rendimenti promessi dall'IA non si stiano concretizzando.
La nostra competenza negli Stati Uniti nello sviluppo aziendale, nelle vendite e nel marketing
La nostra competenza negli Stati Uniti nello sviluppo aziendale, nelle vendite e nel marketing - Immagine: Xpert.Digital
Focus del settore: B2B, digitalizzazione (dall'intelligenza artificiale alla realtà aumentata), ingegneria meccanica, logistica, energie rinnovabili e industria
Maggiori informazioni qui:
Un hub di argomenti con approfondimenti e competenze:
- Piattaforma di conoscenza sull'economia globale e regionale, sull'innovazione e sulle tendenze specifiche del settore
- Raccolta di analisi, impulsi e informazioni di base dalle nostre aree di interesse
- Un luogo di competenza e informazione sugli sviluppi attuali nel mondo degli affari e della tecnologia
- Hub tematico per le aziende che vogliono informarsi sui mercati, sulla digitalizzazione e sulle innovazioni del settore
Scarsità di dati nell'era dell'intelligenza artificiale: il vantaggio di Google grazie a fonti proprietarie e architettura di intelligenza artificiale con pensiero approfondito e un mix di esperti.
La rinascita dell'era pre-addestramento e le innovazioni algoritmiche
Il successo di Google con Gemini 3 segna la riabilitazione del pre-training come fonte primaria di miglioramenti delle prestazioni. Questo sviluppo contraddice le narrazioni che avevano proclamato la fine della scalabilità. La realtà è più sfumata: sebbene il pre-training non produca più balzi esponenziali, miglioramenti sistematici e sostanziali rimangono realizzabili quando si utilizzano i metodi giusti.
L'architettura di Gemini 3 integra diverse innovazioni algoritmiche. Il modello utilizza una struttura "mixed of expert" sviluppata da Jeff Dean, Chief Scientist di Google DeepMind. Questa architettura attiva solo una frazione dei parametri per ogni query, garantendo efficienza e mantenendo un'elevata capacità. Gemini 3 dimostra inoltre capacità di integrazione multimodale che vanno oltre la semplice traduzione da testo a immagine e includono complesse attività di ragionamento visivo.
La modalità Deep Think di Gemini 3 rappresenta la risposta di Google ai modelli di ragionamento di OpenAI. Invece di trattare il pre-addestramento e il ragionamento come paradigmi concorrenti, Google li integra entrambi. Deep Think raggiunge il 41% nel benchmark Humanity's Last Exam senza aiuti e il 45,1% in ARC-AGI-2 con esecuzione di codice. Questi risultati dimostrano che la dicotomia tra pre-addestramento e calcolo in fase di test è una falsa dicotomia: i sistemi ottimali combinano entrambi gli approcci.
L'importanza di questa scoperta per le dinamiche competitive non può essere sopravvalutata. OpenAI si era specializzata nel calcolo in fase di test perché la scalabilità pre-addestramento non funzionava più. Google sta ora dimostrando che la pre-addestramento ha ancora potenziale se affrontata correttamente. Ciò significa che OpenAI non solo è rimasta indietro tecnologicamente, ma si è anche affidata strategicamente a una metodologia che si sta rivelando incompleta.
Demis Hassabis ha articolato questa visione integrata in diverse interviste. Sottolinea che il percorso verso l'Intelligenza Artificiale Generale richiede molteplici innovazioni, non solo la scalabilità. Queste innovazioni includono sistemi di agenti in grado di tracciare attività complesse per periodi prolungati, modelli del mondo che sviluppano rappresentazioni interne della realtà fisica e capacità di meta-apprendimento che consentono ai sistemi di generalizzare a partire da un numero limitato di esempi. Google sta investendo sistematicamente in tutte queste aree, mentre OpenAI si è concentrata principalmente sul ragionamento.
Adatto a:
- Strategie di intelligenza artificiale in un confronto globale: un confronto (USA vs. UE vs. Germania vs. Asia vs. Cina)
Il ruolo dei modelli di ragionamento e i loro limiti
Il modello o1 di OpenAI e i suoi successori rappresentano un cambiamento di paradigma fondamentale nello sviluppo dell'intelligenza artificiale. Invece di basarsi principalmente su modelli più grandi e su una maggiore quantità di dati di addestramento, questi sistemi investono tempo di elaborazione durante l'inferenza per sviluppare catene di ragionamento più lunghe. Questo approccio ha ottenuto un successo impressionante in ambiti specifici, in particolare matematica, programmazione e logica formale, dove i risultati verificabili fungono da feedback.
Tuttavia, i limiti di questo approccio stanno diventando sempre più evidenti. Uno studio condotto dai ricercatori Apple ha dimostrato che i modelli di ragionamento funzionano notevolmente peggio quando i problemi vengono modificati anche solo leggermente. La sola modifica di numeri o nomi nei problemi matematici comporta notevoli perdite di prestazioni. Ancora più grave: l'aggiunta di informazioni logicamente irrilevanti ma superficialmente plausibili ha causato cali di prestazioni del 17,5% per o1-preview, del 29,1% per o1-mini e fino al 65,7% per i modelli con prestazioni inferiori.
Questi risultati suggeriscono che i modelli di ragionamento non sviluppano effettivamente strategie generali di risoluzione dei problemi, ma replicano principalmente modelli appresi. Si comportano come studenti che hanno memorizzato specifici tipi di problemi ma falliscono quando si trovano di fronte a formulazioni leggermente diverse. Questa non è solo una critica accademica, ma ha implicazioni pratiche immediate: nelle applicazioni del mondo reale che coinvolgono problemi complessi e sfaccettati senza formulazioni standardizzate, questi sistemi rimangono inaffidabili.
La struttura dei costi dei modelli di ragionamento ne esacerba i limiti. A differenza dei modelli tradizionali, in cui il pre-addestramento è la fase più elaborativa, questa relazione è invertita per i modelli di ragionamento. Il post-addestramento e l'inferenza diventano il fattore di costo dominante, rendendo la scalabilità economicamente impegnativa. OpenAI deve impiegare una quantità di elaborazione significativamente maggiore per ogni query o1 rispetto a query GPT-4 comparabili, senza che gli utenti siano disposti a pagare proporzionalmente di più.
L'integrazione di Google delle capacità di ragionamento nei modelli ottimizzati per il pre-addestramento potrebbe rivelarsi un approccio superiore. Gemini 3 con Deep Think raggiunge prestazioni di ragionamento paragonabili o migliori rispetto a o1, ma è costruito su fondamenta più solide. Ciò suggerisce che l'architettura ottimale non utilizza il ragionamento come sostituto del pre-addestramento, ma piuttosto come complemento a un modello di base robusto.
Dinamiche competitive e recupero di Anthropic
La famiglia Claude di Anthropic, in particolare Sonnet 4.5, si sta affermando come una seria terza forza nella competizione dell'intelligenza artificiale. Claude Sonnet 4.5 ha ottenuto il 77,2% nel benchmark verificato SWE-bench per problemi di ingegneria del software del mondo reale, diventando il modello leader in quest'area applicativa critica. Con il calcolo parallelo in fase di test, queste prestazioni salgono all'82%, un livello che né GPT-5.1 né Gemini 3 possono eguagliare.
L'attenzione strategica di Anthropic alla sicurezza e all'allineamento crea una nicchia con una specifica disponibilità a pagare. Le aziende in settori altamente regolamentati come la finanza, la sanità e la sicurezza informatica stanno dando sempre più priorità a modelli che integrano in modo dimostrabile solidi meccanismi di sicurezza. Claude Sonnet 4.5 raggiunge il 98,7% nei benchmark di sicurezza e dimostra una ridotta tendenza all'adulazione, all'inganno, alla ricerca di potere e al ragionamento delirante. Queste caratteristiche non sono semplici caratteristiche di marketing, ma rispondono a reali preoccupazioni dei clienti aziendali.
La capacità di Claude Sonnet 4.5 di sostenere attività complesse di ragionamento e di esecuzione di codice in più fasi per oltre 30 ore lo posiziona come un modello ideale per gli agenti autonomi. Si tratta di un mercato in rapida crescita in cui i sistemi di intelligenza artificiale gestiscono in modo indipendente flussi di lavoro estesi. OpenAI e Google competono entrambe in questo segmento, ma Anthropic ha acquisito un vantaggio grazie alla specializzazione precoce.
Il prezzo di Claude riflette questo posizionamento. Con tre dollari per milione di token in input e 15 dollari per milione di token in output, Claude si colloca nel segmento di prezzo medio, più economico di GPT-5.1 per molti casi d'uso, ma più costoso di alcune alternative open source. Questa struttura di prezzo suggerisce la strategia di Anthropic: non il mercato di massa attraverso prezzi bassi, ma il segmento premium attraverso qualità e sicurezza superiori.
La valutazione di Anthropic di 170 miliardi di dollari, con un fatturato annuo previsto di 4 miliardi di dollari, sembra meno estrema della valutazione multipla di OpenAI, ma rimane ambiziosa. La logica degli investitori è diversa: Anthropic si posiziona come obiettivo di acquisizione o attore a lungo termine in un mercato oligopolistico, non come dominatore del mercato. Questa ambizione più modesta potrebbe paradossalmente rivelarsi più sostenibile della strategia "tutto o niente" di OpenAI.
Scarsità di dati e soluzioni sintetiche
Una sfida fondamentale per tutti gli sviluppatori di intelligenza artificiale è la crescente scarsità di dati di addestramento di alta qualità. Epoch AI stima che i modelli siano attualmente addestrati con un numero di token compreso tra 4,6 e 17,2 trilioni. La maggior parte del testo liberamente disponibile su Internet è già stata utilizzata. I futuri miglioramenti delle prestazioni non possono più essere ottenuti semplicemente aumentando le dimensioni dei set di dati di addestramento, ma richiedono dati di qualità superiore o più diversificati.
I dati sintetici, ovvero i contenuti di training generati dai sistemi di intelligenza artificiale, sono oggetto di discussione come potenziale soluzione. L'approccio è intrinsecamente paradossale: i modelli devono essere addestrati su dati generati da modelli precedenti. Ciò comporta il rischio di collasso del modello, con conseguente amplificazione di errori e distorsioni nel corso delle generazioni. Tuttavia, set di dati sintetici accuratamente selezionati, con controlli di diversità e qualità, possono generare rari casi limite che non si verificano nei dati naturali.
Google vanta vantaggi strutturali nell'acquisizione di dati attraverso il suo motore di ricerca, Gmail, YouTube, Google Maps e numerosi altri servizi che producono costantemente dati nuovi, diversificati e generati dall'uomo. Questi flussi di dati non sono solo voluminosi, ma anche strutturati longitudinalmente, rendendo possibile l'identificazione di modelli e sviluppi temporali. OpenAI non dispone di fonti di dati comparabili, e si affida sempre più a partnership con editori, accordi di licenza con aziende del settore media e alla generazione di dati sintetici.
La situazione giuridica aggrava questa asimmetria. Diverse cause legali intentate da editori e autori contro OpenAI per violazione del copyright potrebbero limitare l'accesso ai dati storici e rendere le future attività di scraping legalmente rischiose. Google può sostenere che l'analisi dei siti web per l'indicizzazione dei risultati di ricerca sia una pratica consolidata e legalmente valida, che favorisce lo sviluppo dell'intelligenza artificiale. Questa incertezza giuridica pone ulteriori rischi per OpenAI, che i colossi tecnologici affermati non sopportano nella stessa misura.
La superintelligenza come scommessa a lungo termine
Il promemoria di Altman sottolinea ripetutamente la necessità di mantenere l'attenzione sul raggiungimento della superintelligenza, nonostante le pressioni competitive a breve termine. Questa retorica è strategica: giustifica gli investimenti e le perdite attuali indicando guadagni trasformativi in futuro. Il termine "superintelligenza" si riferisce a ipotetici sistemi di intelligenza artificiale che superano l'intelligenza umana in tutti gli ambiti rilevanti e sono potenzialmente in grado di accelerare il proprio sviluppo.
Le stime degli esperti sui tempi di questo sviluppo variano considerevolmente. Analisi di oltre 8.500 previsioni suggeriscono una mediana tra il 2040 e il 2045 per il raggiungimento dell'Intelligenza Artificiale Generale, il precursore della superintelligenza. Alcune voci di spicco, come Dario Amodei di Anthropic ed Elon Musk, pronosticano date significativamente precedenti, in alcuni casi addirittura tra il 2026 e il 2029. Lo stesso Sam Altman ha indicato il 2029 come data obiettivo.
La rilevanza economica di questo dibattito risiede nella logica di valutazione: se la superintelligenza è realizzabile entro cinque anni e OpenAI rimane leader nel suo sviluppo, ciò giustifica quasi ogni valutazione attuale. Tuttavia, se la superintelligenza è lontana 20 anni o OpenAI non rimane leader, la base di valutazione crolla. Gli investitori scommettono quindi non solo sulla tecnologia, ma anche su tempistiche e posizioni di mercato specifiche in ipotetici scenari futuri.
L'automazione della ricerca sull'intelligenza artificiale, che Altman identifica come un obiettivo chiave, potrebbe ridurre queste tempistiche. Sistemi che generano ipotesi, progettano esperimenti, addestrano modelli e interpretano i risultati in modo indipendente aumenterebbero drasticamente la velocità di sviluppo. Google DeepMind sta lavorando su approcci simili, in particolare integrando algoritmi di pianificazione simili ad AlphaGo nei modelli linguistici. La domanda non è se tali sistemi di meta-intelligenza artificiale saranno sviluppati, ma chi li implementerà per primo.
Struttura del mercato e formazione dell'oligopolio
Il mercato dell'intelligenza artificiale si sta rapidamente trasformando in un oligopolio con tre o cinque attori dominanti. OpenAI, Google, Anthropic, Microsoft e Meta possiedono le risorse finanziarie, il talento tecnico e le infrastrutture per rimanere all'avanguardia della concorrenza. Le barriere all'ingresso sono ormai proibitive: addestrare un modello all'avanguardia costa diverse centinaia di milioni di dollari, richiede l'accesso a migliaia di GPU all'avanguardia e richiede team di ricercatori di alto livello.
Modelli open source come Llama di Meta, Mistral o Olmo di Allen AI offrono alternative per casi d'uso specifici, ma sono in ritardo rispetto ai modelli proprietari di frontiera in termini di prestazioni assolute. La loro importanza risiede principalmente nella democratizzazione delle capacità di intelligenza artificiale per gli sviluppatori senza budget ingenti e nella creazione di una pressione competitiva che modera i prezzi di accesso alle API.
La Cina sta sviluppando contemporaneamente un proprio ecosistema di intelligenza artificiale indipendente, con aziende come Alibaba Qwen, Baidu Ernie, ByteDance e altri attori. Questi modelli stanno raggiungendo sempre più la parità con i sistemi occidentali, ma sono parzialmente separati dal mercato globale da quadri normativi diversi, accesso limitato a chip all'avanguardia a causa dei controlli sulle esportazioni e barriere linguistiche. La dimensione geopolitica dello sviluppo dell'intelligenza artificiale potrebbe portare alla creazione di ecosistemi paralleli, a predominanza regionale, simili alla frammentazione di Internet.
Per OpenAI, questo oligopolio implica che le posizioni marginali non siano stabili. O l'azienda si afferma in modo sostenibile come uno dei pochi sistemi leader, oppure viene relegata a un secondo livello, da cui la promozione è praticamente impossibile a causa dell'intensità di capitale. Gli investitori comprendono questa dinamica, che spiega l'estrema volatilità delle valutazioni: con risultati binari, le probabilità vengono continuamente rivalutate e piccole variazioni nella valutazione delle probabilità portano a grandi variazioni di valutazione.
L'integrazione verticale come imperativo strategico
La concessione in licenza da parte di Microsoft della proprietà intellettuale di OpenAI per la progettazione di chip e sistemi a novembre 2025 segna un riallineamento strategico. L'accordo garantisce a Microsoft un accesso completo al portfolio di progettazione di chip proprietari di OpenAI e potrebbe ridurre notevolmente i cicli di sviluppo di Microsoft per i processori AI di prossima generazione. Questo rientra in una tendenza più ampia verso l'integrazione verticale, in cui i principali fornitori di servizi cloud cercano di ottenere un maggiore controllo sulle proprie fondamenta hardware.
Google sviluppa TPU da anni, controllando così l'intero stack, dal silicio al software. Amazon sta sviluppando i propri chip Trainium e Inferentia. Microsoft sta investendo molto nei propri acceleratori di intelligenza artificiale. Questo passaggio al silicio personalizzato riflette la consapevolezza che le GPU generiche non sono ottimali per specifici carichi di lavoro di intelligenza artificiale. I chip specializzati possono raggiungere un'efficienza di ordini di grandezza superiore per operazioni specifiche, riducendo i costi e aumentando le prestazioni.
OpenAI non dispone di questa integrazione verticale. L'azienda si affida a fornitori di chip esterni, principalmente Nvidia, e utilizza infrastrutture cloud di Microsoft, Oracle e altri. Queste dipendenze creano svantaggi in termini di costi e vulnerabilità strategiche. La partnership con Microsoft per le licenze IP potrebbe essere un primo passo verso la riduzione di questo divario, ma lo sviluppo di hardware proprietario richiede anni e competenze che OpenAI deve ancora acquisire.
Le implicazioni economiche sono sostanziali. Gli operatori di modelli con un controllo hardware proprietario possono ridurre i costi di diversi ordini di grandezza, consentendo strategie di prezzo più aggressive o, in alternativa, assicurandosi margini più elevati. Google può potenzialmente offrire Gemini a prezzi in cui OpenAI subisce perdite, poiché Google può ridurre drasticamente i propri costi grazie all'utilizzo di TPU. Questa non è una possibilità teorica, ma una realtà pratica che sta già influenzando le dinamiche di mercato.
Da Netscape e Yahoo a OpenAI: la storia si ripete?
Gli sviluppi del 2025 segnano la fine di un'era di leadership indiscussa da parte di singoli pionieri nel settore dell'intelligenza artificiale. Il ruolo di OpenAI come attore determinante nella rivoluzione dell'intelligenza artificiale generativa è fondamentalmente messo a dura prova dalla parità tecnologica, dagli svantaggi strutturali dei giganti tecnologici affermati e dalla fragilità finanziaria. L'azienda si trova ad affrontare la sfida di gestire crisi simultanee: recuperare il ritardo tecnologico rispetto a Google, garantire la sostenibilità finanziaria nonostante le ingenti perdite, riposizionarsi strategicamente in un mercato in via di consolidamento e far fronte alla complessità operativa di una rapida crescita.
Il successo di Google con Gemini 3 dimostra che nei mercati ad alta intensità tecnologica, la profondità delle risorse, l'integrazione verticale e il capitale paziente offrono spesso vantaggi strutturali rispetto all'innovazione agile. La capacità di assorbire le perdite per anni, mentre i prodotti maturano e si realizzano economie di scala, è un vantaggio inestimabile. OpenAI e altre aziende di intelligenza artificiale pure-play devono raggiungere la redditività entro tempi dettati dalle aspettative degli investitori, mentre Google può sperimentare finché le soluzioni non sono realmente pronte per il mercato.
Il futuro del mercato dell'intelligenza artificiale sarà probabilmente caratterizzato da un oligopolio di tre-cinque fornitori dominanti, ognuno dei quali occupa nicchie strategiche diverse. Google come generalista verticalmente integrato con una distribuzione superiore, Microsoft come integratore focalizzato sulle aziende, Anthropic come specialista in sicurezza e allineamento e Meta come promotore dell'open source per gli ecosistemi di sviluppo. Il futuro posizionamento di OpenAI in questa costellazione rimane incerto e dipende in modo cruciale dalla capacità del progetto Shallotpeat di colmare le carenze pre-training identificate e dalla capacità dell'azienda di stabilire un vantaggio competitivo sostenibile al di là della sua storica leadership di brand.
Per investitori, clienti aziendali e tecnologi, questo riallineamento significa una rivalutazione di rischi e opportunità. L'ipotesi che i primi leader di mercato difenderanno le proprie posizioni si sta rivelando sempre più discutibile. La velocità del cambiamento tecnologico, l'intensità di capitale della ricerca d'avanguardia e la potenza dei canali di distribuzione consolidati stanno creando una dinamica in cui i vantaggi strutturali sono spesso più importanti della leadership storica nell'innovazione. I prossimi anni dimostreranno se i pionieri dell'agilità possiedono le risorse e la visione strategica per resistere allo schiacciante potere dei giganti della tecnologia, o se la storia di Netscape, Yahoo e altri pionieri di Internet si ripeterà nell'era dell'intelligenza artificiale.
Una nuova dimensione della trasformazione digitale con 'Managed AI' (Intelligenza Artificiale) - Piattaforma e soluzione B2B | Xpert Consulting
Una nuova dimensione della trasformazione digitale con 'Managed AI' (Intelligenza Artificiale) – Piattaforma e soluzione B2B | Xpert Consulting - Immagine: Xpert.Digital
Qui scoprirai come la tua azienda può implementare soluzioni di intelligenza artificiale personalizzate in modo rapido, sicuro e senza elevate barriere all'ingresso.
Una piattaforma di intelligenza artificiale gestita è il pacchetto completo e senza pensieri per l'intelligenza artificiale. Invece di dover gestire tecnologie complesse, infrastrutture costose e lunghi processi di sviluppo, riceverai una soluzione chiavi in mano su misura per le tue esigenze da un partner specializzato, spesso entro pochi giorni.
I principali vantaggi in sintesi:
⚡ Implementazione rapida: dall'idea all'applicazione operativa in pochi giorni, non mesi. Forniamo soluzioni pratiche che creano valore immediato.
🔒 Massima sicurezza dei dati: i tuoi dati sensibili rimangono con te. Garantiamo un trattamento sicuro e conforme alle normative, senza condividere i dati con terze parti.
💸 Nessun rischio finanziario: paghi solo per i risultati. Gli elevati investimenti iniziali in hardware, software o personale vengono completamente eliminati.
🎯 Concentrati sul tuo core business: concentrati su ciò che sai fare meglio. Ci occupiamo dell'intera implementazione tecnica, del funzionamento e della manutenzione della tua soluzione di intelligenza artificiale.
📈 A prova di futuro e scalabile: la tua intelligenza artificiale cresce con te. Garantiamo ottimizzazione e scalabilità continue e adattiamo i modelli in modo flessibile alle nuove esigenze.
Maggiori informazioni qui:
Il tuo partner globale per il marketing e lo sviluppo aziendale
☑️ La nostra lingua commerciale è l'inglese o il tedesco
☑️ NOVITÀ: corrispondenza nella tua lingua nazionale!
Sarei felice di servire te e il mio team come consulente personale.
Potete contattarmi compilando il modulo di contatto o semplicemente chiamandomi al numero +49 89 89 674 804 (Monaco) . Il mio indirizzo email è: wolfenstein ∂ xpert.digital
Non vedo l'ora di iniziare il nostro progetto comune.
☑️ Supporto alle PMI nella strategia, consulenza, pianificazione e implementazione
☑️ Creazione o riallineamento della strategia digitale e digitalizzazione
☑️ Espansione e ottimizzazione dei processi di vendita internazionali
☑️ Piattaforme di trading B2B globali e digitali
☑️ Pioneer Business Development/Marketing/PR/Fiere
🎯🎯🎯 Approfitta della vasta e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | BD, R&D, XR, PR e ottimizzazione della visibilità digitale
Approfitta dell'ampia e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | Ottimizzazione di R&S, XR, PR e visibilità digitale - Immagine: Xpert.Digital
Xpert.Digital ha una conoscenza approfondita di vari settori. Questo ci consente di sviluppare strategie su misura che si adattano esattamente alle esigenze e alle sfide del vostro specifico segmento di mercato. Analizzando continuamente le tendenze del mercato e seguendo gli sviluppi del settore, possiamo agire con lungimiranza e offrire soluzioni innovative. Attraverso la combinazione di esperienza e conoscenza, generiamo valore aggiunto e diamo ai nostri clienti un vantaggio competitivo decisivo.
Maggiori informazioni qui:

