AMI – Advanced Machine Intelligence – La fine della scalabilità: perché Yann LeCun non crede più negli LLM
Pre-release di Xpert
Selezione vocale 📢
Pubblicato il: 23 novembre 2025 / Aggiornato il: 23 novembre 2025 – Autore: Konrad Wolfenstein

AMI – Advanced Machine Intelligence – La fine della scalabilità: perché Yann LeCun non crede più negli LLM – Immagine: Xpert.Digital
Vicolo cieco invece di superintelligenza: perché il visionario capo di Meta ora si dimette
600 miliardi per un approccio sbagliato? Il "Padrino dell'IA" scommette contro LLaMA, ChatGPT e soci.
L'annuncio è arrivato come un fulmine a ciel sereno nel settore tecnologico nel novembre 2025. Yann LeCun, uno dei tre padri fondatori del deep learning e chief scientist di Meta, ha annunciato le sue dimissioni dopo dodici anni di collaborazione con l'azienda per fondare una propria startup. Questa decisione è molto più di una semplice scelta di carriera da parte di un singolo scienziato. Segna una svolta fondamentale nel settore globale dell'intelligenza artificiale e rivela il crescente divario tra interessi di mercato a breve termine e visione scientifica a lungo termine.
LeCun, che ha ricevuto il Turing Award nel 2018 insieme a Geoffrey Hinton e Yoshua Bengio, è considerato l'architetto delle reti neurali convoluzionali, che oggi costituiscono il fondamento dei moderni sistemi di elaborazione delle immagini. Il suo addio arriva in un momento in cui l'intero settore sta investendo centinaia di miliardi di dollari in modelli linguistici di grandi dimensioni, una tecnologia che LeCun ha descritto per anni come un vicolo cieco fondamentale. Con la sua nuova azienda, lo scienziato, ormai 65enne, intende perseguire quella che definisce "Intelligenza Artificiale Avanzata", un approccio radicalmente diverso basato su modelli del mondo e che parte dalla percezione fisica, non dal testo.
Le implicazioni economiche di questo sviluppo sono immense. Meta stessa ha investito oltre 600 miliardi di dollari in infrastrutture di intelligenza artificiale negli ultimi tre anni. OpenAI ha raggiunto una valutazione di mezzo trilione di dollari, nonostante un fatturato annuo di soli dieci miliardi di dollari. L'intero settore si è mosso in una direzione che uno dei suoi più importanti pionieri ha ora pubblicamente descritto come un vicolo cieco. Per comprendere le conseguenze economiche di questo cambiamento, è necessario approfondire le strutture tecniche, organizzative e finanziarie dell'attuale rivoluzione dell'intelligenza artificiale.
Adatto a:
- Meta investirà 600 miliardi di dollari USA: per costruire infrastrutture di intelligenza artificiale negli USA
L'architettura di una bolla
L'architettura Transformer, introdotta dai ricercatori di Google nel 2017, ha trasformato il panorama dell'intelligenza artificiale a un ritmo senza precedenti. Questo approccio ha reso possibile per la prima volta l'elaborazione efficiente di enormi quantità di testo e l'addestramento di modelli linguistici con capacità precedentemente irraggiungibili. OpenAI ha costruito su queste basi con la sua serie GPT che, con ChatGPT nel novembre 2022, ha dimostrato per la prima volta a un vasto pubblico le potenzialità di queste tecnologie. La risposta è stata esplosiva. Nel giro di pochi mesi, decine di miliardi di dollari sono confluiti nel settore.
Tuttavia, dalla fine del 2024, si sono manifestati segnali crescenti che questo sviluppo esponenziale stia raggiungendo i suoi limiti. OpenAI sta sviluppando il successore di GPT-4, internamente denominato Orion o GPT-5, da oltre 18 mesi. L'azienda avrebbe condotto almeno due grandi sessioni di addestramento, ciascuna costata circa 500 milioni di dollari. I risultati sono stati deludenti. Mentre GPT-4 ha rappresentato un enorme balzo in avanti in termini di prestazioni rispetto a GPT-3, i miglioramenti di Orion rispetto a GPT-4 sono marginali. In alcune aree, in particolare nella programmazione, il modello non mostra praticamente alcun progresso.
Questo sviluppo contraddice fondamentalmente le leggi di scala, quei principi empirici che fino a poco tempo fa guidavano l'intero settore. L'idea di base era semplice: se si ingrandisce un modello, si utilizzano più dati per l'addestramento e si investe più potenza di calcolo, l'aumento delle prestazioni segue una funzione di potenza prevedibile. Questo principio sembrava valere universalmente e giustificava gli investimenti astronomici degli ultimi anni. Ora si scopre che queste curve si stanno appiattendo. Il successivo raddoppio degli investimenti non produce più il raddoppio atteso delle prestazioni.
Le ragioni di ciò sono numerose e tecnicamente complesse. Un problema chiave è il muro di dati. GPT-4 è stato addestrato con circa 13 trilioni di token, che rappresentano essenzialmente l'intera rete Internet disponibile al pubblico. Per GPT-5, semplicemente non ci sono abbastanza dati nuovi e di alta qualità. OpenAI ha risposto assumendo sviluppatori software, matematici e fisici teorici per generare nuovi dati scrivendo codice e risolvendo problemi matematici. Tuttavia, anche se 1.000 persone producessero 5.000 parole al giorno, ci vorrebbero mesi per generare solo un miliardo di token. Scalare utilizzando dati generati dall'uomo semplicemente non funziona.
In alternativa, le aziende si affidano sempre più a dati sintetici, ovvero dati generati da altri modelli di intelligenza artificiale. Ma qui si nasconde un nuovo pericolo: il collasso dei modelli. Quando i modelli vengono addestrati ricorsivamente su dati generati da altri modelli, piccoli errori si amplificano nel corso delle generazioni. Il risultato sono modelli che si distaccano sempre di più dalla realtà e in cui i gruppi minoritari nei dati scompaiono in modo sproporzionato. Uno studio pubblicato su Nature nel 2024 ha dimostrato che questo processo avviene con una rapidità sorprendente. I dati sintetici non sono quindi una panacea, ma comportano piuttosto rischi significativi.
La transizione energetica e i limiti della crescita
Oltre alla barriera dei dati, ce n'è una seconda, ancora più fondamentale: la barriera energetica. L'addestramento di GPT-3 ha consumato circa 1.300 megawattora di elettricità, equivalenti al consumo annuo di 130 famiglie americane. GPT-4 ha richiesto una quantità stimata di 50 volte superiore, ovvero 65.000 megawattora. La potenza di calcolo necessaria per addestrare modelli di intelligenza artificiale di grandi dimensioni raddoppia circa ogni 100 giorni. Questa curva esponenziale porta rapidamente a limitazioni fisiche.
I data center che addestrano e gestiscono questi modelli consumano già la stessa quantità di elettricità delle piccole città. L'Agenzia Internazionale per l'Energia prevede che il consumo di elettricità dei data center aumenterà dell'80% entro il 2026, passando da 20 terawattora nel 2022 a 36 terawattora nel 2026. L'intelligenza artificiale è il principale motore di questa crescita. A titolo di confronto, una singola query su ChatGPT consuma circa dieci volte più energia di una ricerca su Google. Con miliardi di query al giorno, si tratta di quantità enormi.
Questo sviluppo sta costringendo le aziende tecnologiche ad adottare misure drastiche. Microsoft ha già firmato contratti con i fornitori di energia nucleare. Meta, Amazon e Google investiranno complessivamente oltre 1,3 trilioni di dollari nei prossimi anni per costruire l'infrastruttura necessaria. Ma questi investimenti si scontrano con limiti fisici e politici. Gli Stati Uniti semplicemente non dispongono di infrastrutture energetiche sufficienti per alimentare i data center di intelligenza artificiale previsti. Gli analisti stimano che progetti per un valore di 750 miliardi di dollari potrebbero subire ritardi entro il 2030 a causa di colli di bottiglia nelle infrastrutture energetiche.
A ciò si aggiunge la dimensione geopolitica. La domanda energetica del settore dell'intelligenza artificiale intensifica la competizione per le risorse e aumenta la dipendenza dai combustibili fossili. Mentre i decisori politici chiedono la neutralità climatica, il settore dell'intelligenza artificiale sta facendo aumentare i consumi energetici. Questa tensione è destinata ad aggravarsi nei prossimi anni e potrebbe portare a interventi normativi che limiteranno la crescita del settore.
Il muro architettonico e l'alternativa di LeCun
La terza barriera è forse la più fondamentale: il muro architettonico. Yann LeCun sostiene da anni che l'architettura del Transformer presenta limitazioni intrinseche che non possono essere superate semplicemente scalando. La sua critica si concentra sul funzionamento fondamentale dei Large Language Model. Questi sistemi sono addestrati a predire la parola successiva in una sequenza. Apprendono modelli statistici in corpora di testo di grandi dimensioni, ma non sviluppano una vera comprensione della causalità, delle leggi fisiche o della pianificazione a lungo termine.
LeCun ama illustrare il problema con un paragone: un bambino di quattro anni ha assorbito più informazioni sul mondo attraverso la percezione visiva di quante i più grandi modelli linguistici abbiano assorbito attraverso il testo. Un bambino capisce intuitivamente che gli oggetti non scompaiono semplicemente, che le cose pesanti cadono e che le azioni hanno conseguenze. Ha sviluppato un modello del mondo, una rappresentazione interna della realtà fisica, che usa per fare previsioni e pianificare azioni. Gli LLM mancano di questa capacità fondamentale. Possono generare testi straordinariamente coerenti, ma non comprendono il mondo.
Questa limitazione si manifesta ripetutamente nelle applicazioni pratiche. Se si chiede a GPT-4 di visualizzare un cubo rotante, fallisce in un compito che qualsiasi bambino può facilmente svolgere. Con compiti complessi che richiedono una pianificazione in più fasi, i modelli falliscono regolarmente. Non possono imparare in modo affidabile dagli errori perché ogni errore di predizione del token potenzialmente si propaga e si amplifica. I modelli autoregressivi presentano una fragilità fondamentale: un errore all'inizio della sequenza può rovinare l'intero risultato.
L'alternativa di LeCun sono i modelli del mondo basati sull'Architettura Predittiva Joint Embedding. L'idea di base è che i sistemi di intelligenza artificiale non dovrebbero apprendere attraverso la previsione del testo, ma piuttosto prevedendo rappresentazioni astratte di stati futuri. Invece di generare pixel per pixel o token per token, il sistema apprende una rappresentazione compressa e strutturata del mondo e può utilizzarla per simulare mentalmente diversi scenari prima di agire.
Sotto la guida di LeCun, Meta ha già sviluppato diverse implementazioni di questo approccio. I-JEPA per le immagini e V-JEPA per i video mostrano risultati promettenti. Questi modelli apprendono componenti di oggetti di alto livello e le loro relazioni spaziali senza dover ricorrere a un'acquisizione dati intensiva. Sono inoltre significativamente più efficienti dal punto di vista energetico nell'addestramento rispetto ai modelli convenzionali. L'obiettivo è combinare questi approcci in sistemi gerarchici in grado di operare a diversi livelli di astrazione e scale temporali.
La differenza cruciale risiede nella natura del processo di apprendimento. Mentre gli LLM eseguono essenzialmente il pattern matching a tutto gas, i modelli del mondo mirano a cogliere la struttura e la causalità della realtà. Un sistema con un modello del mondo robusto potrebbe anticipare le conseguenze delle proprie azioni senza doverle effettivamente eseguire. Potrebbe imparare da pochi esempi perché comprende i principi sottostanti, non solo correlazioni superficiali.
Disfunzione organizzativa e crisi esistenziale di Meta
L'abbandono di LeCun, tuttavia, non è solo una decisione scientifica, ma anche il risultato di una disfunzione organizzativa in Meta. Nel giugno 2025, il CEO Mark Zuckerberg annunciò una massiccia ristrutturazione delle divisioni di intelligenza artificiale. Fondò Meta Superintelligence Labs, una nuova unità con l'obiettivo dichiarato di sviluppare l'Intelligenza Artificiale Generale. Era guidata da Alexandr Wang, il ventottenne ex CEO di Scale AI, un'azienda di preparazione dati. Meta investì 14,3 miliardi di dollari in Scale AI e reclutò oltre 50 ingegneri e ricercatori dai concorrenti.
Questa decisione ha stravolto la struttura esistente. Il team di ricerca sull'intelligenza artificiale fondamentale di LeCun, che aveva dedicato anni allo sviluppo di PyTorch e dei primi modelli Llama, è stato emarginato. FAIR era orientato alla ricerca fondamentale con un orizzonte temporale di cinque-dieci anni, mentre i nuovi laboratori di superintelligenza si concentravano sullo sviluppo di prodotti a breve termine. Fonti segnalano un crescente caos nei dipartimenti di intelligenza artificiale di Meta. I migliori talenti appena assunti hanno espresso frustrazione per la burocrazia di una grande azienda, mentre i team consolidati hanno visto la loro influenza scemare.
La situazione peggiorò a causa di diverse ristrutturazioni avvenute in soli sei mesi. Nell'agosto 2025, i Superintelligence Labs furono nuovamente riorganizzati, questa volta in quattro sottounità: un misterioso TBD Lab per nuovi modelli, un team di prodotto, un team per le infrastrutture e FAIR. Un'altra ondata di licenziamenti seguì a ottobre, con circa 600 dipendenti posti in liquidazione. La motivazione dichiarata: ridurre la complessità organizzativa e accelerare lo sviluppo dell'intelligenza artificiale.
Queste continue ristrutturazioni sono in netto contrasto con la relativa stabilità di concorrenti come OpenAI, Google e Anthropic. Esse indicano una fondamentale incertezza in Meta riguardo alla giusta direzione strategica. Zuckerberg ha riconosciuto che Meta sta perdendo terreno nella corsa al dominio dell'intelligenza artificiale. Llama 4, lanciato nell'aprile 2025, è stato una delusione. Sebbene il modello Maverick abbia dimostrato una buona efficienza, ha fallito drasticamente in contesti più lunghi. Sono emerse accuse secondo cui Meta avrebbe ottimizzato i benchmark addestrando specificamente i modelli su domande di test comuni, gonfiando artificialmente le prestazioni.
Per LeCun, la situazione divenne insostenibile. La sua visione di ricerca fondamentale a lungo termine si scontrava con la pressione di raggiungere successi di prodotto a breve termine. Il fatto di essere di fatto subordinato a Wang, notevolmente più giovane, probabilmente contribuì alla sua decisione. Nel suo messaggio di addio, LeCun sottolinea che Meta rimarrà partner della sua nuova azienda, ma il messaggio è chiaro: la ricerca indipendente che considera essenziale non è più possibile all'interno delle strutture aziendali.
Una nuova dimensione della trasformazione digitale con 'Managed AI' (Intelligenza Artificiale) - Piattaforma e soluzione B2B | Xpert Consulting

Una nuova dimensione della trasformazione digitale con 'Managed AI' (Intelligenza Artificiale) – Piattaforma e soluzione B2B | Xpert Consulting - Immagine: Xpert.Digital
Qui scoprirai come la tua azienda può implementare soluzioni di intelligenza artificiale personalizzate in modo rapido, sicuro e senza elevate barriere all'ingresso.
Una piattaforma di intelligenza artificiale gestita è il pacchetto completo e senza pensieri per l'intelligenza artificiale. Invece di dover gestire tecnologie complesse, infrastrutture costose e lunghi processi di sviluppo, riceverai una soluzione chiavi in mano su misura per le tue esigenze da un partner specializzato, spesso entro pochi giorni.
I principali vantaggi in sintesi:
⚡ Implementazione rapida: dall'idea all'applicazione operativa in pochi giorni, non mesi. Forniamo soluzioni pratiche che creano valore immediato.
🔒 Massima sicurezza dei dati: i tuoi dati sensibili rimangono con te. Garantiamo un trattamento sicuro e conforme alle normative, senza condividere i dati con terze parti.
💸 Nessun rischio finanziario: paghi solo per i risultati. Gli elevati investimenti iniziali in hardware, software o personale vengono completamente eliminati.
🎯 Concentrati sul tuo core business: concentrati su ciò che sai fare meglio. Ci occupiamo dell'intera implementazione tecnica, del funzionamento e della manutenzione della tua soluzione di intelligenza artificiale.
📈 A prova di futuro e scalabile: la tua intelligenza artificiale cresce con te. Garantiamo ottimizzazione e scalabilità continue e adattiamo i modelli in modo flessibile alle nuove esigenze.
Maggiori informazioni qui:
Dall'hype alla realtà: l'imminente rivalutazione del settore dell'intelligenza artificiale
L'anatomia economica della formazione delle vesciche
Gli sviluppi di Meta sono sintomatici di una dinamica economica più ampia nel settore dell'intelligenza artificiale. Dalla svolta di ChatGPT alla fine del 2022, si è verificato un boom di investimenti senza precedenti. Solo nel primo trimestre del 2025, 73,1 miliardi di dollari sono confluiti in startup di intelligenza artificiale, rappresentando il 58% di tutti gli investimenti di capitale di rischio. OpenAI ha raggiunto una valutazione di 500 miliardi di dollari, diventando la prima azienda privata a superare questa soglia senza aver mai realizzato profitti.
Le valutazioni sono ampiamente sproporzionate rispetto ai ricavi effettivi. OpenAI ha generato 10 miliardi di dollari di fatturato annuo nel 2025 con una valutazione di 500 miliardi di dollari, con un rapporto prezzo/fatturato di 50. A titolo di confronto, anche al culmine della bolla delle dot-com, poche aziende hanno raggiunto multipli simili. Anthropic è valutata 170 miliardi di dollari con un fatturato di 2,2 miliardi di dollari, con un rapporto P/E di circa 77. Queste cifre indicano una massiccia sopravvalutazione.
Particolarmente problematica è la struttura di finanziamento circolare che si è sviluppata. Nvidia sta investendo 100 miliardi di dollari in OpenAI, che a sua volta è obbligata ad acquistare chip Nvidia per un valore di decine di miliardi di dollari. OpenAI ha stipulato accordi simili con AMD per un valore di decine di miliardi di dollari. Microsoft ha investito oltre 13 miliardi di dollari in OpenAI e ospita la sua infrastruttura su Azure. Amazon ha investito 8 miliardi di dollari in Anthropic, che a sua volta utilizza AWS come piattaforma cloud principale e impiega i chip di intelligenza artificiale di Amazon.
Questi accordi ricordano in modo inquietante il finanziamento circolare della fine degli anni '90, quando le aziende tecnologiche si vendevano apparecchiature tra loro e contabilizzavano le transazioni come ricavi senza generare alcun valore economico reale. Gli analisti parlano di una rete di relazioni commerciali sempre più complessa e opaca, che alimenta un boom da mille miliardi di dollari. I parallelismi con la bolla delle dot-com e la crisi finanziaria del 2008 sono inequivocabili: meccanismi di finanziamento opachi e non convenzionali, difficili da comprendere e valutare per gli investitori.
A ciò si aggiunge la concentrazione del capitale. Le Magnifiche Sette, le sette maggiori aziende tecnologiche statunitensi, hanno aumentato il loro consumo energetico del 19% nel 2023, mentre il consumo medio delle aziende S&P 500 è rimasto stagnante. Circa l'80% dei guadagni del mercato azionario statunitense nel 2025 è stato attribuibile ad aziende legate all'intelligenza artificiale. Nvidia da sola è diventata il titolo più acquistato dagli investitori al dettaglio, che hanno investito quasi 30 miliardi di dollari nel produttore di chip nel 2024.
Questa estrema concentrazione comporta rischi sistemici. Se le aspettative di rendimento si rivelassero irrealistiche, un crollo del mercato potrebbe avere conseguenze di vasta portata. JPMorgan stima che le sole emissioni obbligazionarie investment grade legate all'intelligenza artificiale potrebbero raggiungere 1.500 miliardi di dollari entro il 2030. Gran parte di questo debito si basa sul presupposto che i sistemi di intelligenza artificiale genereranno enormi guadagni di produttività. Se questa aspettativa non si concretizzasse, incomberebbe una crisi del credito.
Adatto a:
- Meta punta tutto sulla superintelligenza: investimenti miliardari, mega data center e una rischiosa corsa all'intelligenza artificiale
La guerra dei talenti e gli sconvolgimenti sociali
Le tensioni economiche si stanno manifestando anche sul mercato del lavoro. Il rapporto tra posizioni aperte nel settore dell'intelligenza artificiale e candidati qualificati è di 3,2 a 1. Ci sono 1,6 milioni di posizioni aperte, ma solo 518.000 candidati qualificati. Questa grave carenza sta portando gli stipendi a livelli astronomici. Gli specialisti di intelligenza artificiale possono aggiungere decine di migliaia di dollari al loro reddito annuo acquisendo competenze in Python, TensorFlow o framework di intelligenza artificiale specializzati.
La concorrenza è spietata. Grandi aziende tecnologiche, startup ben finanziate e persino governi si contendono lo stesso piccolo gruppo di esperti. OpenAI ha assistito a un esodo di dirigenti negli ultimi mesi, tra cui il co-fondatore Ilya Sutskever e il Chief Technology Officer Mira Murati. Molti di questi talenti stanno lanciando le proprie startup o passando alla concorrenza. Meta sta reclutando in modo aggressivo da OpenAI, Anthropic e Google. Anthropic sta reclutando da Meta e OpenAI.
Questa dinamica ha diverse conseguenze. In primo luogo, frammenta il panorama della ricerca. Invece di lavorare per obiettivi comuni, piccoli team in organizzazioni diverse competono per le stesse scoperte. In secondo luogo, fa aumentare i costi. Gli enormi stipendi degli specialisti di intelligenza artificiale sono sostenibili solo per le aziende ben capitalizzate, il che esclude dal mercato i player più piccoli. In terzo luogo, ritarda i progetti. Le aziende segnalano che le posizioni aperte rimangono vacanti per mesi, interrompendo le tempistiche di sviluppo.
Le implicazioni sociali vanno ben oltre il settore tecnologico. Se l'intelligenza artificiale rappresenta davvero la prossima rivoluzione industriale, allora è imminente un enorme sconvolgimento del mercato del lavoro. A differenza della prima rivoluzione industriale, che interessò principalmente il lavoro fisico, l'intelligenza artificiale si concentra su compiti cognitivi. Non solo il semplice inserimento dati e il servizio clienti sono minacciati, ma potenzialmente anche professioni altamente qualificate come programmatori, designer, avvocati e giornalisti.
Uno studio sul settore della gestione degli investimenti prevede un calo del 5% della quota di reddito da lavoro a causa dell'intelligenza artificiale e dei big data. Questo è paragonabile ai cambiamenti avvenuti durante la rivoluzione industriale, che causarono un calo dal 5 al 15%. La differenza cruciale: l'attuale trasformazione si sta verificando nell'arco di anni, non di decenni. Le società hanno poco tempo per adattarsi.
Calcolo in fase di test e cambio di paradigma
Mentre le leggi di scalabilità per il pre-addestramento stanno raggiungendo i loro limiti, è emerso un nuovo paradigma: la scalabilità del calcolo in fase di test. I modelli o1 di OpenAI hanno dimostrato che è possibile ottenere significativi miglioramenti delle prestazioni investendo più potenza di calcolo durante l'inferenza. Invece di limitarsi ad aumentare le dimensioni del modello, questi sistemi consentono al modello di riflettere su una query più a lungo, di perseguire più approcci per risolverla e di autoverificare le proprie risposte.
Tuttavia, la ricerca dimostra che questo paradigma presenta anche dei limiti. Il ridimensionamento sequenziale, in cui un modello itera sullo stesso problema più volte, non porta a miglioramenti continui. Studi su modelli come Deepseeks R1 e QwQ dimostrano che processi di pensiero più lunghi non producono automaticamente risultati migliori. Spesso, il modello corregge le risposte corrette a quelle errate, piuttosto che il contrario. La capacità di auto-revisione necessaria per un ridimensionamento sequenziale efficace non è sufficientemente sviluppata.
Il ridimensionamento parallelo, in cui più soluzioni vengono generate simultaneamente e viene selezionata la migliore, mostra risultati migliori. Tuttavia, anche in questo caso, il beneficio marginale diminuisce con ogni raddoppio della potenza di calcolo investita. L'efficienza dei costi diminuisce rapidamente. Per le applicazioni commerciali che devono rispondere a milioni di query al giorno, i costi sono proibitivi.
La vera svolta potrebbe risiedere nella combinazione di approcci diversi. Le architetture ibride che combinano i Transformer con i Modelli a Spazio di Stato promettono di unire i punti di forza di entrambi. I Modelli a Spazio di Stato come Mamba offrono un comportamento di scala lineare nell'inferenza, mentre i Transformer eccellono nell'acquisizione di dipendenze a lungo raggio. Tali sistemi ibridi potrebbero riequilibrare l'equazione costo-qualità.
Architetture alternative e il futuro dopo i Transformers
Oltre ai modelli globali, stanno emergendo diverse architetture alternative che potrebbero sfidare il predominio dei Transformer. I modelli nello spazio di stato hanno compiuto progressi significativi negli ultimi anni. S4, Mamba e Hyena dimostrano che è possibile un ragionamento efficiente a lungo contesto con complessità lineare. Mentre i Transformer scalano quadraticamente con la lunghezza della sequenza, gli SSM raggiungono una scalabilità lineare sia nell'addestramento che nell'inferenza.
Questi guadagni di efficienza potrebbero essere cruciali quando i sistemi di intelligenza artificiale vengono implementati in ambienti di produzione. Il costo dell'inferenza è stato spesso sottovalutato. L'addestramento è un investimento una tantum, ma l'inferenza è in esecuzione continua. ChatGPT non è mai offline. Con miliardi di query giornaliere, anche piccoli miglioramenti dell'efficienza si traducono in enormi risparmi sui costi. Un modello che richiede metà della potenza di calcolo per la stessa qualità offre un enorme vantaggio competitivo.
La sfida risiede nella maturazione di queste tecnologie. I trasformatori hanno un vantaggio iniziale di quasi otto anni e un vasto ecosistema di strumenti, librerie e competenze. Le architetture alternative non devono essere solo tecnicamente superiori, ma anche praticamente utilizzabili. La storia della tecnologia è piena di soluzioni tecnicamente superiori che hanno fallito sul mercato a causa di carenze nell'ecosistema.
È interessante notare che anche la concorrenza cinese si affida ad approcci alternativi. DeepSeek V3, un modello open source con 671 miliardi di parametri, utilizza un'architettura "mixed of expert" in cui vengono attivati solo 37 miliardi di parametri per token. Il modello raggiunge prestazioni paragonabili ai concorrenti occidentali nei benchmark, ma è stato addestrato a una frazione del costo. Il tempo di addestramento è stato di sole 2,788 milioni di ore GPU H800, significativamente inferiore rispetto a modelli comparabili.
Questo sviluppo dimostra che la leadership tecnologica non risiede necessariamente nelle mani degli attori finanziariamente più potenti. Decisioni e ottimizzazioni architetturali intelligenti possono compensare i vantaggi in termini di risorse. Per il panorama globale dell'IA, ciò significa una crescente multipolarità. Cina, Europa e altre regioni stanno sviluppando approcci propri che non sono semplici copie dei modelli occidentali.
La rivalutazione e l'inevitabile sbornia
La convergenza di tutti questi fattori suggerisce un'imminente rivalutazione del settore dell'intelligenza artificiale. Le valutazioni attuali si basano sul presupposto di una crescita esponenziale continua, sia nelle prestazioni dei modelli che nell'adozione commerciale. Entrambe le ipotesi stanno diventando sempre più discutibili. Le prestazioni dei modelli sono stagnanti, mentre i costi continuano a salire alle stelle. Sebbene l'adozione commerciale sia in crescita, la monetizzazione rimane difficile.
OpenAI, con la sua valutazione di mezzo trilione di dollari, dovrebbe raggiungere almeno 100 miliardi di dollari di fatturato annuo e diventare redditizia nei prossimi anni per giustificare la sua valutazione. Ciò significherebbe un aumento di valore di dieci volte in pochi anni. A titolo di paragone, Google ha impiegato oltre un decennio per passare da 10 miliardi di dollari a 100 miliardi di dollari di fatturato. Le aspettative per le aziende di intelligenza artificiale sono irrealisticamente elevate.
Gli analisti mettono in guardia da un potenziale scoppio della bolla dell'intelligenza artificiale. I parallelismi con la bolla delle dot-com sono evidenti. Allora come oggi, esiste una tecnologia rivoluzionaria con un potenziale enorme. Allora come oggi, esistono valutazioni irrazionalmente gonfiate e strutture di finanziamento circolari. Allora come oggi, gli investitori giustificano valutazioni assurde sostenendo che la tecnologia cambierà tutto e che i tradizionali parametri di valutazione non sono più applicabili.
La differenza cruciale: a differenza di molte aziende dot-com, le aziende di intelligenza artificiale di oggi hanno effettivamente prodotti funzionanti con un valore reale. ChatGPT non è un vaporware, ma una tecnologia utilizzata quotidianamente da milioni di persone. La domanda non è se l'intelligenza artificiale abbia valore, ma se sia abbastanza preziosa da giustificare le valutazioni attuali. La risposta è molto probabilmente no.
Quando arriverà la rivalutazione, sarà dolorosa. I fondi di venture capital hanno investito il 70% del loro capitale nell'intelligenza artificiale. I fondi pensione e gli investitori istituzionali sono fortemente esposti. Un calo significativo delle valutazioni dell'intelligenza artificiale avrebbe conseguenze finanziarie di vasta portata. Le aziende che fanno affidamento su finanziamenti a basso costo faticherebbero improvvisamente a reperire capitali. I progetti verrebbero bloccati e il personale verrebbe licenziato.
La prospettiva a lungo termine e la strada da seguire
Nonostante queste fosche prospettive a breve termine, il potenziale a lungo termine dell'intelligenza artificiale rimane immenso. L'attuale entusiasmo non cambia l'importanza fondamentale della tecnologia. La domanda non è se, ma come e quando l'IA manterrà le sue promesse. Il passaggio di LeCun dallo sviluppo di prodotti a breve termine alla ricerca fondamentale a lungo termine indica la strada da seguire.
La prossima generazione di sistemi di intelligenza artificiale sarà probabilmente diversa dagli attuali LLM. Combinerà elementi di modelli del mondo, architetture alternative e nuovi paradigmi di addestramento. Si affiderà meno al ridimensionamento basato sulla forza bruta e più a rappresentazioni efficienti e strutturate. Imparerà dal mondo fisico, non solo dal testo. E comprenderà la causalità, non solo le correlazioni.
Questa visione, tuttavia, richiede tempo, pazienza e la libertà di condurre ricerca fondamentale. Queste stesse condizioni sono difficili da trovare nell'attuale contesto di mercato. La pressione per ottenere un rapido successo commerciale è immensa. Rapporti trimestrali e cicli di valutazione dominano l'agenda. I programmi di ricerca a lungo termine, che possono richiedere anni per produrre risultati, sono difficili da giustificare.
La decisione di LeCun di fondare una startup a 65 anni è una dichiarazione straordinaria. Avrebbe potuto ritirarsi con tutti gli onori e un posto garantito nella storia. Invece, ha scelto la strada tortuosa di perseguire una visione respinta dal mainstream del settore. Meta rimarrà un partner, il che significa che la sua azienda avrà risorse, almeno inizialmente. Ma il suo vero successo dipenderà dalla sua capacità di dimostrare nei prossimi anni che l'Intelligenza Artificiale Avanzata è effettivamente superiore.
La trasformazione richiederà anni. Anche se LeCun avesse ragione e i modelli mondiali fossero fondamentalmente superiori, dovranno comunque essere sviluppati, ottimizzati e industrializzati. L'ecosistema deve essere costruito. Gli sviluppatori devono imparare a utilizzare i nuovi strumenti. Le aziende devono migrare dai LLM ai nuovi sistemi. Queste fasi di transizione sono sempre state storicamente dolorose.
Dall'hype alla realtà: il percorso a lungo termine dell'intelligenza artificiale
L'uscita di Yann LeCun da Meta segna più di un semplice cambio di personale. Simboleggia la tensione fondamentale tra visione scientifica e pragmatismo commerciale, tra innovazione a lungo termine ed esigenze di mercato a breve termine. L'attuale rivoluzione dell'intelligenza artificiale è a un punto di svolta. I facili successi della scalabilità sono stati esauriti. I prossimi passi saranno più difficili, costosi e incerti.
Per gli investitori, ciò significa che le valutazioni esorbitanti degli attuali campioni dell'IA devono essere esaminate criticamente. Per le aziende, significa che la speranza di rapidi miracoli di produttività attraverso l'IA potrebbe essere delusa. Per la società, significa che la trasformazione sarà più lenta e disomogenea di quanto suggerisca l'ondata di entusiasmo.
Allo stesso tempo, le fondamenta rimangono solide. L'intelligenza artificiale non è una moda passeggera, ma una tecnologia fondamentale che trasformerà praticamente tutti i settori dell'economia a lungo termine. I parallelismi con la rivoluzione industriale sono calzanti. Come allora, ci saranno vincitori e vinti, eccessi e correzioni, sconvolgimenti e aggiustamenti. La domanda non è se l'architettura del trasformatore abbia raggiunto il limite delle sue capacità, ma come sarà la fase successiva e chi la plasmerà.
La scommessa di LeCun sull'intelligenza artificiale avanzata e sui modelli globali è audace, ma potrebbe rivelarsi lungimirante. Tra cinque anni sapremo se staccarsi dal mainstream è stata la decisione giusta o se il settore ha mantenuto la rotta. I prossimi anni saranno cruciali per lo sviluppo a lungo termine dell'intelligenza artificiale e, di conseguenza, per il futuro economico e sociale.
La nostra competenza negli Stati Uniti nello sviluppo aziendale, nelle vendite e nel marketing

La nostra competenza negli Stati Uniti nello sviluppo aziendale, nelle vendite e nel marketing - Immagine: Xpert.Digital
Focus del settore: B2B, digitalizzazione (dall'intelligenza artificiale alla realtà aumentata), ingegneria meccanica, logistica, energie rinnovabili e industria
Maggiori informazioni qui:
Un hub di argomenti con approfondimenti e competenze:
- Piattaforma di conoscenza sull'economia globale e regionale, sull'innovazione e sulle tendenze specifiche del settore
- Raccolta di analisi, impulsi e informazioni di base dalle nostre aree di interesse
- Un luogo di competenza e informazione sugli sviluppi attuali nel mondo degli affari e della tecnologia
- Hub tematico per le aziende che vogliono informarsi sui mercati, sulla digitalizzazione e sulle innovazioni del settore
Il tuo partner globale per il marketing e lo sviluppo aziendale
☑️ La nostra lingua commerciale è l'inglese o il tedesco
☑️ NOVITÀ: corrispondenza nella tua lingua nazionale!
Sarei felice di servire te e il mio team come consulente personale.
Potete contattarmi compilando il modulo di contatto o semplicemente chiamandomi al numero +49 89 89 674 804 (Monaco) . Il mio indirizzo email è: wolfenstein ∂ xpert.digital
Non vedo l'ora di iniziare il nostro progetto comune.
☑️ Supporto alle PMI nella strategia, consulenza, pianificazione e implementazione
☑️ Creazione o riallineamento della strategia digitale e digitalizzazione
☑️ Espansione e ottimizzazione dei processi di vendita internazionali
☑️ Piattaforme di trading B2B globali e digitali
☑️ Pioneer Business Development/Marketing/PR/Fiere
🎯🎯🎯 Approfitta della vasta e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | BD, R&D, XR, PR e ottimizzazione della visibilità digitale

Approfitta dell'ampia e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | Ottimizzazione di R&S, XR, PR e visibilità digitale - Immagine: Xpert.Digital
Xpert.Digital ha una conoscenza approfondita di vari settori. Questo ci consente di sviluppare strategie su misura che si adattano esattamente alle esigenze e alle sfide del vostro specifico segmento di mercato. Analizzando continuamente le tendenze del mercato e seguendo gli sviluppi del settore, possiamo agire con lungimiranza e offrire soluzioni innovative. Attraverso la combinazione di esperienza e conoscenza, generiamo valore aggiunto e diamo ai nostri clienti un vantaggio competitivo decisivo.
Maggiori informazioni qui:






















