Icona del sito Web Esperto.Digitale

La chiamata di emergenza strategica di Nvidia – La telefonata da mille miliardi di dollari: la scommessa di Nvidia sul futuro di OpenAI

La chiamata di emergenza strategica di Nvidia La telefonata da mille miliardi di dollari: la scommessa di Nvidia sul futuro di OpenAI

La chiamata di emergenza strategica di Nvidia La telefonata da un trilione di dollari: la scommessa di Nvidia sul futuro di OpenAI – Immagine creativa: Xpert.Digital

I giochi di potere nella Silicon Valley: quando una telefonata gettò le basi per una scommessa da mille miliardi di dollari

Quando il panico diventa una strategia e il fallimento la più grande minaccia per l'industria tecnologica

Nella storia moderna del business ci sono pochi momenti in cui una singola telefonata ha preparato il terreno per investimenti del valore di centinaia di miliardi. La fine dell'estate del 2025 ha offerto un momento del genere, quando Jensen Huang, CEO di lunga data del gigante dei chip Nvidia, ha preso il telefono e ha chiamato Sam Altman, a capo dell'azienda di intelligenza artificiale OpenAI. Quello che ne è seguito non è stato solo un accordo commerciale, ma piuttosto una lezione sulla natura fragile delle partnership strategiche in un settore sempre più caratterizzato dall'interdipendenza, in cui i confini tra cliente, fornitore e investitore stanno diventando sempre più sfumati.

La conversazione tra Huang e Altman ebbe luogo in un momento critico. Sebbene Nvidia e OpenAI collaborassero già da anni, le trattative per un nuovo progetto infrastrutturale erano in stallo. OpenAI stava attivamente cercando alternative per ridurre la sua forte dipendenza da Nvidia. L'ironia della situazione: l'azienda trovò ciò che cercava in Google, un concorrente diretto nel campo dell'intelligenza artificiale. OpenAI avrebbe firmato un contratto cloud con Google in primavera e iniziato a utilizzare le sue unità di elaborazione tensore proprietarie. Allo stesso tempo, l'azienda di intelligenza artificiale stava collaborando con il produttore di semiconduttori Broadcom per sviluppare i propri chip personalizzati.

Quando le notizie sull'utilizzo dei chip TPU da parte di Google sono giunte al pubblico, Nvidia ha interpretato questo come un segnale d'allarme inequivocabile. Il messaggio era chiaro: o si sarebbe raggiunto un accordo rapido, o OpenAI si sarebbe rivolta sempre più alla concorrenza. Il panico in Nvidia deve essere stato significativo, perché ha spinto il CEO a prendere provvedimenti personali. La telefonata di Huang ad Altman è inizialmente servita a chiarire le voci, ma nel corso della conversazione, il CEO di Nvidia ha manifestato la sua disponibilità a riprendere le trattative interrotte. Una fonte vicina alla situazione ha descritto questa chiamata come la nascita dell'idea di un investimento diretto in OpenAI.

Adatto a:

Cento miliardi di dollari e una rete di obblighi

Il risultato di questo intervento è stato un accordo di proporzioni sbalorditive. A settembre, Nvidia e OpenAI hanno annunciato una partnership strategica in cui l'azienda produttrice di chip è pronta a investire fino a cento miliardi di dollari. L'accordo prevede la costruzione di data center di intelligenza artificiale con una capacità pianificata di almeno dieci gigawatt, che si traduce in milioni di processori grafici per l'infrastruttura di prossima generazione di OpenAI. A titolo di confronto, un tipico reattore nucleare genera circa un gigawatt di potenza. La prima fase del progetto dovrebbe entrare in funzione nella seconda metà del 2026, utilizzando la futura piattaforma Vera Rubin di Nvidia.

La struttura dell'accordo è davvero notevole. Nvidia non solo si impegna a fornire fino a cinque milioni di chip, ma sta anche valutando la possibilità di fornire garanzie per i prestiti che OpenAI intende contrarre per costruire i propri data center. Questa interdipendenza finanziaria va ben oltre il tradizionale rapporto cliente-fornitore. Nvidia diventa di fatto il finanziatore dei propri clienti, una costellazione che ricorda le pratiche dell'era delle dot-com, quando i fornitori di apparecchiature supportavano i propri clienti attraverso prestiti e investimenti azionari.

Ma l'accordo con Nvidia è solo un elemento di una rete molto più ampia di accordi che OpenAI ha forgiato negli ultimi mesi. L'azienda si è posizionata in una posizione che può essere giustamente definita "troppo grande per fallire". L'elenco degli accordi è un vero e proprio gotha ​​dell'industria tecnologica e dei semiconduttori. Oracle si è aggiudicata un contratto del valore di trecento miliardi di dollari in cinque anni per la costruzione di capacità per data center nell'ambito del cosiddetto progetto Stargate. Broadcom ha annunciato una partnership per lo sviluppo di chip personalizzati con una capacità di calcolo di dieci gigawatt. AMD ha firmato un accordo per sei gigawatt di capacità di calcolo, che offre anche a OpenAI l'opzione di acquisire fino al dieci percento dell'azienda.

Vendite contro passività: un calcolo che non torna

L'entità di questi impegni solleva interrogativi fondamentali sulla loro sostenibilità economica. Si prevede che OpenAI genererà circa tredici miliardi di dollari di fatturato quest'anno. Allo stesso tempo, l'azienda si è impegnata a sostenere costi di elaborazione pari a seicentocinquanta miliardi di dollari solo attraverso gli accordi con Nvidia e Oracle. Includendo gli accordi con AMD, Broadcom e altri fornitori di servizi cloud come Microsoft, gli impegni totali si avvicinano al trilione.

Queste cifre sono palesemente sproporzionate rispetto agli attuali risultati aziendali. Nella prima metà del 2025, OpenAI ha generato un fatturato di circa 4,3 miliardi di dollari, con un aumento del 16% rispetto all'anno precedente. Allo stesso tempo, l'azienda ha bruciato 2,5 miliardi di dollari di liquidità, principalmente in ricerca e sviluppo e nella gestione di ChatGPT. Le spese di ricerca e sviluppo sono ammontate a 6,7 ​​miliardi di dollari nella prima metà dell'anno. OpenAI disponeva di circa 17,5 miliardi di dollari in liquidità e titoli negoziabili alla fine della prima metà dell'anno.

La discrepanza tra fatturato e impegni è sconcertante. I calcoli suggeriscono che costruire un solo gigawatt di capacità di data center costi circa cinquanta miliardi di dollari, inclusi hardware, infrastrutture di alimentazione e costi di costruzione. OpenAI si è impegnata a realizzare un totale di trentatré gigawatt, il che richiederebbe teoricamente investimenti per oltre 1,6 trilioni di dollari. L'azienda dovrebbe quindi aumentare di cento volte il proprio fatturato per riuscire anche solo ad avvicinarsi al finanziamento di questa infrastruttura.

Come verrà colmato questo divario? OpenAI sta perseguendo un'aggressiva strategia di diversificazione. Il piano quinquennale dell'azienda include contratti governativi, strumenti di e-commerce, servizi video, hardware consumer e persino un ruolo di fornitore di servizi di elaborazione dati attraverso il progetto del data center Stargate. La valutazione dell'azienda è aumentata rapidamente: da 157 miliardi di dollari nell'ottobre 2024 a 300 miliardi di dollari nel marzo 2025, fino agli attuali 500 miliardi di dollari a seguito di una vendita secondaria di azioni in cui i dipendenti hanno venduto azioni per un valore di 6,6 miliardi di dollari.

La giostra del denaro: come si finanzia l'industria dell'intelligenza artificiale

La struttura di questi accordi ha sollevato preoccupazioni nel mondo finanziario, poiché richiama un fenomeno diffuso durante la bolla delle dot-com della fine degli anni '90: la finanza circolare. Lo schema è inquietantemente familiare. Un'azienda della supply chain investe in un'azienda a valle, che poi utilizza il capitale ricevuto per acquistare prodotti dall'investitore. Nvidia acquista azioni di OpenAI e OpenAI acquista GPU da Nvidia. Oracle investe in Stargate e OpenAI noleggia potenza di calcolo da Oracle. AMD concede a OpenAI warrant fino al 10% della società e OpenAI si impegna ad acquistare chip AMD per un valore di decine di miliardi di dollari.

Questi cicli creano l'apparenza di aziende fiorenti, mentre in realtà, tra gli stessi attori circolano sostanzialmente gli stessi flussi di denaro. Il problema non è nuovo. Alla fine degli anni '90, i fornitori di apparecchiature per infrastrutture Internet praticavano un finanziamento simile. Aziende come Lucent, Nortel e Cisco erogavano generosi prestiti a fornitori di telecomunicazioni e provider di servizi Internet, che poi utilizzavano il denaro per acquistare apparecchiature dagli stessi fornitori. Ciò creò vendite artificialmente gonfiate e dissimulò la domanda effettiva. Quando la bolla scoppiò, non solo gli acquirenti fortemente indebitati crollarono, ma anche i fornitori, le cui vendite si rivelarono un miraggio.

I parallelismi con la situazione odierna sono inequivocabili, sebbene esistano differenze significative. A differenza di molte aziende dot-com che non hanno mai realizzato profitti, i principali attori dell'attuale boom dell'intelligenza artificiale sono aziende redditizie con modelli di business consolidati. Nvidia, ad esempio, registra margini di profitto di circa il 53% e domina il mercato dei chip per l'intelligenza artificiale con una quota di mercato di circa l'80%. Microsoft, Google e Amazon sono tra le aziende più redditizie al mondo. Tuttavia, sussistono legittime preoccupazioni.

Un sondaggio condotto tra i gestori di fondi globali nell'ottobre 2025 ha rilevato che il 54% riteneva che i titoli azionari legati all'intelligenza artificiale fossero in territorio di bolla. Il 60% riteneva che i titoli azionari fossero complessivamente sopravvalutati. Questo scetticismo non è infondato. Gli impegni a costruire enormi quantità di chip e data center prima che OpenAI possa permetterseli stanno alimentando il timore che l'entusiasmo per l'intelligenza artificiale si stia trasformando in una bolla simile alla famigerata bolla delle dot-com.

La maledizione del successo: perché i clienti di Nvidia stanno diventando concorrenti

Al centro di questa rete c'è Nvidia, un'azienda che negli ultimi due anni si è trasformata da importante produttore di chip specializzato nella società quotata in borsa più quotata al mondo. Con una capitalizzazione di mercato di oltre 4 trilioni di dollari, Nvidia ora supera persino i pesi massimi del settore tecnologico. Questa ascesa è strettamente legata al boom dell'intelligenza artificiale iniziato con il lancio di ChatGPT alla fine del 2022. Da allora, il fatturato di Nvidia è quasi triplicato, mentre i profitti sono esplosi.

Jensen Huang, alla guida dell'azienda sin dalla sua fondazione nel 1993, ha guidato Nvidia attraverso una straordinaria trasformazione. Inizialmente focalizzata sulle schede grafiche per videogiochi, Huang ha riconosciuto fin da subito il potenziale dei suoi processori per il calcolo scientifico e l'intelligenza artificiale. Lo sviluppo di CUDA, una piattaforma di calcolo parallelo, ha reso possibile l'utilizzo delle GPU Nvidia per modelli di deep learning e intelligenza artificiale che richiedono un'elaborazione parallela massiva. Questa lungimiranza strategica ha posizionato Nvidia come partner indispensabile per praticamente tutti i principali progetti di intelligenza artificiale a livello mondiale.

Lo stile di leadership di Huang è anticonvenzionale. Rifugge i piani a lungo termine e si concentra invece sul presente. La sua definizione di pianificazione a lungo termine è: cosa stiamo facendo oggi? Questa filosofia ha conferito a Nvidia una notevole agilità. L'azienda persegue una strategia di innovazione aggressiva con l'obiettivo di lanciare ogni anno una nuova generazione di chip AI avanzati. Hopper e Blackwell sono seguiti da Vera Rubin e Rubin Ultra, ciascuna generazione che offre prestazioni ed efficienza significativamente migliorate.

Ma questa stessa strategia comporta dei rischi. Per i clienti che investono decine di miliardi di dollari in hardware Nvidia, la rapida obsolescenza dei loro investimenti rappresenta un problema serio. Se una nuova generazione di chip supera significativamente la precedente entro dodici-diciotto mesi, l'investimento perde rapidamente valore. Nessuna azienda può permettersi di spendere dieci o venti miliardi di dollari ogni due anni per l'hardware più recente. Questa dinamica spiega perché grandi clienti come Meta, Google, Microsoft e Amazon stiano contemporaneamente portando avanti i propri programmi di sviluppo di chip. La collaborazione di OpenAI con Broadcom per lo sviluppo dei propri chip segue la stessa logica.

Nvidia si trova di fronte a un paradosso: le aziende che oggi sono i suoi principali clienti potrebbero diventare i suoi concorrenti più agguerriti domani. Circa il 40% del fatturato di Nvidia proviene da sole quattro aziende: Microsoft, Meta, Amazon e Alphabet. Tutte possiedono le risorse e le competenze tecniche per sviluppare i propri chip di intelligenza artificiale. Sebbene la leadership tecnologica di Nvidia e l'ampio ecosistema software CUDA creino barriere significative all'ingresso, la storia del settore tecnologico dimostra che il predominio raramente è permanente.

 

La nostra competenza negli Stati Uniti nello sviluppo aziendale, nelle vendite e nel marketing

La nostra competenza negli Stati Uniti nello sviluppo aziendale, nelle vendite e nel marketing - Immagine: Xpert.Digital

Focus del settore: B2B, digitalizzazione (dall'intelligenza artificiale alla realtà aumentata), ingegneria meccanica, logistica, energie rinnovabili e industria

Maggiori informazioni qui:

Un hub di argomenti con approfondimenti e competenze:

  • Piattaforma di conoscenza sull'economia globale e regionale, sull'innovazione e sulle tendenze specifiche del settore
  • Raccolta di analisi, impulsi e informazioni di base dalle nostre aree di interesse
  • Un luogo di competenza e informazione sugli sviluppi attuali nel mondo degli affari e della tecnologia
  • Hub tematico per le aziende che vogliono informarsi sui mercati, sulla digitalizzazione e sulle innovazioni del settore

 

Molti utenti, pochissimi paganti: il problema economico di ChatGPT

Tra clamore e realtà: la logica economica del boom dell'intelligenza artificiale

Nonostante tutte le legittime preoccupazioni, ci sono argomenti a sostegno della fattibilità economica di ingenti investimenti nell'intelligenza artificiale. La domanda di applicazioni di intelligenza artificiale è reale e in crescita esponenziale. ChatGPT è stata l'applicazione più veloce della storia a raggiungere 100 milioni di utenti in due mesi. OpenAI conta ora circa 800 milioni di utenti settimanali, di cui solo il 5% circa è costituito da abbonati paganti. Questo tasso di conversione del 99% di utenti gratuiti all'1% di utenti paganti rappresenta al contempo un'enorme opportunità e una base precaria.

L'integrazione dell'intelligenza artificiale nei processi aziendali sta progredendo. Gli studi dimostrano che oltre il 70% delle aziende in tutto il mondo utilizza ormai una qualche forma di intelligenza artificiale. A differenza dell'era delle dot-com, quando molti modelli di business erano puramente speculativi e la penetrazione di Internet era ancora bassa, oggi esiste una domanda reale e crescente di intelligenza artificiale. Le grandi aziende stanno implementando modelli avanzati per compiti specifici, creando un circolo virtuoso di guadagni in termini di fatturato e produttività.

Gli analisti sostengono che il calo del costo per unità di intelligenza giustifichi l'investimento. Man mano che la potenza di calcolo diventa più economica, è possibile sviluppare più applicazioni a costi contenuti, il che a sua volta aumenta la domanda. Nvidia sottolinea che i suoi sistemi dovrebbero essere valutati non solo in base al prezzo del chip, ma anche in base ai costi operativi totali. L'efficienza energetica delle ultime generazioni è aumentata in modo significativo. La piattaforma GB300-NVL72 offre un'efficienza energetica per token di cinquanta volte superiore rispetto alla precedente generazione di Hopper. Un investimento di 3 milioni di dollari nell'infrastruttura GB200 potrebbe teoricamente generare 30 milioni di dollari in vendite di token, pari a un ritorno decuplicato.

Tuttavia, permangono dubbi di fondo. L'ipotesi di una scalabilità lineare della potenza di calcolo per le capacità di intelligenza artificiale è sempre più messa in discussione. La ricerca suggerisce che potrebbero verificarsi rendimenti decrescenti. Lo Stanford AI Index 2024 mostra che l'utilizzo del computing è cresciuto esponenzialmente, mentre i miglioramenti delle prestazioni nei benchmark chiave si stanno stabilizzando. Un maggior numero di server non porta automaticamente a un'intelligenza artificiale migliore, ma la strategia di OpenAI considera la potenza di calcolo come un percorso garantito verso il dominio.

Un castello di carte fatto di fiches? Il rischio domino nell'ecosistema dell'intelligenza artificiale

La stretta interdipendenza tra produttori di chip, fornitori di servizi cloud e sviluppatori di intelligenza artificiale crea rischi sistemici. Se OpenAI fallisse o non raggiungesse i suoi obiettivi di crescita, le ripercussioni si estenderebbero all'intera catena di fornitura. Nvidia si troverebbe a investire in un'azienda sopravvalutata. Oracle avrebbe creato capacità di data center che nessuno sta utilizzando. AMD avrebbe creato capacità produttiva per chip non più richiesti. I destini di queste aziende sono intrecciati in un modo che ricorda le interdipendenze che hanno contribuito alla crisi finanziaria del 2008.

Critici come il noto venditore allo scoperto Jim Chanos tracciano parallelismi espliciti con la bolla delle dot-com. Chanos sottolinea che i requisiti di capitale per le infrastrutture di intelligenza artificiale superano di gran lunga i circa 100 miliardi di dollari di finanziamenti ai fornitori durante il boom di Internet. Esprime preoccupazione per il fatto che aziende tecnologiche leader come Nvidia e Microsoft faranno di tutto per mantenere le apparecchiature vere e proprie fuori dai loro bilanci attraverso strutture di finanziamento creative. La preoccupazione è che queste aziende temano i piani di ammortamento e le implicazioni contabili, nonché gli enormi requisiti di capitale che non vogliono riportare direttamente nei loro bilanci.

Ma ci sono anche voci che mettono in guardia contro diagnosi affrettate di bolla. Alcuni analisti sostengono che gli accordi attuali non raggiungono la portata necessaria per essere schiaccianti. Ad esempio, l'accordo OpenAI-Nvidia rappresenterebbe circa il tredici percento del fatturato previsto da Nvidia per il 2026. Se un'implementazione da un gigawatt dovesse avvenire nella seconda metà del 2026, ciò comporterebbe un investimento di capitale totale di circa cinquanta-sessanta miliardi di dollari, di cui Nvidia riceverebbe circa trentacinque miliardi di dollari. Di questi, dieci miliardi di dollari verrebbero reinvestiti in OpenAI, con ulteriori investimenti che dipenderebbero dall'effettivo progresso nella monetizzazione dell'IA. Questo approccio basato sulle prestazioni differisce dagli impegni fissi, spesso speculativi, della bolla delle telecomunicazioni.

Il vero collo di bottiglia: perché il boom dell'intelligenza artificiale potrebbe esaurirsi

Un collo di bottiglia spesso trascurato ma potenzialmente cruciale è l'approvvigionamento energetico. Il funzionamento dei data center basati sull'intelligenza artificiale richiede enormi quantità di elettricità. Dieci gigawatt equivalgono ad alimentare oltre otto milioni di famiglie americane, ovvero cinque volte la capacità della diga di Hoover. I 33 gigawatt, su cui si è impegnata OpenAI, equivarrebbero all'incirca all'intero fabbisogno elettrico dello Stato di New York.

Le reti elettriche degli Stati Uniti sono già sottoposte a forti pressioni. Nel 2024, i data center rappresentavano circa il 4% del consumo totale di elettricità americano, pari a circa 183 terawattora. Entro il 2030, si prevede che questa cifra raddoppierà, raggiungendo i 426 terawattora. In alcuni stati, come la Virginia, i data center consumavano già il 26% dell'elettricità totale nel 2023. Nel Dakota del Nord, la percentuale era del 15%, in Nebraska del 12%, in Iowa dell'11% e in Oregon dell'11%.

Costruire nuovi data center con un'adeguata fornitura energetica richiede anni. Le stime suggeriscono che lo sviluppo di un data center negli Stati Uniti richiede in genere circa sette anni, dallo sviluppo iniziale alla piena operatività, inclusi 4,8 anni per la fase di pre-sviluppo e 2,4 anni per la costruzione. Questo crea un collo di bottiglia fondamentale per gli ambiziosi piani di espansione di OpenAI. L'azienda può firmare tutti i contratti che desidera, ma se l'infrastruttura fisica non è pronta in tempo, gli impegni rimangono promesse vuote.

La questione energetica solleva anche preoccupazioni sulla sostenibilità. Una singola query su ChatGPT consuma circa dieci volte più energia di una tipica ricerca su Google. Con milioni di query al giorno solo su OpenAI, per non parlare di concorrenti come Anthropic, Google e Microsoft, questo mette a dura prova le reti elettriche e l'ambiente. Il raffreddamento di questi data center richiede anche enormi quantità di acqua. I data center iperscalabili hanno consumato direttamente circa quattordici miliardi di galloni d'acqua nel 2023, e si prevede che questo numero raddoppierà o triplicherà entro il 2028.

Il campo di gioco globale: l’intelligenza artificiale tra interessi nazionali e controlli sulle esportazioni

L'infrastruttura di intelligenza artificiale è diventata una questione di sicurezza nazionale. Sia l'amministrazione Trump che quella Biden hanno posto l'accento sulla politica industriale, inquadrando l'intelligenza artificiale non solo come un'opportunità economica, ma anche come un imperativo per la sicurezza. Il messaggio implicito alle aziende è che la velocità è più importante della cautela. Il progetto Stargate è stato annunciato alla Casa Bianca, con il presidente Trump che ha descritto la tecnologia come un motore di leadership economica e indipendenza tecnologica.

La Cina sta perseguendo un modello guidato dallo Stato che incanala capitali nell'intelligenza artificiale per creare campioni nazionali e ridurre la dipendenza dalla tecnologia americana. Inizialmente l'Europa si è concentrata sulla gestione del rischio, ma i timori di una perdita di competitività hanno spinto Bruxelles a lanciare l'AI Continent Action Plan e un'iniziativa da 1 miliardo di euro per accelerare l'adozione.

Per Nvidia, questa dimensione geopolitica rappresenta sia un'opportunità che un rischio. L'azienda ha tentato di perseguire una strategia che le avrebbe consentito di continuare a esportare chip in Cina, sostenendo che l'esclusione dal mercato cinese non avrebbe fatto altro che rafforzare i concorrenti cinesi. Tuttavia, i controlli sulle esportazioni hanno ridotto la quota di mercato di Nvidia in Cina dal 95% a praticamente zero. Huang ha dichiarato pubblicamente di non riuscire a immaginare che un politico possa considerare questa una buona idea. Il mercato cinese rappresenta un'opportunità del valore di circa 50 miliardi di dollari che Nvidia sta perdendo a causa delle restrizioni normative.

Bolla o rivoluzione? Una conclusione con finale aperto

La questione se ci troviamo nel mezzo di una bolla dell'intelligenza artificiale non può essere risolta definitivamente finché siamo ancora nell'occhio del ciclone. Le bolle spesso diventano evidenti solo a posteriori. Il famoso monito di Alan Greenspan contro l'esuberanza irrazionale arrivò nel dicembre 1996, ma il Nasdaq non raggiunse il picco prima di oltre tre anni. Nel mezzo dell'inflazione di una bolla, l'inflazione può persistere più a lungo di quanto sembri logico.

Alcuni fatti, tuttavia, sono innegabili. Le valutazioni delle aziende di intelligenza artificiale si basano su ipotesi di crescita futura che sarebbero storicamente senza precedenti. Nessuna azienda è mai passata da dieci a cento miliardi di dollari di fatturato con la stessa rapidità con cui OpenAI prevede. L'impegno a costruire infrastrutture per migliaia di miliardi di dollari, con un fatturato attuale di tredici miliardi di dollari, richiede un'esplosione di fatturato per la quale non esistono precedenti storici.

Allo stesso tempo, l'intelligenza artificiale non è una mera speculazione. La tecnologia sta già trasformando settori e modi di lavorare. Le aziende stanno ottenendo guadagni di produttività misurabili grazie all'integrazione dell'intelligenza artificiale. La domanda non è se l'intelligenza artificiale sarà trasformativa, ma quanto velocemente avverrà questa trasformazione e se le valutazioni e gli investimenti attuali sono in linea con questo ritmo.

Cosa succederebbe se OpenAI non rispettasse le sue proiezioni? Nello scenario migliore, l'azienda dovrebbe ridimensionare i suoi piani infrastrutturali. Nello scenario peggiore, gli effetti di secondo impatto potrebbero essere significativi, poiché investitori e altre aziende puntano sempre più sulla creazione di valore di OpenAI. Queste scommesse dipendono non solo dalla realizzazione di tale valore, ma anche dalla sua rapidità sufficiente a coprire il debito utilizzato per finanziare tali scommesse. L'incapacità di generare valore con la rapidità prevista dagli investitori è stata sufficiente a trasformare diversi boom tecnologici storici in fallimenti.

La lezione fondamentale della bolla delle dot-com è che le tecnologie trasformative spesso hanno successo per decenni, ma la prima ondata di aziende e i loro investitori raramente colgono appieno la promessa implicita nei prezzi delle loro azioni. Internet ha effettivamente cambiato il mondo, ma la maggior parte delle aziende Internet più quotate del 2000 non esiste più. I vincitori sono stati spesso aziende entrate sul mercato più tardi o sopravvissute ai giorni più bui della crisi.

Resta da vedere se questo si applicherà anche all'intelligenza artificiale. Ciò che è chiaro, tuttavia, è che quella telefonata tra Jensen Huang e Sam Altman alla fine dell'estate del 2025 potrebbe rivelarsi uno di quei punti di svolta in cui il panico si è trasformato in strategia, la dipendenza in obbligo reciproco e un settore ha tracciato la strada per una delle più grandi scommesse economiche della storia moderna. La risposta alla domanda se questa scommessa pagherà o diventerà il più grande investimento sbagliato dai tempi delle dot-com sarà rivelata nel prossimo decennio.

 

Il tuo partner globale per il marketing e lo sviluppo aziendale

☑️ La nostra lingua commerciale è l'inglese o il tedesco

☑️ NOVITÀ: corrispondenza nella tua lingua nazionale!

 

Konrad Wolfenstein

Sarei felice di servire te e il mio team come consulente personale.

Potete contattarmi compilando il modulo di contatto o semplicemente chiamandomi al numero +49 89 89 674 804 (Monaco) . Il mio indirizzo email è: wolfenstein xpert.digital

Non vedo l'ora di iniziare il nostro progetto comune.

 

 

☑️ Supporto alle PMI nella strategia, consulenza, pianificazione e implementazione

☑️ Creazione o riallineamento della strategia digitale e digitalizzazione

☑️ Espansione e ottimizzazione dei processi di vendita internazionali

☑️ Piattaforme di trading B2B globali e digitali

☑️ Pioneer Business Development/Marketing/PR/Fiere

 

🎯🎯🎯 Approfitta della vasta e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | BD, R&D, XR, PR e ottimizzazione della visibilità digitale

Approfitta dell'ampia e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | Ottimizzazione di R&S, XR, PR e visibilità digitale - Immagine: Xpert.Digital

Xpert.Digital ha una conoscenza approfondita di vari settori. Questo ci consente di sviluppare strategie su misura che si adattano esattamente alle esigenze e alle sfide del vostro specifico segmento di mercato. Analizzando continuamente le tendenze del mercato e seguendo gli sviluppi del settore, possiamo agire con lungimiranza e offrire soluzioni innovative. Attraverso la combinazione di esperienza e conoscenza, generiamo valore aggiunto e diamo ai nostri clienti un vantaggio competitivo decisivo.

Maggiori informazioni qui:

Esci dalla versione mobile