
NOVITÀ! DeepSeek OCR è il trionfo silenzioso della Cina: come un'intelligenza artificiale open source sta minando il dominio degli Stati Uniti sui chip – Immagine: Xpert.Digital
La fine dell'intelligenza artificiale costosa? Invece di leggere il testo, questa intelligenza artificiale analizza le immagini, risultando quindi 10 volte più efficiente.
Come un semplice trucco potrebbe ridurre i costi di elaborazione del 90% – Il tallone d'Achille di ChatGPT: perché una nuova tecnologia OCR sta riscrivendo le regole dell'economia dell'IA
Per molto tempo, il mondo dell'intelligenza artificiale è sembrato seguire una semplice legge: più grande è, meglio è. Alimentati da miliardi investiti in giganteschi data center, giganti della tecnologia come OpenAI, Google e Anthropic si sono impegnati in una corsa agli armamenti per sviluppare modelli linguistici sempre più grandi con finestre contestuali sempre più estese. Ma dietro queste impressionanti dimostrazioni si cela una debolezza economica fondamentale: la scalabilità quadratica. Ogni raddoppio della lunghezza del testo che un modello dovrebbe elaborare porta a un aumento esponenziale dei costi di elaborazione, rendendo innumerevoli applicazioni promettenti praticamente antieconomiche.
È proprio in questo contesto di difficoltà economica che entra in gioco una tecnologia che non solo rappresenta un miglioramento, ma offre un'alternativa fondamentale al paradigma consolidato: DeepSeek-OCR. Invece di scomporre il testo in una lunga catena di token, questo sistema adotta un approccio radicalmente diverso: trasforma il testo in un'immagine ed elabora visivamente le informazioni. Questo trucco apparentemente semplice si rivela un vero e proprio argine economico che scuote le fondamenta dell'infrastruttura di intelligenza artificiale.
Grazie a una combinazione intelligente di compressione visiva, che riduce i costosi passaggi computazionali di un fattore da 10 a 20, e a un'architettura Mixture-of-Experts (MoE) altamente efficiente, DeepSeek OCR aggira la tradizionale trappola dei costi. Il risultato non è solo un enorme aumento dell'efficienza, che rende l'elaborazione dei documenti fino al 90% più economica, ma anche un cambio di paradigma con conseguenze di vasta portata. Questo articolo analizza come questa innovazione non solo stia rivoluzionando il mercato dell'elaborazione dei documenti, ma stia anche sfidando i modelli di business dei fornitori di intelligenza artificiale affermati, ridefinendo l'importanza strategica della superiorità hardware e democratizzando la tecnologia su larga scala attraverso il suo approccio open source. Potremmo essere all'inizio di una nuova era in cui l'intelligenza architetturale, piuttosto che la pura potenza di calcolo, detta le regole dell'economia dell'intelligenza artificiale.
Adatto a:
- Dimenticate i giganti dell'intelligenza artificiale: perché il futuro è piccolo, decentralizzato e molto più economico | L'errore di calcolo da 57 miliardi di dollari – NVIDIA, tra tutte le aziende, avverte: l'industria dell'intelligenza artificiale ha puntato sul cavallo sbagliato
Perché DeepSeek OCR sfida radicalmente l'infrastruttura consolidata dell'intelligenza artificiale e scrive nuove regole dell'economia informatica: i limiti classici dell'elaborazione contestuale
Il problema centrale che i modelli linguistici di grandi dimensioni hanno dovuto affrontare sin dalla loro introduzione commerciale non risiede nella loro intelligenza, ma nella loro inefficienza matematica. Il meccanismo di attenzione, che costituisce la base di tutte le moderne architetture di trasformatori, presenta una debolezza fondamentale: la complessità di elaborazione cresce quadraticamente con il numero di token di input. Nello specifico, ciò significa che un modello linguistico con un contesto di 4096 token richiede risorse di calcolo sedici volte superiori rispetto a un modello con un contesto di 1024 token. Questa scalabilità quadratica non è solo un dettaglio tecnico, ma una soglia economica diretta che distingue tra applicazioni praticamente praticabili ed economicamente insostenibili.
Per lungo tempo, il settore ha risposto a questa limitazione con una classica strategia di scalabilità: finestre di contesto più ampie venivano ottenute espandendo la capacità hardware. Microsoft, ad esempio, ha sviluppato LongRoPE, che estende le finestre di contesto a oltre due milioni di token, mentre Gemini 1.5 di Google può elaborare un milione di token. Tuttavia, la pratica dimostra chiaramente la natura illusoria di questo approccio: mentre la capacità tecnica di elaborare testi più lunghi è cresciuta, l'adozione di queste tecnologie negli ambienti di produzione è rimasta stagnante perché la struttura dei costi per tali scenari rimane semplicemente non redditizia. La realtà operativa per i data center e i provider cloud è che si trovano ad affrontare un aumento esponenziale dei costi per ogni raddoppio della lunghezza del contesto.
Questo dilemma economico diventa geometricamente progressivo a causa della suddetta complessità quadratica: un modello che elabora un testo di 100.000 token richiede non dieci volte, ma cento volte più sforzo computazionale di un modello che elabora 10.000 token. In un ambiente industriale in cui la produttività, misurata in token al secondo per GPU, è una metrica chiave per la redditività, ciò significa che i documenti lunghi non possono essere elaborati in modo economico utilizzando l'attuale paradigma di tokenizzazione.
Il modello di business della maggior parte dei fornitori di LLM si basa sulla monetizzazione di questi token. OpenAI, Anthropic e altri fornitori affermati calcolano i loro prezzi in base ai token di input e output. Un documento aziendale medio di cento pagine può rapidamente tradursi in cinquemila o diecimila token. Se un'azienda elabora centinaia di tali documenti ogni giorno, la fattura si accumula rapidamente fino a raggiungere cifre annuali a sei o sette cifre. La maggior parte delle applicazioni aziendali nel contesto RAG (Retrieval Augmented Generation) è stata limitata da questi costi e pertanto non è stata implementata o è passata a un'alternativa più conveniente come l'OCR tradizionale o i sistemi basati su regole.
Adatto a:
- La piattaforma di intelligenza artificiale interna dell'azienda come infrastruttura strategica e necessità aziendale
Il meccanismo della compressione visiva
DeepSeek-OCR presenta un approccio fondamentalmente diverso a questo problema, che non opera entro i confini del paradigma dei token esistente, ma li aggira letteralmente. Il sistema funziona secondo un principio semplice ma radicalmente efficace: invece di scomporre il testo in token discreti, il testo viene prima reso come immagine e poi elaborato come supporto visivo. Non si tratta di una mera trasformazione tecnica, ma di una riprogettazione concettuale del processo di input stesso.
Lo schema di base è costituito da diversi livelli di elaborazione successivi. Una pagina di un documento ad alta risoluzione viene prima convertita in un'immagine, preservando tutte le informazioni visive, inclusi layout, grafica, tabelle e tipografia originale. In questa forma pittorica, una singola pagina, ad esempio in formato 1024×1024 pixel, può teoricamente equivalere a un testo di mille o ventimila token, poiché una pagina con tabelle, layout a più colonne e una struttura visiva complessa può contenere questa quantità di informazioni.
DeepEncoder, il primo componente di elaborazione del sistema, non utilizza un classico design di trasformatore visivo, ma piuttosto un'architettura ibrida. Un modulo di percezione locale, basato sul modello Segment Anything, analizza l'immagine con attenzione a finestre. Ciò significa che il sistema non opera sull'intera immagine, ma su piccole aree sovrapposte. Questa strategia è cruciale perché evita la classica trappola della complessità quadratica. Invece di concentrare l'attenzione su tutti gli altri pixel o caratteristiche visive, il sistema opera all'interno di finestre localizzate, come aree di un ottavo-ottavo o di un quattordicesimo-quattordicesimo pixel.
La fase tecnicamente rivoluzionaria arriva poi: un downsampler convoluzionale a due strati riduce il numero di token visivi di un fattore sedici. Ciò significa che i 4.960 token patch visivi originali del modulo locale vengono compressi in soli 256 token visivi. Si tratta di una compressione di proporzioni sorprendentemente efficaci, ma ciò che è veramente significativo è che questa compressione avviene prima dell'applicazione dei costosi meccanismi di attenzione globale. Il downsampler rappresenta un punto di inversione in cui l'elaborazione locale, a basso costo, viene trasformata in una rappresentazione estremamente condensata, a cui viene poi applicata l'attenzione globale, più costosa ma ora fattibile.
Dopo questa compressione, un modello di dimensioni CLIP, che a sua volta ha trecento milioni di parametri, opera su soli duecentocinquantasei token. Ciò significa che la matrice di attenzione globale deve eseguire solo quattromilaseicentotrentacinque operazioni di attenzione a coppie invece di sedicimilanovantaquattro. Si tratta di una riduzione di un fattore duecentocinquanta solo in questa fase di elaborazione.
Il risultato di questa suddivisione architettonica è una compressione end-to-end da 10:1 a 20:1, che raggiunge praticamente il 97% di accuratezza, a condizione che la compressione non sia più estrema di 10:1. Anche con una compressione più estrema di 20:1, l'accuratezza scende solo al 60% circa, un valore accettabile per molte applicazioni, soprattutto nel contesto dei dati di training.
Il livello di ottimizzazione Mixture-of-Experts
Un secondo aspetto critico di DeepSeek OCR risiede nella sua architettura di decodifica. Il sistema utilizza DeepSeek-3B-MoE, un modello con tre miliardi di parametri in totale, ma solo 570 milioni di parametri attivi per inferenza. Questa non è stata una scelta progettuale arbitraria, ma piuttosto una risposta alla finestra di contesto e ai problemi di costo.
I modelli basati su una miscela di esperti operano secondo il principio della selezione dinamica degli esperti. Invece di elaborare ogni token attraverso tutti i parametri del modello, ogni token viene indirizzato a un piccolo sottoinsieme di esperti. Ciò significa che solo una frazione dei parametri totali viene attivata a ogni fase di decodifica. In DeepSeek OCR, si tratta in genere di sei esperti su un totale di sessantaquattro, più due esperti condivisi attivi per tutti i token. Questa attivazione sparsa consente un fenomeno noto in economia come scaling sublineare: i costi computazionali non crescono proporzionalmente alla dimensione del modello, ma molto più lentamente.
Le implicazioni economiche di questa architettura sono profonde. Un modello di trasformatore denso con tre miliardi di parametri attiverebbe tutti e tre i miliardi di parametri per ogni token. Ciò si traduce in un impegno di banda di memoria e un carico computazionale enormi. Tuttavia, un modello MoE con gli stessi tre miliardi di parametri ne attiva solo 570 milioni per token, ovvero circa un quinto dei costi operativi in termini di tempo di calcolo. Ciò non significa che la qualità ne risenta, poiché la capacità del modello non viene ridotta dalla diversità degli esperti, ma piuttosto mobilitata in modo selettivo.
Nelle implementazioni industriali, questa architettura modifica radicalmente la struttura dei costi dei servizi. Un grande data center che implementa DeepSeek-V3 con architettura MoE può raggiungere una produttività da quattro a cinque volte superiore sulla stessa infrastruttura hardware rispetto a un modello denso di qualità equivalente. Ciò significa che su una singola GPU A100, la compressione ottica in combinazione con l'architettura MoE consente l'elaborazione di circa novanta miliardi di token al giorno di dati di testo puro. Si tratta di una produttività enorme, precedentemente irraggiungibile in questo settore.
🎯🎯🎯 Approfitta della vasta e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | BD, R&D, XR, PR e ottimizzazione della visibilità digitale
Approfitta dell'ampia e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | Ottimizzazione di R&S, XR, PR e visibilità digitale - Immagine: Xpert.Digital
Xpert.Digital ha una conoscenza approfondita di vari settori. Questo ci consente di sviluppare strategie su misura che si adattano esattamente alle esigenze e alle sfide del vostro specifico segmento di mercato. Analizzando continuamente le tendenze del mercato e seguendo gli sviluppi del settore, possiamo agire con lungimiranza e offrire soluzioni innovative. Attraverso la combinazione di esperienza e conoscenza, generiamo valore aggiunto e diamo ai nostri clienti un vantaggio competitivo decisivo.
Maggiori informazioni qui:
Paradosso dell'efficienza dei token: perché l'intelligenza artificiale più economica aumenta comunque la spesa
Trasformazione economica del mercato dell'elaborazione dei documenti
Le conseguenze di questa svolta tecnologica per l'intero mercato dell'elaborazione documentale sono significative. Il mercato OCR tradizionale, a lungo dominato da aziende come ABBYY, Tesseract e soluzioni proprietarie, è storicamente frammentato in base alla complessità, all'accuratezza e alla produttività dei documenti. Le soluzioni OCR standardizzate raggiungono in genere un'accuratezza compresa tra il 90 e il 95% per i documenti digitali fluidi, ma scendono al 50% o meno per i documenti scansionati con annotazioni manoscritte o informazioni obsolete.
DeepSeek OCR supera nettamente questi parametri di accuratezza, ma raggiunge anche un risultato che l'OCR tradizionale non è in grado di raggiungere: non si limita a elaborare il testo, ma preserva la comprensione del layout, della struttura delle tabelle, della formattazione e persino della semantica. Ciò significa che un report finanziario non viene semplicemente estratto come stringa di testo, ma la struttura delle tabelle e le relazioni matematiche tra le celle vengono mantenute. Questo apre le porte a una convalida automatica dei dati che l'OCR tradizionale non era in grado di fornire.
L'impatto economico è particolarmente evidente nelle applicazioni ad alto volume. Un'azienda che elabora migliaia di fatture al giorno paga in genere tra i quaranta e i due dollari a documento per l'estrazione dati tradizionale basata su documenti, a seconda della complessità e del livello di automazione. Con DeepSeek OCR, questi costi possono scendere a meno di dieci centesimi a documento, poiché la compressione ottica rende l'intero processo di inferenza estremamente efficiente. Ciò rappresenta una riduzione dei costi dal settanta al novanta percento.
Ciò ha un impatto ancora più significativo sui sistemi RAG (Retrieval Augmented Generation), dove le aziende recuperano documenti esterni in tempo reale e li alimentano con modelli linguistici per generare risposte accurate. Un'azienda che gestisce un addetto al servizio clienti con accesso a un database di documenti di centinaia di milioni di parole dovrebbe tradizionalmente tokenizzare una o più di queste parole e passarle al modello a ogni query. Con DeepSeek OCR, queste stesse informazioni possono essere precompresse come token visivi compressi e riutilizzate a ogni query. Ciò elimina l'enorme quantità di calcoli ridondanti che in precedenza si verificavano a ogni richiesta.
Gli studi mostrano cifre concrete: un'azienda che desidera analizzare automaticamente documenti legali potrebbe aspettarsi costi di cento dollari per caso di analisi utilizzando un elaboratore di testi tradizionale. Con la compressione visiva, questi costi scendono a dodici-quindici dollari per caso. Per le grandi aziende che elaborano centinaia di casi al giorno, questo si traduce in un risparmio annuo di decine di milioni.
Adatto a:
- “L’angoscia tedesca” – La cultura dell’innovazione tedesca è arretrata o la “prudenza” è di per sé una forma di sostenibilità?
La contraddizione del paradosso dell'efficienza dei token
Un aspetto economico affascinante derivante da sviluppi come DeepSeek OCR è il cosiddetto paradosso dell'efficienza dei token. In apparenza, la riduzione dei costi attraverso una maggiore efficienza dovrebbe portare a una riduzione delle spese complessive. Tuttavia, la realtà empirica rivela il modello opposto. Sebbene il costo per token sia diminuito di un fattore mille negli ultimi tre anni, le aziende segnalano spesso un aumento delle fatture totali. Ciò è dovuto a un fenomeno che gli economisti chiamano paradosso di Jevons: la riduzione dei costi non porta a una riduzione proporzionale dell'utilizzo, ma piuttosto a un'esplosione dell'utilizzo, con conseguente aumento dei costi totali.
Nel contesto di DeepSeek OCR, potrebbe verificarsi un fenomeno contrastante: le aziende che in precedenza riducevano al minimo l'uso di modelli linguistici per l'elaborazione dei documenti a causa dei costi proibitivi, ora scaleranno queste applicazioni perché diventano improvvisamente economicamente sostenibili. Paradossalmente, questo significa che, sebbene il costo per applicazione diminuisca, la spesa complessiva per l'inferenza dell'IA all'interno di un'azienda potrebbe aumentare perché casi d'uso precedentemente inutilizzabili stanno ora diventando fattibili.
Questo non è uno sviluppo negativo, ma riflette piuttosto la razionalità economica delle aziende: investono in tecnologia finché i benefici marginali superano i costi marginali. Finché i costi sono proibitivi, la tecnologia non verrà adottata. Quando diventerà più accessibile, verrà adottata in modo massiccio. Questo è il normale corso dell'adozione tecnologica.
Le implicazioni per l'economia delle infrastrutture GPU
Un altro punto critico riguarda l'infrastruttura GPU necessaria per implementare questi sistemi. La compressione ottica e l'architettura basata su un mix di esperti comportano una drastica riduzione della capacità hardware richiesta per unità di throughput. Un data center che in precedenza richiedeva 40.000 GPU H100 per raggiungere un determinato throughput potrebbe raggiungere lo stesso risultato con 10.000 o meno sistemi di inferenza basati su DeepSeek OCR.
Ciò ha implicazioni geopolitiche e strategiche che vanno oltre la pura tecnologia. La Cina, alle prese con restrizioni all'esportazione di semiconduttori avanzati, ha sviluppato un sistema tramite DeepSeek che funziona in modo più efficace con l'hardware disponibile. Ciò non significa che le limitazioni hardware diventino irrilevanti, ma le rendono meno debilitanti. Un data center cinese con 5.000 GPU Nvidia A100 di due anni può, grazie all'architettura DeepSeek OCR e MoE, fornire una capacità di elaborazione che in precedenza avrebbe richiesto 10.000 o 15.000 GPU più recenti.
Ciò sposta l'equilibrio strategico nell'economia delle infrastrutture di intelligenza artificiale. Gli Stati Uniti e i loro alleati hanno a lungo mantenuto il loro predominio nello sviluppo dell'intelligenza artificiale grazie all'accesso ai chip più recenti e potenti. Nuovi metodi di efficienza, come la compressione ottica, eroderanno questo predominio consentendo un utilizzo più efficiente dell'hardware più datato.
La trasformazione del modello di business dei fornitori di intelligenza artificiale
Fornitori di LLM affermati come OpenAI, Google e Anthropic si trovano ora ad affrontare una sfida che mina i loro modelli di business. Hanno investito molto in hardware per addestrare e distribuire modelli di grandi dimensioni e densi. Questi modelli sono preziosi e offrono un valore reale. Tuttavia, sistemi come DeepSeek OCR stanno mettendo in discussione la redditività di questi investimenti. Se un'azienda con un budget di capitale inferiore può ottenere modelli più efficienti attraverso diversi approcci architetturali, il vantaggio strategico dei sistemi più grandi e ad alta intensità di capitale diminuisce.
OpenAI ha a lungo compensato questo svantaggio con la velocità: aveva modelli migliori in precedenza. Questo ha garantito loro profitti quasi monopolistici, consentendo loro di giustificare ulteriori investimenti. Tuttavia, man mano che altri provider li hanno raggiunti e superati in alcuni aspetti, gli operatori affermati hanno perso questo vantaggio. Le quote di mercato sono diventate più frammentate e i margini di profitto medi per token sono diminuiti sotto pressione.
Infrastruttura educativa e democratizzazione della tecnologia
Un aspetto spesso trascurato di sistemi come DeepSeek-OCR è il loro ruolo nella democratizzazione della tecnologia. Il sistema è stato rilasciato come open source, con pesi dei modelli disponibili su Hugging Face e codice di training su GitHub. Ciò significa che chiunque disponga di una singola GPU di fascia alta, o anche solo di accesso al cloud computing, può utilizzare, comprendere e persino ottimizzare il sistema.
Un esperimento con Unsloth ha dimostrato che DeepSeek OCR, ottimizzato per il testo persiano, ha migliorato il tasso di errore dei caratteri dell'88% utilizzando solo 60 passaggi di addestramento su una singola GPU. Questo non è significativo perché l'OCR persiano è un problema di mercato di massa, ma perché dimostra che l'innovazione delle infrastrutture di intelligenza artificiale non è più di proprietà di aziende miliardarie. Un piccolo gruppo di ricercatori o una startup potrebbero adattare un modello alle loro esigenze specifiche.
Ciò ha enormi conseguenze economiche. I paesi che non dispongono delle risorse per investire miliardi nello sviluppo di intelligenza artificiale proprietaria possono ora adottare sistemi open source e adattarli alle proprie esigenze. Ciò riduce il divario di capacità tecnologica tra grandi e piccole economie.
L'implicazione del costo marginale e il futuro della strategia di prezzo
Nell'economia classica, i prezzi sono spinti verso i costi marginali nel lungo periodo, soprattutto in presenza di concorrenza e possibilità di nuovi ingressi sul mercato. Il settore LLM mostra già questo andamento, seppur con un certo ritardo. Il costo marginale dell'inferenza dei token nei modelli consolidati è in genere compreso tra uno e due decimi di centesimo per milione di token. Tuttavia, i prezzi di solito oscillano tra due e dieci centesimi per milione di token, un intervallo che rappresenta margini di profitto sostanziali.
DeepSeek OCR potrebbe accelerare questa dinamica. Se i costi marginali dovessero diminuire drasticamente grazie alla compressione ottica, i concorrenti saranno costretti ad adeguare i prezzi. Ciò potrebbe portare a un'erosione accelerata dei margini di profitto, con il risultato finale di uno scenario consumer in cui l'inferenza dei token diventa un servizio quasi gratuito o a basso costo, proprio come l'archiviazione cloud.
Questo sviluppo è preoccupante per i fornitori consolidati e vantaggioso per quelli nuovi o orientati all'efficienza. Innescherà un massiccio consolidamento o riposizionamento all'interno del settore. Le aziende che si affidano esclusivamente alla scala e alle dimensioni del modello saranno in difficoltà. Le aziende focalizzate sull'efficienza, sui casi d'uso specifici e sull'integrazione con i clienti ne usciranno rafforzate nel lungo periodo.
Adatto a:
- Sovranità dell'IA per le aziende: è questo il vantaggio dell'Europa in materia di IA? Come una legge controversa sta diventando un'opportunità nella competizione globale.
Un cambio di paradigma a livello economico
DeepSeek OCR e l'innovazione nella compressione ottica sottostante rappresentano più di un semplice miglioramento tecnico. Segnano un cambio di paradigma nel modo in cui il settore dell'intelligenza artificiale pensa, investe e innova. Il passaggio dal puro ridimensionamento alla progettazione intelligente, l'adozione di architetture MoE e la consapevolezza che la codifica visiva può essere più efficiente della codifica token sono tutti segnali che il settore sta considerando la maturazione dei propri limiti tecnici.
Dal punto di vista economico, ciò significa un massiccio ridimensionamento delle strutture di costo, una ridistribuzione della posizione competitiva tra attori affermati e nuovi e una rideterminazione fondamentale della redditività di diverse applicazioni di intelligenza artificiale. Le aziende che comprendono questi cambiamenti e si adattano rapidamente otterranno significativi vantaggi strategici. Le aziende che ignorano questo cambiamento e si aggrappano ad approcci consolidati perderanno competitività.
Il tuo partner globale per il marketing e lo sviluppo aziendale
☑️ La nostra lingua commerciale è l'inglese o il tedesco
☑️ NOVITÀ: corrispondenza nella tua lingua nazionale!
Sarei felice di servire te e il mio team come consulente personale.
Potete contattarmi compilando il modulo di contatto o semplicemente chiamandomi al numero +49 89 89 674 804 (Monaco) . Il mio indirizzo email è: wolfenstein ∂ xpert.digital
Non vedo l'ora di iniziare il nostro progetto comune.
☑️ Supporto alle PMI nella strategia, consulenza, pianificazione e implementazione
☑️ Creazione o riallineamento della strategia digitale e digitalizzazione
☑️ Espansione e ottimizzazione dei processi di vendita internazionali
☑️ Piattaforme di trading B2B globali e digitali
☑️ Pioneer Business Development/Marketing/PR/Fiere
La nostra competenza globale nel settore e nell'economia nello sviluppo aziendale, nelle vendite e nel marketing
La nostra competenza globale nel settore e nel business nello sviluppo aziendale, nelle vendite e nel marketing - Immagine: Xpert.Digital
Focus del settore: B2B, digitalizzazione (dall'intelligenza artificiale alla realtà aumentata), ingegneria meccanica, logistica, energie rinnovabili e industria
Maggiori informazioni qui:
Un hub di argomenti con approfondimenti e competenze:
- Piattaforma di conoscenza sull'economia globale e regionale, sull'innovazione e sulle tendenze specifiche del settore
- Raccolta di analisi, impulsi e informazioni di base dalle nostre aree di interesse
- Un luogo di competenza e informazione sugli sviluppi attuali nel mondo degli affari e della tecnologia
- Hub tematico per le aziende che vogliono informarsi sui mercati, sulla digitalizzazione e sulle innovazioni del settore

