Grokipedia: la guerra dell'informazione digitale di Elon Musk e l'economia della monopolizzazione della conoscenza
Pre-release di Xpert
Selezione vocale 📢
Pubblicato il: 29 ottobre 2025 / Aggiornato il: 29 ottobre 2025 – Autore: Konrad Wolfenstein

Grokipedia: la guerra dell'informazione digitale di Elon Musk e l'economia della monopolizzazione della conoscenza – Immagine: Xpert.Digital
Il clone di Wikipedia di Elon Musk: la conoscenza libera è ora a rischio di estinzione?
La verità per 200 miliardi di dollari? Cosa c'è davvero dietro l'attacco di Elon Musk a Wikipedia?
L'annuncio suonava rivoluzionario, l'implementazione rivelatrice. Quando Elon Musk presentò al pubblico la sua enciclopedia generata dall'intelligenza artificiale, Grokipedia, il 27 ottobre 2025, il miliardario della tecnologia promise nientemeno che la liberazione della conoscenza umana da presunte distorsioni ideologiche. Nel giro di poche ore, la realtà si rivelò ben più prosaica: una piattaforma lanciata con poco meno di 900.000 articoli che copiava proprio Wikipedia che intendeva sostituire, e la cui infrastruttura tecnica crollò sotto il carico di utenti già dal primo giorno. Quella che a prima vista sembra solo l'ennesima impresa eccentrica del fondatore di SpaceX, a un esame più attento si rivela sintomatica di un cambiamento fondamentale nell'economia globale della conoscenza. Grokipedia è molto più di un esperimento tecnologico. La piattaforma segna una svolta nella lotta per il controllo delle infrastrutture informatiche digitali, dove concentrazione del potere economico, influenza politica e rivoluzione tecnologica si combinano per formare un mix esplosivo.
L'architettura economica di una guerra dell'informazione
La dimensione economica di Grokipedia diventa chiara solo attraverso un'analisi della struttura proprietaria e dei flussi di finanziamento dell'impero di intelligenza artificiale di Musk. xAI, l'azienda che ha sviluppato Grokipedia, ha raggiunto una valutazione di 200 miliardi di dollari dopo un round di finanziamento nel settembre 2025. Questa cifra astronomica supera la capitalizzazione di mercato di intere economie e posiziona xAI tra Anthropic, valutata 183 miliardi di dollari, e il leader del settore OpenAI, valutato 500 miliardi di dollari. Il round di finanziamento ha generato oltre 10 miliardi di dollari di nuovo capitale da investitori come Valor Capital, la Qatar Investment Authority e il principe Al Waleed bin Talal attraverso la sua Kingdom Holding Company. Tuttavia, la struttura del capitale interno è particolarmente rivelatrice: SpaceX ha investito 2 miliardi di dollari in xAI, una mossa insolita per l'azienda aerospaziale che mette in luce l'interconnessione dell'impero aziendale di Musk. Questo investimento incrociato opera sul modello di un fondo di capitale di rischio privato, in cui le aziende redditizie finanziano in modo incrociato iniziative più rischiose. Musk ha già utilizzato questo modello in passato, quando ha utilizzato i fondi di SpaceX per salvare Tesla durante gli anni di crisi e in seguito ha finanziato l'acquisizione di Twitter.
I costi operativi mensili di xAI sono stimati in un miliardo di dollari, una somma che riflette l'enorme potenza di calcolo necessaria per addestrare ed eseguire modelli linguistici di grandi dimensioni. Musk ha annunciato che le sue aziende investiranno circa dieci miliardi di dollari in iniziative legate all'intelligenza artificiale nel 2024, inclusi tre o quattro miliardi di dollari solo per l'acquisto di processori Nvidia. Un supercomputer chiamato Colossus è attualmente in costruzione a Memphis, che ospiterà un milione di GPU per l'intelligenza artificiale, rendendolo uno dei più grandi centri di calcolo al mondo. Questa integrazione verticale si estende alla generazione di energia, poiché la capacità di calcolo richiesta consuma enormi quantità di elettricità. La strategia mira a diventare indipendenti dai fornitori di cloud e a controllare invece l'intera catena del valore dell'intelligenza artificiale. Questo distingue fondamentalmente l'approccio di Musk dal modello cloud-native e dipendente dai partner di Microsoft e OpenAI, nonché dalla strategia diffusa di Google tramite DeepMind.
In questo contesto, la logica economica alla base di Grokipedia diventa chiara. Lo scopo principale della piattaforma non è generare entrate dirette attraverso pubblicità o abbonamenti, ma piuttosto fungere da motore di dati per migliorare il modello linguistico sottostante, Grok. Ogni query di ricerca, ogni interazione dell'utente fornisce preziosi dati di training che alimentano l'ulteriore sviluppo dell'IA. Questo modello di accumulo di dati segue la stessa logica dell'integrazione di X, precedentemente Twitter, da parte di Musk nel suo ecosistema di IA. La piattaforma di social media, con oltre 600 milioni di utenti attivi al mese, genera dati di conversazione in tempo reale che consentono a Grok di accedere a modelli linguistici e discorsi attuali. Questa fusione tra tecnologia di IA e dati della piattaforma crea un circolo vizioso: più utenti generano più dati, il che consente modelli migliori, che a loro volta attraggono più utenti.
Al contrario, Wikipedia si basa su un sistema economico radicalmente diverso. La Wikimedia Foundation è finanziata esclusivamente da donazioni e rifiuta qualsiasi forma di pubblicità. Nell'anno fiscale 2023-2024, oltre otto milioni di persone hanno donato in media 10,58 dollari, generando un totale di 185 milioni di dollari di entrate da campagne di raccolta fondi in 33 paesi e 18 lingue. Le spese operative ammontano a circa 178 milioni di dollari all'anno, di cui una parte consistente è destinata agli stipendi di oltre 400 dipendenti nei settori dell'ingegneria e dello sviluppo prodotti, che garantiscono la stabilità tecnica di oltre 16 miliardi di visualizzazioni di pagina al mese. L'organizzazione ha anche istituito un fondo di dotazione, che ha raggiunto un valore di 140 milioni di dollari a gennaio 2024 e funge da garanzia a lungo termine. Il patrimonio netto della Fondazione ammontava a 271 milioni di dollari alla fine di giugno 2024. Queste cifre sembrano modeste rispetto alla valutazione di 200 miliardi di xAI, ma evidenziano una differenza fondamentale nella logica istituzionale: Wikipedia opera come un'organizzazione senza scopo di lucro, senza fini di lucro, mentre Grokipedia fa parte di un conglomerato aziendale orientato al profitto.
I modelli di business non potrebbero essere più diversi. La forza di Wikipedia risiede nella sua indipendenza dagli interessi commerciali. La piattaforma non deve soddisfare gli azionisti, giustificare i dati trimestrali o subire pressioni per generare profitti. Questa autonomia finanziaria le consente di operare esclusivamente nell'interesse della diffusione della conoscenza. Il rovescio della medaglia è la cronica scarsità di risorse. Con un budget annuale che è una frazione di quanto i giganti della tecnologia spendono per la ricerca sull'intelligenza artificiale, Wikipedia non può competere con le capacità tecnologiche delle piattaforme commerciali. Grokipedia, d'altra parte, beneficia di risorse finanziarie praticamente illimitate. La piattaforma può attingere alle risorse combinate di Tesla, SpaceX, X e xAI. Queste risorse finanziarie consentono un'espansione aggressiva, ingenti investimenti in potenza di calcolo e il reclutamento dei migliori talenti al mondo nel campo dell'intelligenza artificiale. Allo stesso tempo, questa forza in termini di risorse è legata alla redditività commerciale. Grokipedia deve in ultima analisi generare un ritorno sull'investimento, sia attraverso la monetizzazione dei dati, la vendita di tecnologia o il valore strategico per l'ecosistema nel suo complesso.
I costi nascosti dell'intelligenza artificiale come fonte di conoscenza
Le fondamenta tecnologiche di Grokipedia rivelano debolezze fondamentali che vanno ben oltre i semplici problemi iniziali. Il modello linguistico sottostante, Grok, si basa su probabilità statistiche piuttosto che su comprensione o criteri di verità. I sistemi di intelligenza artificiale di questa generazione generano testi prevedendo la parola successiva più probabile in una sequenza, sulla base di modelli presenti nei loro dati di addestramento. Questa modalità di funzionamento porta inevitabilmente a un fenomeno noto in termini tecnici come allucinazione. L'intelligenza artificiale genera informazioni apparentemente plausibili, ma in realtà errate o inventate. Uno studio pubblicato sulla Columbia Journalism Review ha documentato che ChatGPT ha effettuato attribuzioni errate nel 76% delle 200 citazioni testate da fonti di notizie popolari. Il sistema ha indicato incertezza solo in sette casi su 153. Secondo la Stanford University, le IA specializzate in database legali di LexisNexis e Thomson Reuters hanno prodotto informazioni errate in almeno uno su sei test di benchmark.
La BBC ha condotto un esperimento durato un mese con quattro importanti assistenti AI: ChatGPT, Microsoft Copilot, Google Gemini e Perplexity. I risultati sono stati preoccupanti. Il 51% delle risposte AI alle domande sulle notizie presentava problemi significativi, mentre il 91% mostrava almeno lievi difetti. I problemi più comuni erano inesattezze fattuali, citazioni errate delle fonti e mancanza di contesto. Il 19% delle risposte che citavano contenuti della BBC conteneva errori fattuali come cifre o date errate. Il 13% delle citazioni presumibilmente tratte da articoli della BBC erano alterate o non esistevano affatto nell'articolo citato. In un caso particolarmente eclatante, ChatGPT e Copilot hanno affermato che l'ex Primo Ministro Rishi Sunak e l'ex Primo Ministro Nicola Sturgeon erano ancora in carica, sebbene entrambi si fossero già dimessi. Questi errori sistematici non sono solo carenze tecniche, ma sono strutturalmente radicati nel funzionamento dei grandi modelli linguistici.
Il problema è aggravato dalla mancanza di trasparenza nel processo di addestramento. A differenza di Wikipedia, dove ogni modifica è tracciabile e le fonti devono essere citate esplicitamente, con Grokipedia non è chiaro quali dati l'IA utilizzi per generare le sue affermazioni. I dati di addestramento per modelli linguistici di grandi dimensioni comprendono in genere miliardi di siti web, libri e altre fonti testuali. Questi dati contengono inevitabilmente disinformazione, distorsioni e informazioni obsolete. I modelli non hanno modo di distinguere tra dati di addestramento corretti ed errati; si limitano a riprodurre modelli statistici. Inoltre, esiste il rischio di una catena di errori che si autoalimenta. Più contenuti generati dall'IA entrano in Internet e vengono a loro volta utilizzati come dati di addestramento, maggiore è il rischio di un fenomeno noto come collasso del modello. Ciò porta a un deterioramento della qualità dell'output dell'IA, poiché i sistemi vengono sempre più addestrati su informazioni potenzialmente errate generate da altre IA invece che su contenuti umani originali.
La dipendenza di Grokipedia da Wikipedia per i propri contenuti ne evidenzia in particolare le contraddizioni. I giornalisti tecnologici hanno scoperto che numerose voci di Grokipedia sono quasi identiche alle loro controparti su Wikipedia. Le voci relative a prodotti come il MacBook Air, la PlayStation 5 o la Lincoln Mark VIII includono una nota che indica che il contenuto è stato adattato da Wikipedia, con licenza Creative Commons Attribuzione-Condividi allo stesso modo 4.0. Secondo il blog tecnologico The Verge, le voci sono identiche parola per parola, riga per riga. Questa pratica solleva interrogativi fondamentali. Se Grokipedia utilizza essenzialmente i contenuti di Wikipedia, qual è il valore aggiunto promesso rispetto all'originale? Musk ha annunciato l'intenzione di porre fine a questa dipendenza entro la fine del 2025, ma questo annuncio rivela un dilemma. Senza la base di conoscenza affidabile e curata da esseri umani di Wikipedia, Grokipedia non ha le basi per l'accuratezza dei fatti. La Wikimedia Foundation ha commentato opportunamente: la conoscenza di Wikipedia è e sarà sempre umana. Anche Grokipedia ha bisogno di Wikipedia per esistere.
Le implicazioni economiche di queste limitazioni tecniche sono significative. Informazioni false o fuorvianti in un'enciclopedia ne compromettono la funzione fondamentale e mettono a repentaglio la fiducia degli utenti. Per un'azienda commerciale come xAI, la perdita di fiducia si traduce in perdite finanziarie dirette dovute all'abbandono degli utenti e a danni alla reputazione. Anche i rischi legali sono considerevoli. Air Canada è stata citata in giudizio dopo che il suo chatbot ha fornito a un cliente informazioni errate sui tassi di lutto. In ambito legale, citazioni allucinatorie sono apparse in documenti ufficiali dei tribunali, portando a sanzioni contro gli avvocati coinvolti. In ambito sanitario, il sistema Whisper di OpenAI ha generato contenuti fuorvianti nelle trascrizioni delle visite mediche. Questi casi dimostrano che le allucinazioni dell'IA hanno conseguenze reali e comportano rischi di responsabilità per le aziende. Per Grokipedia, questo rappresenta un rischio aziendale fondamentale. Un'enciclopedia che diffonde sistematicamente informazioni false non può mantenere la sua posizione di mercato, indipendentemente dal sostegno finanziario della sua società madre.
Economia politica della verità: quando l'ideologia si traveste da innovazione
Le motivazioni di Elon Musk per Grokipedia diventano chiare solo sullo sfondo della sua posizione ideologica e delle sue attività politiche. Il miliardario della tecnologia ha ripetutamente definito Wikipedia Wokepedia e ha affermato che la piattaforma era infiltrata da attivisti di sinistra e ideologicamente faziosa. Nel dicembre 2024, ha invitato i suoi oltre 200 milioni di follower su X a smettere di donare a Wikipedia. Nel gennaio 2025, le sue critiche si sono intensificate dopo che Wikipedia, in un articolo sul suo gesto all'insediamento del presidente Donald Trump, ha affermato che alcuni osservatori lo avevano interpretato come un saluto nazista. Musk ha respinto l'interpretazione e ha accusato Wikipedia di ripetere la propaganda dei media mainstream. Il fondatore di Wikipedia, Jimmy Wales, ha risposto che l'articolo si limitava a riassumere fatti verificabili: "È vero che hai fatto il gesto, due volte, e che la gente lo ha paragonato a un saluto nazista, molte persone, ed è vero che hai negato che avesse alcun significato. Questa non è propaganda dei media mainstream. Questi sono fatti". Ogni singolo elemento.
Questa controversia è sintomatica di una tendenza più ampia. Gli ambienti conservatori negli Stati Uniti hanno preso sempre più di mira Wikipedia. Il senatore Ted Cruz, presidente della Commissione Commercio, Scienza e Trasporti del Senato, ha espresso preoccupazione per i pregiudizi ideologici sulla piattaforma in una lettera ufficiale alla Wikimedia Foundation. Ha sostenuto che l'elenco delle fonti attendibili di Wikipedia favorisce le testate giornalistiche di sinistra e che i contributi finanziari della Wikimedia Foundation alle organizzazioni di sinistra riflettono il loro orientamento ideologico. La Heritage Foundation, che è alla base dell'iniziativa politica Project 2025, sta pianificando un'indagine sugli autori di Wikipedia che operano sotto pseudonimo e i cui contributi su Israele sono classificati come antisemiti, secondo un rapporto di gennaio del sito di notizie Forward. Tucker Carlson, in un'intervista con l'ex co-fondatore di Wikipedia Larry Sanger, ha descritto Wikipedia come completamente disonesta e completamente controllata su questioni importanti.
La ricerca empirica dipinge un quadro più sfumato. Uno studio della Harvard Business School del 2012 e del 2014 ha esaminato il linguaggio politicamente distorto nell'Enciclopedia Britannica e in Wikipedia. I ricercatori hanno scoperto che Wikipedia presenta effettivamente pregiudizi sistematici, ma questi non sono necessariamente più pronunciati rispetto alle enciclopedie professionali. Fondamentalmente, gli articoli con molte revisioni da parte di autori diversi tendono a essere più equilibrati di quelli con pochi curatori. Lo studio ha raccomandato a Wikipedia di dare priorità alle revisioni degli articoli più popolari e di incoraggiare autori con diverse prospettive politiche a lavorare sulle stesse voci. È interessante notare che un'analisi del sistema Community Notes di Wikipedia su X, che Musk cita come modello per il fact-checking basato sul crowd-based, ha mostrato che questo sistema utilizza Wikipedia stessa come fonte esterna più frequente, dopo X stessa. Le fonti citate dagli autori tendono a essere organi di stampa centristi o di sinistra e utilizzano esattamente lo stesso elenco di riferimenti approvati di Wikipedia, cosa che Musk critica.
Il fondatore di Wikipedia, Jimmy Wales, ha respinto le accuse in un'intervista al podcast Instant Genius di BBC Science Focus. "L'idea che siamo diventati attivisti di sinistra pazzi è semplicemente errata, di fatto errata", ha affermato. "Ciò non significa che non ci siano aree in cui possiamo migliorare". Wales ha aggiunto che Wikipedia accoglie collaboratori di tutto lo spettro politico, purché rispettino le regole di neutralità. "Se qualcuno è un conservatore molto amichevole e riflessivo, un intellettuale, sarei felice se si unisse a Wikipedia. E se qualcuno è un attivista di sinistra pazzo e sveglio, qui per condurre una crociata, direi: 'Oh, sarai così noioso e fastidioso'". La Wikimedia Foundation ha sottolineato, nelle dichiarazioni successive al lancio di Grokipedia, che la conoscenza di Wikipedia è creata dalle persone e rimarrà sempre umana. Le aziende di intelligenza artificiale si affidano a questo modello aperto e collaborativo. Anche Grokipedia ha bisogno di Wikipedia per esistere.
La dimensione economica di questo conflitto ideologico diventa chiara se si considera l'integrazione aziendale di Musk. Grokipedia non è isolata, ma integrata in un ecosistema mediatico che riflette le ideologie politiche di Musk. Su X, ha reintegrato i creatori di contenuti di destra, consentendo loro di raggiungere un vasto pubblico, e ha utilizzato la piattaforma per sostenere i tagli alla spesa pubblica. Ha adattato Grok, il chatbot basato sull'intelligenza artificiale, per presentare un punto di vista più conservatore. In Germania, Musk ha fatto campagna per il partito Alternativa per la Germania (AfD) durante le elezioni federali. Il suo sostegno pubblico al presidente Trump e la sua nomina a consulente informale per l'efficienza del governo sottolineano la dimensione politica del suo coinvolgimento. In questo contesto, Grokipedia non è principalmente un prodotto tecnologico, ma uno strumento per plasmare il discorso pubblico. Il controllo su una fonte enciclopedica di conoscenza significa il potere di interpretare fatti, contesti e narrazioni.
Le implicazioni economiche di questa politicizzazione sono ambivalenti. Da un lato, il posizionamento ideologico crea una base di utenti affezionata. I conservatori che si sentono non rappresentati da Wikipedia trovano un'alternativa percepita in Grokipedia. Questa polarizzazione può generare attenzione e aumentare il numero di utenti nel breve termine. A lungo termine, tuttavia, mina la credibilità come fonte di conoscenza neutrale. Un'enciclopedia che si posiziona apertamente come alternativa conservatrice a una piattaforma apparentemente di sinistra rinuncia alla sua pretesa di obiettività. Ciò limita la sua potenziale portata e rende la piattaforma vulnerabile a movimenti contrari. Inoltre, la stretta associazione con Musk personalmente comporta rischi considerevoli. L'imprenditore è allo stesso tempo il punto di forza più grande e la debolezza più critica dell'intero ecosistema. Le sue controverse dichiarazioni pubbliche, le controversie legali e le attività politiche possono sempre ritorcersi contro le sue attività. Qualsiasi danno reputazionale a Musk danneggia automaticamente tutti i progetti a lui associati.
Monopolizzazione della conoscenza: l'economia delle piattaforme come strumento di dominio
La creazione di Grokipedia deve essere compresa nel contesto della crescente monopolizzazione delle infrastrutture della conoscenza digitale. Le cinque maggiori aziende tecnologiche – Alphabet (Google), Meta, Microsoft, Amazon e Apple – esercitano un'influenza straordinaria sulle infrastrutture, sui servizi e sulle norme che plasmano le nostre vite digitali. Queste aziende dominano settori chiave di Internet: motori di ricerca, social media, app store e cloud computing. Il loro potere, ampiamente incontrollato, su vari settori digitali pone gravi rischi per la privacy dei dati, la libertà dalla discriminazione, la libertà di espressione e l'accesso alle informazioni. Nell'agosto 2025, Amnesty International ha pubblicato un briefing intitolato "Breaking up with Big Tech", invitando i governi a limitare il potere dei giganti della tecnologia al fine di proteggere i diritti umani. "Queste poche aziende agiscono come proprietari digitali, determinando la forma e il modo in cui interagiamo online", ha spiegato Hannah Storey, consulente per l'advocacy e le politiche di Amnesty International. "Combattere questo predominio non è solo una questione di equità di mercato, ma una pressante questione di diritti umani".
La formazione di monopoli nell'economia digitale segue meccanismi specifici che differiscono da quelli dei monopoli industriali tradizionali. Le piattaforme digitali beneficiano degli effetti di rete: più utenti ha una piattaforma, maggiore è il suo valore per ogni singolo utente. Ciò porta a tendenze monopolistiche naturali, con il leader di mercato che espande continuamente il proprio vantaggio. Inoltre, queste aziende creano monopoli di dati. Le enormi quantità di dati che raccolgono consentono applicazioni di apprendimento automatico e intelligenza artificiale inaccessibili ai concorrenti più piccoli. Questa asimmetria informativa mina l'innovazione, accelera la crescita dei monopoli e ne consolida il predominio. Uno studio accademico sui monopoli della conoscenza sostiene che l'emergere delle piattaforme digitali ha creato monopoli della conoscenza che minacciano l'innovazione. Il loro potere deriva dall'applicazione degli obblighi sui dati e dal legame continuo tra la partecipazione alla piattaforma e l'appropriazione dei diritti sui dati generati da altri utenti.
Per il controllo della conoscenza enciclopedica, questo rappresenta un cambiamento fondamentale di potere. Wikipedia rappresenta un modello di produzione di conoscenza decentralizzato e guidato dalla comunità. Milioni di autori volontari da tutto il mondo contribuiscono, discutono, correggono e ampliano gli articoli. Questa decentralizzazione protegge dalle concentrazioni di potere all'interno di singole entità. Nessuna azienda, nessun governo può controllare completamente Wikipedia. Grokipedia, d'altra parte, è centralizzata. xAI controlla la tecnologia sottostante, determina i dati di addestramento, definisce gli algoritmi e può apportare modifiche al sistema in qualsiasi momento. Questa centralizzazione crea un singolo punto di errore e un singolo punto di controllo. Se xAI decide di presentare determinati argomenti in modo diverso, dare priorità a determinate fonti o escludere determinate prospettive, non esistono meccanismi di controllo decentralizzati per impedirlo. La piattaforma attualmente non consente la modifica da parte dell'utente nel senso tradizionale. Musk ha spiegato che gli utenti potrebbero chiedere a Groki di aggiungere, modificare o eliminare articoli e il sistema eseguirebbe la richiesta o ne spiegherebbe il motivo. Questa mediazione da parte dell'IA si traduce di fatto in un controllo completo da parte dell'operatore della piattaforma.
Le dimensioni geopolitiche di questa concentrazione di potere sono evidenti in progetti analoghi in altri paesi. In Russia, il governo ha tentato di sostituire l'enciclopedia libera con Ruwiki, una copia manipolata e controllata dallo stato di Wikipedia. Il progetto è fallito, ma alla fine non ha avuto successo. Wikimedia Germania ha commentato: "Wikipedia è unica. Ciò che la rende così speciale è la comunità di volontari che rende la conoscenza consolidata, proveniente da fonti affidabili, liberamente accessibile a tutti. Wikipedia non è di proprietà di un'azienda, ma è indipendente e supportata da migliaia di volontari. L'esempio russo illustra come i regimi autoritari si battano per il controllo delle informazioni attraverso piattaforme di conoscenza alternative. I parallelismi con Grokipedia non sono esaustivi, ma strutturalmente simili: entrambi i progetti mirano a sostituire un sistema di conoscenza consolidato e decentralizzato con un'alternativa centralizzata e controllata."
Le conseguenze economiche delle infrastrutture di conoscenza monopolizzate sono di vasta portata. In primo luogo, soffocano l'innovazione. Quando un'azienda controlla l'accesso a risorse informative fondamentali, può sistematicamente svantaggiare i concorrenti. In secondo luogo, creano opportunità di rendita. I monopolisti possono applicare prezzi esorbitanti o subordinare l'accesso a condizioni che servono i loro interessi. In terzo luogo, distorcono i mercati. Le aziende che si affidano a informazioni provenienti da fonti enciclopediche diventano dipendenti dalla logica di piattaforma del monopolista. In quarto luogo, indeboliscono il discorso pubblico democratico. Quando le risorse di conoscenza chiave non sono più neutrali e di pubblica utilità, ma servono interessi commerciali o politici, ciò mina il fondamento informativo della formazione democratica dell'opinione pubblica. Un tribunale federale statunitense ha dichiarato Google colpevole nel 2024 di aver gestito un monopolio illegale di ricerca. Le udienze di condanna dell'aprile 2025 hanno evidenziato le difficoltà di regolamentazione dei monopoli tecnologici consolidati. Il Dipartimento di Giustizia ha chiesto a Google di vendere il suo browser Chrome e di condividere dati preziosi con i concorrenti. Google ha sostenuto misure significativamente meno rigorose. Si prevede che il giudice Amit Mehta si pronunci sulla sanzione entro l'estate del 2025. Sebbene la sua sentenza si concentrerà ufficialmente sul predominio di Google nel settore della ricerca, potrebbe anche incidere sulle ambizioni dell'azienda nel campo dell'intelligenza artificiale.
🎯🎯🎯 Approfitta della vasta e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | BD, R&D, XR, PR e ottimizzazione della visibilità digitale

Approfitta dell'ampia e quintuplicata competenza di Xpert.Digital in un pacchetto di servizi completo | Ottimizzazione di R&S, XR, PR e visibilità digitale - Immagine: Xpert.Digital
Xpert.Digital ha una conoscenza approfondita di vari settori. Questo ci consente di sviluppare strategie su misura che si adattano esattamente alle esigenze e alle sfide del vostro specifico segmento di mercato. Analizzando continuamente le tendenze del mercato e seguendo gli sviluppi del settore, possiamo agire con lungimiranza e offrire soluzioni innovative. Attraverso la combinazione di esperienza e conoscenza, generiamo valore aggiunto e diamo ai nostri clienti un vantaggio competitivo decisivo.
Maggiori informazioni qui:
Grokipedia contro Wikipedia: chi controllerà la nostra conoscenza in futuro?
Il modello di business della disinformazione: quando gli errori diventano redditizi
La suscettibilità agli errori nei contenuti generati dall'IA rappresenta paradossalmente sia un rischio che un'opportunità di business per i fornitori commerciali. Ogni allucinazione, ogni inesattezza fattuale mina la fiducia nella piattaforma e compromette la fidelizzazione degli utenti a lungo termine. Allo stesso tempo, la necessità di correzione crea una continua richiesta di interazione. Gli utenti che individuano e correggono gli errori generano dati preziosi sulla qualità dell'output dell'IA. Questi dati, a loro volta, contribuiscono al miglioramento del modello. Il sistema è progettato per apprendere attraverso il feedback degli utenti, il che significa che ogni reclamo, ogni richiesta di correzione, contribuisce all'ottimizzazione. Questa esternalizzazione della garanzia della qualità alla base utenti è economicamente efficiente, ma eticamente discutibile. Mentre Wikipedia si presenta apertamente come un progetto collaborativo in cui errori e correzioni sono parte di un processo trasparente, Grokipedia si presenta come una fonte di conoscenza completa e affidabile, nonostante la tecnologia sottostante sia sistematicamente soggetta a errori.
I costi delle informazioni errate sono principalmente a carico degli utenti, non del gestore della piattaforma. Chiunque prenda una decisione errata sulla base di informazioni errate provenienti da Grokipedia è personalmente responsabile. La responsabilità legale dei fornitori di intelligenza artificiale per la disinformazione rimane in gran parte poco chiara a livello internazionale. Le esclusioni di responsabilità nei termini di servizio proteggono le aziende dalla maggior parte delle richieste di risarcimento danni. Questa asimmetria tra profitti privatizzati e rischi socializzati è caratteristica dei modelli di business basati sul capitalismo di piattaforma. Tuttavia, il caso Air Canada, in cui l'azienda è stata citata in giudizio perché il suo chatbot forniva informazioni errate sulle tariffe, dimostra che la completa esenzione da responsabilità non è garantita. Con la crescente integrazione delle enciclopedie basate sull'intelligenza artificiale nei processi decisionali critici, le questioni di responsabilità diventano più rilevanti. Quando le istituzioni mediche accedono a Grokipedia per informazioni specialistiche o gli istituti scolastici raccomandano la piattaforma come riferimento, ciò crea una garanzia implicita di accuratezza che potrebbe potenzialmente essere fatta valere in tribunale.
La discrepanza tra le promesse pubblicitarie e la realtà tecnica è lampante. Musk ha proclamato: "Il nostro obiettivo è la verità, tutta la verità e nient'altro che la verità. Anche se non saremo mai perfetti, continueremo a impegnarci per raggiungere questo obiettivo". Questo posizionamento retorico come alternativa alla ricerca della verità alle presunte enciclopedie umane di parte ignora i limiti sistematici della tecnologia sottostante. I sistemi di intelligenza artificiale non hanno alcun concetto di verità in senso epistemologico. Generano sequenze di testo statisticamente plausibili basate su pattern nei dati di addestramento. In questo contesto, promuovere Grokipedia come una fonte di conoscenza superiore deve essere considerato fuorviante. I consumatori che si fidano della piattaforma sulla base di queste promesse vengono sistematicamente ingannati sulla natura e l'affidabilità delle informazioni fornite. Ciò solleva interrogativi sulla tutela dei consumatori e sulla concorrenza sleale.
Le sfide di moderazione dei contenuti delle enciclopedie generate dall'intelligenza artificiale aggravano questi problemi. Wikipedia ha sviluppato nel corso di decenni processi sofisticati per rilevare e correggere atti vandalici, disinformazione e modifiche manipolative. Migliaia di moderatori volontari monitorano le modifiche, discutono questioni controverse e cercano il consenso. Questa cura umana richiede molte risorse, ma è efficace. Il fact-checking basato sull'intelligenza artificiale di Grokpedia è di per sé circolare. Un sistema verifica l'accuratezza del proprio output senza una convalida esterna. Questo è strutturalmente inadeguato per rilevare errori sistematici derivanti dai dati di addestramento o dall'architettura del modello. La presunta superiorità del fact-checking basato sull'intelligenza artificiale rispetto alla moderazione umana è priva di qualsiasi fondamento empirico. Gli studi dimostrano, piuttosto, che gli approcci ibridi che combinano l'esperienza umana con il supporto dell'intelligenza artificiale ottengono i risultati migliori. I sistemi puramente automatizzati producono sia troppi falsi positivi, che contrassegnano erroneamente i contenuti legittimi come violazioni, sia falsi negativi, che ignorano le violazioni effettive.
I problemi di scalabilità della moderazione dei contenuti interessano tutte le principali piattaforme. Ogni minuto vengono condivisi milioni di post, commenti, immagini e video. È praticamente impossibile per i moderatori umani esaminare e valutare ogni contenuto in modo tempestivo. La velocità con cui vengono generati i contenuti richiede elaborazione e intervento in tempo reale. I contenuti dannosi o inappropriati devono essere identificati e gestiti rapidamente per proteggere gli utenti e mantenere un ambiente online sicuro. I sistemi di intelligenza artificiale devono essere in grado di elaborare e analizzare grandi quantità di dati in tempo reale per garantire un'efficace moderazione dei contenuti. La diversità delle tipologie di contenuto presenta un'ulteriore sfida: testo, immagini, video e audio devono essere tutti analizzati e valutati per verificarne la conformità alle linee guida e alle normative. Una soluzione di intelligenza artificiale efficace dovrebbe essere in grado di gestire più tipologie di dati mantenendo accuratezza e pertinenza. Grokipedia affronta tutte queste sfide, ma con l'ulteriore complicazione che la piattaforma non modera principalmente i contenuti generati dagli utenti; è essa stessa un produttore di contenuti potenzialmente problematici. Se l'intelligenza artificiale genera sistematicamente disinformazione, non esiste un attore esterno il cui comportamento possa essere sanzionato. La fonte del problema è il sistema stesso.
Il futuro della conoscenza: tra cooperazione democratica e controllo oligopolistico
La competizione tra Wikipedia e Grokipedia simboleggia un conflitto fondamentale sul futuro dell'organizzazione della conoscenza nell'era digitale. Da un lato c'è un modello di produzione collaborativa basato sull'impegno volontario, su processi trasparenti e sull'ideale di una diffusione neutrale della conoscenza. Dall'altro c'è un modello ad alta intensità di capitale e basato sulla tecnologia, controllato da una società orientata al profitto e finanziato da miliardi di capitale di rischio. La dinamica del potere economico è asimmetrica. xAI possiede risorse finanziarie che superano di mille volte il budget annuale di Wikipedia. Questo potere finanziario consente un'espansione aggressiva, massicce campagne di marketing e il reclutamento dei migliori sviluppatori di intelligenza artificiale al mondo. Wikipedia non può competere con queste risorse. La piattaforma fa affidamento su donazioni continue e deve richiedere un nuovo sostegno finanziario ogni anno.
I vantaggi strategici di Wikipedia risiedono altrove. La piattaforma ha costruito la fiducia in oltre 24 anni ed è diventata uno dei siti web più visitati al mondo. Con oltre 65 milioni di articoli in circa 300 lingue, Wikipedia offre un'ampiezza e una profondità che Grokipedia, con i suoi 900.000 articoli in lingua inglese, non può nemmeno lontanamente eguagliare. La produzione decentralizzata da parte di milioni di autori volontari genera una diversità di prospettive e un livello di tempestività che i sistemi controllati centralmente faticano a replicare. Ogni secondo, gli articoli di Wikipedia vengono modificati, aggiornati e ampliati. Questa vivace comunità è il punto di forza di Wikipedia e, allo stesso tempo, non può essere copiata. Grokipedia può produrre testi generati dall'intelligenza artificiale, ma non può costruire una comunità dedicata che contribuisca per motivazione intrinseca. Nell'aprile 2025, la Wikimedia Foundation ha annunciato una nuova strategia di intelligenza artificiale che pone esplicitamente al centro i volontari umani dietro Wikipedia. "La comunità di volontari dietro Wikipedia è l'elemento più importante e unico del successo di Wikipedia", si legge nella dichiarazione. "Ecco perché la nostra nuova strategia di intelligenza artificiale raddoppia i volontari dietro Wikipedia." Utilizzeremo l'intelligenza artificiale per sviluppare funzionalità che eliminino le barriere tecniche.
L'approccio della Wikimedia Foundation è esplicitamente complementare piuttosto che sostitutivo. L'intelligenza artificiale è pensata per supportare, non sostituire, gli autori umani. Nello specifico, l'organizzazione prevede di implementare flussi di lavoro basati sull'intelligenza artificiale per supportare moderatori e pattuglie automatizzando compiti ripetitivi; migliorare la reperibilità delle informazioni su Wikipedia per lasciare più tempo alla considerazione umana, al giudizio e alla costruzione del consenso; automatizzare la traduzione e l'adattamento di argomenti comuni per aiutare i redattori a condividere prospettive o contesti locali; e ampliare l'integrazione di nuovi volontari di Wikipedia attraverso un mentoring guidato. Questo approccio riconosce che l'intelligenza artificiale può svolgere determinati compiti in modo più efficiente degli esseri umani, ma mantiene il controllo curatoriale e l'autorità decisionale degli attori umani. I principi etici guida di questa strategia includono un approccio incentrato sull'uomo che dà priorità all'azione umana, favorisce modelli di intelligenza artificiale open source o open-weight, privilegia la trasparenza e adotta un approccio sfumato al multilinguismo come componente fondamentale di Wikipedia.
Le dinamiche di mercato delle piattaforme di conoscenza digitale sono sempre più influenzate dai sistemi di ricerca basati sull'intelligenza artificiale. Secondo un sondaggio, ChatGPT, Claude e Microsoft Copilot vengono utilizzati più volte al giorno da oltre il 20% degli utenti di ricerca statunitensi. Queste piattaforme di ricerca basate sull'intelligenza artificiale generativa sono già in competizione con i motori di ricerca tradizionali. Uno studio ha dimostrato che i sistemi di ricerca basati sull'intelligenza artificiale privilegiano fonti comunitarie come Wikipedia e Reddit rispetto ai tradizionali contenuti di marca. Questo sposta la creazione di valore dai fornitori di contenuti commerciali verso risorse create in modo collaborativo. Paradossalmente, questo potrebbe rafforzare Wikipedia, poiché la piattaforma diventa la principale fonte di conoscenza per i sistemi di intelligenza artificiale. Allo stesso tempo, c'è il rischio che questi sistemi di intelligenza artificiale dirottino il traffico da Wikipedia presentando le informazioni direttamente nelle loro risposte, senza che gli utenti visitino la fonte originale. Ciò ridurrebbe la visibilità di Wikipedia e, a lungo termine, metterebbe a repentaglio la sua base di donazioni. La Wikimedia Foundation ha affrontato questo problema nel suo documento di pianificazione finanziaria 2024-2025 e sta esplorando modalità per diversificare il suo modello di finanziamento.
Le implicazioni geopolitiche delle infrastrutture di conoscenza monopolizzate sono significative. Quando un'azienda statunitense controlla di fatto l'offerta globale di conoscenza enciclopedica, sorgono dipendenze problematiche per altri stati. L'Unione Europea ha creato strumenti normativi con il Digital Markets Act 2022 per limitare il potere di controllo delle grandi piattaforme digitali. Nell'aprile 2025, la Commissione Europea ha imposto multe di 500 milioni di euro ad Apple e di 200 milioni di euro a Meta per violazioni del Digital Markets Act. Questi casi dimostrano che le contromisure normative contro i monopoli tecnologici sono in aumento. Per Grokipedia, si pone la questione se la piattaforma rientrerebbe nella definizione di controllo delle infrastrutture di conoscenza (DMA) qualora raggiungesse una posizione dominante sul mercato dei servizi enciclopedici. I criteri includono un impatto significativo sul mercato interno, il ruolo di intermediario chiave tra aziende e utenti e una posizione consolidata e duratura. Qualora Grokipedia superasse queste soglie, scatterebbero obblighi in materia di interoperabilità, condivisione dei dati e trasparenza.
Il dibattito scientifico sull'organizzazione ottimale della produzione di conoscenza non offre risposte semplici. La ricerca sull'IA generativa basata sulla comunità sostiene un modello che combina il crowdsourcing con l'apprendimento federato. Il crowdsourcing funge da metodo per raccogliere dati di training da diversi contributori, garantendo così la diversità e la completezza dei set di dati. L'apprendimento federato integra questo approccio preservando la privacy dei dati. Invece di inviare campioni di dati a un server centrale, i singoli clienti eseguono il training locale sui propri dati. Solo i parametri del modello aggiornati vengono aggregati e condivisi, garantendo il controllo e la sicurezza dei dati. Questo approccio enfatizzerebbe la trasparenza, la diversità e il processo decisionale collettivo, che sono centrali per la produzione democratica di conoscenza. Un approccio all'IA generativa aperto e basato sulla comunità è fondamentale perché promuove la diversità, l'equità e l'innovazione, sostiene un'analisi. Quando solo poche aziende detengono il monopolio, possono introdurre, intenzionalmente o meno, pregiudizi, interessi commerciali e preoccupazioni etiche nei sistemi di IA.
L'implementazione di tali sistemi di intelligenza artificiale decentralizzati, tuttavia, si trova ad affrontare sfide considerevoli. Le questioni relative al copyright relative ai contenuti generati dall'intelligenza artificiale rimangono irrisolte. Il relativismo epistemologico si scontra con la saggezza popolare. È necessario sviluppare quadri di moderazione per affrontare pregiudizi e limitazioni nell'output dell'intelligenza artificiale. Queste sfide sono complesse, ma non insormontabili. Fondamentalmente, la società cederà il controllo delle infrastrutture di conoscenza fondamentali a poche aziende, oppure difenderà e svilupperà ulteriormente modelli democratici e guidati dalla comunità. La risposta a questa domanda determinerà il fondamento informativo delle società future. Wikipedia ha dimostrato per oltre due decenni che la produzione collaborativa di conoscenza può funzionare. La piattaforma non è perfetta, ma è trasparente, aperta e non legata ad alcun interesse commerciale. Queste qualità sono inestimabili in un panorama mediatico sempre più polarizzato e permeato dalla disinformazione.
Previsioni economiche: il probabile esito della guerra delle enciclopedie
Nonostante gli ingenti investimenti di capitale, la sostenibilità economica a lungo termine di Grokipedia è discutibile. La piattaforma si trova ad affrontare un problema fondamentale di credibilità. Finché la tecnologia di intelligenza artificiale sottostante produrrà sistematicamente allucinazioni e non verranno implementati meccanismi di garanzia della qualità convincenti, Grokipedia non sarà in grado di guadagnarsi la fiducia degli utenti più esigenti. La fiducia, tuttavia, è la moneta di scambio delle piattaforme enciclopediche. Gli utenti consultano le enciclopedie perché si aspettano informazioni affidabili e verificate. Un'enciclopedia che fornisce spesso informazioni false o fuorvianti perde la sua ragion d'essere. Gli investimenti finanziari non possono risolvere questo problema fondamentale. Una maggiore potenza di calcolo migliora la plausibilità delle spese per l'intelligenza artificiale, ma non elimina il problema strutturale delle allucinazioni. Un maggiore personale per il controllo qualità aumenterebbe i costi e comprometterebbe i promessi guadagni di efficienza dell'intelligenza artificiale.
La dipendenza dai contenuti di Wikipedia presenta un altro dilemma strategico. La promessa di Musk di porre fine a questa dipendenza entro la fine del 2025 è tecnicamente estremamente ambiziosa. Senza l'affidabile base di conoscenza che Wikipedia ha costruito nel corso di decenni, Grokipedia dovrebbe attingere a fonti alternative. Tuttavia, le pubblicazioni scientifiche, gli archivi di notizie e altri database specializzati sono a pagamento o protetti legalmente. Gli ingenti costi di licenza farebbero lievitare ulteriormente le spese. Anche se xAI effettuasse questo investimento, il problema della curatela rimane. Le voci di Wikipedia non sono semplici raccolte di informazioni sulle fonti, ma subiscono un processo discorsivo in cui vengono soppesate diverse prospettive, documentate le controversie e ricercato il consenso. Questo processo non può essere replicato dall'intelligenza artificiale. Un algoritmo può aggregare e riassumere le fonti, ma non può fornire la considerazione sfumata di resoconti concorrenti che caratterizza le voci enciclopediche di alta qualità.
Gli effetti di rete sono controproducenti per Grokipedia. Wikipedia trae vantaggio da un ciclo auto-rinforzante: più lettori attraggono più autori, che creano più contenuti, il che a sua volta attrae più lettori. Questo ciclo ha portato a un'enorme accumulazione di contenuti e comunità in 24 anni. Grokipedia non solo dovrebbe essere tecnologicamente superiore, ma anche superare questi effetti di rete. Storicamente, i concorrenti delle piattaforme ci sono raramente riusciti, anche con tecnologie superiori. L'inerzia delle reti consolidate è enorme. Gli utenti non passano facilmente a nuove piattaforme, soprattutto se la piattaforma consolidata soddisfa le loro esigenze di base. Grokipedia dovrebbe dimostrare un vantaggio qualitativo così evidente da rendere il passaggio attraente nonostante l'abitudine e gli effetti di rete. La realtà attuale, con i contenuti di Wikipedia copiati e i problemi tecnici iniziali, sconsiglia un simile salto di qualità.
La polarizzazione politica della piattaforma ne limita la potenziale portata. Mentre gli utenti conservatori che si sentono non rappresentati da Wikipedia possono passare a Grokipedia, la piattaforma diventa poco attraente per gli utenti che apprezzano la neutralità politica. Le enciclopedie prosperano grazie alla loro pretesa di universalità. Una piattaforma posizionata esplicitamente come alternativa conservatrice abbandona questa pretesa di universalità e diventa una risorsa di nicchia. Ciò limita sia il numero di utenti sia la diversità dei contenuti. Autori con prospettive politiche diverse saranno riluttanti a contribuire a una piattaforma che si posiziona apertamente come un controprogetto ideologico a Wikipedia. Ciò rafforza l'omogeneità ideologica e mina ulteriormente la qualità enciclopedica. Il parallelo con Conservapedia, un'alternativa conservatrice a Wikipedia lanciata nel 2006, è istruttivo. Il progetto esiste ancora, ma non si è mai avvicinato a raggiungere la rilevanza o il numero di utenti di Wikipedia.
I rischi normativi per xAI e Grokipedia sono in aumento. I governi di tutto il mondo stanno inasprendo la regolamentazione dei sistemi di intelligenza artificiale e delle grandi piattaforme tecnologiche. L'UE ha introdotto norme esaustive per le applicazioni di intelligenza artificiale ad alto rischio con l'AI Act. I sistemi di intelligenza artificiale che forniscono informazioni per il processo decisionale pubblico potrebbero essere classificati come ad alto rischio e sarebbero quindi soggetti a rigorosi requisiti di trasparenza, documentazione e gestione del rischio. Anche gli Stati Uniti stanno discutendo di una regolamentazione dell'intelligenza artificiale, sebbene in modo meno esaustivo rispetto all'UE. L'espansione internazionale di Grokipedia potrebbe essere ostacolata da requisiti normativi divergenti. Inoltre, le indagini antitrust rappresentano una minaccia qualora la piattaforma accumulasse potere di mercato. Gli stretti legami di Musk con altre piattaforme dominanti come X potrebbero essere interpretati come un'aggregazione anticoncorrenziale. La stretta integrazione tra X, Tesla, SpaceX e xAI crea potenziali conflitti di interesse e sovvenzioni incrociate che sono problematici dal punto di vista antitrust.
La prognosi più probabile è quindi una coesistenza in cui Wikipedia manterrebbe la sua posizione dominante, mentre Grokipedia condurrebbe un'esistenza di nicchia o sarebbe integrata in altri prodotti xAI. Lo scenario in cui Grokipedia sostituisse Wikipedia sembra irrealistico dalla prospettiva odierna. Troppi problemi strutturali dovrebbero essere risolti e troppi ostacoli strategici superati. Uno scenario più realistico è quello in cui Grokipedia venisse utilizzata come strumento specializzato all'interno dell'ecosistema xAI, ad esempio per contestualizzare le risposte di Grok o come fonte di dati per altre applicazioni di intelligenza artificiale. La pretesa enciclopedica di universalità verrebbe abbandonata a favore dell'integrazione nel più ampio concetto di strategia di intelligenza artificiale di Musk. Nel frattempo, Wikipedia continuerà a evolversi, impiegando selettivamente strumenti di intelligenza artificiale a supporto della comunità e difendendo la sua posizione di piattaforma di conoscenza indipendente e guidata dalla comunità. I prossimi anni diranno se questo scenario si realizzerà o se impreviste innovazioni tecnologiche o mosse strategiche ne modificheranno le dinamiche. La scommessa sulla conoscenza collaborativa umana contro l'intelligenza artificiale capitalizzata è certamente aperta e il suo esito avrà conseguenze sull'organizzazione della conoscenza nelle società digitali ben oltre il futuro delle due piattaforme.
Il tuo partner globale per il marketing e lo sviluppo aziendale
☑️ La nostra lingua commerciale è l'inglese o il tedesco
☑️ NOVITÀ: corrispondenza nella tua lingua nazionale!
Sarei felice di servire te e il mio team come consulente personale.
Potete contattarmi compilando il modulo di contatto o semplicemente chiamandomi al numero +49 89 89 674 804 (Monaco) . Il mio indirizzo email è: wolfenstein ∂ xpert.digital
Non vedo l'ora di iniziare il nostro progetto comune.
☑️ Supporto alle PMI nella strategia, consulenza, pianificazione e implementazione
☑️ Creazione o riallineamento della strategia digitale e digitalizzazione
☑️ Espansione e ottimizzazione dei processi di vendita internazionali
☑️ Piattaforme di trading B2B globali e digitali
☑️ Pioneer Business Development/Marketing/PR/Fiere
La nostra competenza negli Stati Uniti nello sviluppo aziendale, nelle vendite e nel marketing

La nostra competenza negli Stati Uniti nello sviluppo aziendale, nelle vendite e nel marketing - Immagine: Xpert.Digital
Focus del settore: B2B, digitalizzazione (dall'intelligenza artificiale alla realtà aumentata), ingegneria meccanica, logistica, energie rinnovabili e industria
Maggiori informazioni qui:
Un hub di argomenti con approfondimenti e competenze:
- Piattaforma di conoscenza sull'economia globale e regionale, sull'innovazione e sulle tendenze specifiche del settore
- Raccolta di analisi, impulsi e informazioni di base dalle nostre aree di interesse
- Un luogo di competenza e informazione sugli sviluppi attuali nel mondo degli affari e della tecnologia
- Hub tematico per le aziende che vogliono informarsi sui mercati, sulla digitalizzazione e sulle innovazioni del settore























