Icona del sito Web Esperto.Digitale

Iniziativa ACI statunitense trapelata: i piani completi di Trump per Ai.gov dal luglio 2025

Iniziativa ACI statunitense trapelata: i piani completi di Trump per Ai.gov dal luglio 2025

Iniziativa di intelligenza artificiale degli Stati Uniti trapelata: i piani completi di Trump per AI.gov da luglio 2025 – Immagine: Xpert.Digital

Documenti trapelati rivelano l'ambiziosa strategia di Trump che punta sull'intelligenza artificiale per il governo federale

I repository GitHub trapelati rivelano i piani segreti di Trump per l'integrazione dell'intelligenza artificiale in tutto il governo.

L'amministrazione Trump sta pianificando un'ampia iniziativa di intelligenza artificiale, il cui lancio è previsto per il 4 luglio 2025, che istituirebbe una piattaforma centrale chiamata AI.gov come cuore dell'integrazione dell'intelligenza artificiale a livello governativo. Questi ambiziosi piani sono stati rivelati attraverso repository GitHub trapelati e siti web di staging, prima di essere rimossi dall'amministrazione. Guidata da Thomas Shedd, ex ingegnere Tesla e alleato di Elon Musk, l'iniziativa mira a implementare una "strategia AI-first" in tutto il governo federale.

Scoperta e struttura dei piani trapelati

Repository GitHub e sito web di staging

L'esistenza dell'iniziativa AI.gov è stata rivelata tramite un repository GitHub, brevemente accessibile al pubblico e appartenente alla General Services Administration (GSA) degli Stati Uniti. Il repository è stato rimosso da GitHub dopo che i rappresentanti dei media hanno sollevato dubbi, ma le versioni archiviate rimangono disponibili. I Technology Transformation Services (TTS) della GSA stanno lavorando a questo sito web AI.gov, che dovrebbe fungere da hub centrale per le agenzie governative per integrare l'intelligenza artificiale nelle loro operazioni.

Una prima versione del sito web, ospitata su GitHub, ha rivelato dettagli sul progetto prima che anch'esso venisse rimosso. Il sito web di preparazione mostrava la data di lancio prevista per il 4 luglio e la missione "Accelerare l'innovazione governativa con l'intelligenza artificiale". Questa scelta simbolica del Giorno dell'Indipendenza come data di lancio sottolinea l'importanza nazionale che l'amministrazione Trump attribuisce a questa iniziativa.

Sistema a tre componenti

La piattaforma AI.gov pianificata è composta da tre componenti principali che, insieme, mirano a formare un ecosistema di intelligenza artificiale completo per il governo federale. È previsto un chatbot per svolgere diverse funzioni, sebbene i suoi ambiti di applicazione esatti non siano ancora completamente definiti. Questo assistente di chat basato sull'intelligenza artificiale è progettato per aiutare cittadini e dipendenti pubblici con diverse richieste e potenzialmente ridurre il contatto diretto con le agenzie governative.

Il secondo componente è un'API "all-in-one" che consentirebbe alle agenzie governative di connettere i propri sistemi ai modelli di OpenAI, Google e Anthropic. La documentazione del codice, tuttavia, mostra che sono previste anche integrazioni con Bedrock di Amazon Web Services e LLaMA di Meta. Questa strategia API consentirebbe alle agenzie federali di accedere ai principali modelli di intelligenza artificiale del settore privato senza richiedere a ciascuna agenzia di negoziare contratti separati.

Il terzo elemento si chiama "Console" ed è descritto come uno strumento di analisi innovativo per implementazioni a livello di agenzia. Questo strumento è progettato per consentire alle agenzie di monitorare l'utilizzo dell'intelligenza artificiale in tempo reale e di individuare gli strumenti preferiti dai dipendenti. Tuttavia, la funzione di monitoraggio solleva interrogativi sulla privacy dei dati e sulla sorveglianza dei dipendenti.

Leadership e visione strategica

Thomas Shedd come forza trainante

Thomas Shedd, che ha assunto la guida della TTS alla fine di gennaio 2025, è la figura centrale dietro questa iniziativa. Ex manager di Tesla, vanta esperienza come ingegnere informatico ed è considerato un alleato di Elon Musk. Shedd ha comunicato chiaramente la sua visione: vuole gestire la GSA come una startup di software e implementare una strategia governativa incentrata sull'intelligenza artificiale per automatizzare molte delle attività attualmente svolte dai dipendenti federali.

Nelle registrazioni audio trapelate delle riunioni, Shedd ha delineato i suoi piani per "agenti di codifica basati sull'intelligenza artificiale" da rendere disponibili a tutte le agenzie governative. La sua strategia include lo sviluppo di strumenti di intelligenza artificiale per il rilevamento delle frodi, la revisione dei contratti governativi e la creazione di una piattaforma centralizzata per l'analisi dei contratti. Tuttavia, questi piani di automazione non sono privi di controversie, poiché gli esperti di sicurezza informatica avvertono che l'automazione della pubblica amministrazione non è paragonabile all'automazione di un'auto a guida autonoma.

Collegamento con DOGE di Elon Musk

L'iniziativa AI.gov è direttamente collegata al Dipartimento per l'Efficienza Governativa (DOGE) di Elon Musk, che ha reso prioritaria l'integrazione dell'IA nelle funzioni governative di routine. Shedd è descritto come uno stretto alleato di Musk e la sua visione rispecchia gli obiettivi di DOGE di semplificare e automatizzare le operazioni governative. Tuttavia, questo collegamento solleva anche interrogativi sui conflitti di interesse, soprattutto alla luce delle segnalazioni secondo cui il team di DOGE starebbe tentando di implementare il chatbot di intelligenza artificiale di Musk, Grok, all'interno delle agenzie governative.

I dipendenti del DOGE avrebbero fatto pressione sui funzionari del Dipartimento per la Sicurezza Interna affinché utilizzassero Grok, nonostante non fosse autorizzato all'uso da parte dell'agenzia. Queste pratiche potrebbero violare le leggi sul conflitto di interessi e compromettere informazioni sensibili su milioni di americani. Gli esperti mettono in guardia da un potenziale vantaggio competitivo sleale per xAI di Musk rispetto ad altri fornitori di servizi di intelligenza artificiale dovuto all'utilizzo di Grok da parte del governo federale.

Aspetti tecnici di implementazione e sicurezza

Certificazione FedRAMP e standard di sicurezza

Il sito web di staging suggerisce che la GSA collabora con provider certificati FedRAMP. FedRAMP (Federal Risk and Authorization Management Program) è un programma governativo che fornisce approcci standardizzati per la valutazione della sicurezza, l'autorizzazione e il monitoraggio continuo di prodotti e servizi cloud. La maggior parte dei modelli elencati nella documentazione API è nota per essere certificata FedRAMP per uso governativo. Tuttavia, è stato notato che nella documentazione API compare un modello dell'azienda Cohere, sebbene Cohere non sembri avere la certificazione FedRAMP.

La documentazione di GitHub mostra anche che il sito web pubblicherà classifiche dei modelli, sebbene i criteri per queste valutazioni non siano chiari. Questa funzionalità di classificazione potrebbe influenzare significativamente la selezione dei fornitori di IA da parte delle agenzie governative e solleva dubbi sulla trasparenza e l'equità del processo di valutazione.

Problemi di protezione e sicurezza dei dati

Gli esperti hanno espresso serie preoccupazioni circa l'adozione diffusa di sistemi di intelligenza artificiale nella pubblica amministrazione, poiché questi sistemi potrebbero elaborare dati sensibili e informazioni personali identificabili sui cittadini. L'implementazione rapida di una strategia incentrata sull'intelligenza artificiale senza adeguate misure di sicurezza potrebbe comportare rischi significativi per la sicurezza. Queste preoccupazioni sono aggravate dalle segnalazioni relative all'accesso del DOGE a fondi federali altamente protetti contenenti informazioni personali di milioni di americani.

Particolarmente inquietanti sono le segnalazioni secondo cui i dipendenti del DOGE avrebbero tentato di accedere alle email dei dipendenti del DHS e avrebbero incaricato il personale di addestrare l'intelligenza artificiale a identificare le comunicazioni che suggerivano che un dipendente non fosse "leale" all'agenda politica di Trump. Un gruppo di circa una dozzina di dipendenti di un'agenzia del Dipartimento della Difesa è stato informato da un supervisore nelle ultime settimane che uno strumento algoritmico sta monitorando alcune delle loro attività informatiche.

Contesto politico e normativo

Abrogazione delle normative Biden

L'iniziativa AI.gov fa parte di una più ampia strategia di deregolamentazione dell'amministrazione Trump in materia di intelligenza artificiale. Trump aveva già revocato un ordine esecutivo del suo predecessore, Joe Biden, che regolamentava l'IA. L'ordine di Biden del 2023 mirava a mitigare i rischi dell'IA imponendo agli sviluppatori di divulgare i dati. L'amministrazione Trump, al contrario, sta perseguendo un "approccio favorevole all'innovazione" che sfrutta questa tecnologia per influenzare il futuro delle operazioni governative.

L'Ufficio di Gestione e Bilancio ha incaricato le agenzie governative di adottare protocolli di base per la gestione del rischio per le applicazioni di intelligenza artificiale più significative e di sviluppare una politica per l'intelligenza artificiale generativa nei prossimi mesi. Questa direttiva abroga due direttive dell'amministrazione Biden: una che impone alle agenzie di implementare misure di salvaguardia dei diritti individuali e di garantire la trasparenza, e un'altra che mira a imporre restrizioni alle acquisizioni di intelligenza artificiale.

Resistenza a livello federale

Nonostante gli sforzi di deregolamentazione a livello nazionale, si sta formando una resistenza a livello statale. I procuratori generali di 40 stati americani hanno chiesto al Congresso di bloccare un emendamento legislativo che impedirebbe agli stati di regolamentare l'intelligenza artificiale per dieci anni. In una lettera congiunta, hanno avvertito che "le conseguenze di una moratoria così radicale sarebbero sostanziali e vanificherebbero completamente i tentativi significativi di prevenire i danni noti legati all'IA".

I procuratori sostengono che questa misura "inciderebbe su centinaia di leggi esistenti e proposte" progettate per proteggere dalla pornografia generata dall'intelligenza artificiale, dai deepfake utilizzati per la disinformazione e dalle chiamate spam. Queste normative, affermano, sono state sviluppate nel corso degli anni attraverso un'attenta valutazione e con il coinvolgimento di numerose parti interessate, tra cui consumatori, industria e avvocati.

Violazioni della sicurezza e problemi di comunicazione

L'incidente della chat di Signal

Parallelamente alle iniziative sull'intelligenza artificiale, un presunto errore di comunicazione da parte dell'amministrazione Trump ha suscitato scalpore. Jeffrey Goldberg, caporedattore di "The Atlantic", ha riferito di essere stato invitato per errore a una chat di gruppo di importanti funzionari governativi tramite l'app di messaggistica Signal. La chat segreta avrebbe riguardato un imminente attacco contro le milizie Houthi in Yemen.

Un portavoce del Consiglio per la Sicurezza Nazionale ha confermato, dopo la pubblicazione, che la cronologia della chat era molto probabilmente autentica e ha annunciato una revisione interna. Il Segretario alla Difesa Pete Hegseth, menzionato come partecipante alla conversazione, ha successivamente smentito la notizia, dopodiché Goldberg lo ha accusato di aver mentito alla CNN.

Questo errore illustra le difficoltà nella gestione di informazioni sensibili nella nuova amministrazione e solleva questioni di sicurezza informatica particolarmente rilevanti, visti i piani dell'amministrazione per un'integrazione completa dell'intelligenza artificiale. I politici democratici hanno criticato il comportamento definendolo "dilettantistico" e una delle "violazioni più incredibili" di segreti militari.

I piani trapelati da AI.gov rivelano l'ambiziosa strategia di digitalizzazione di Trump per il governo

I piani trapelati per l'iniziativa AI.gov rivelano la portata delle ambizioni dell'amministrazione Trump in materia di integrazione dell'IA nel governo federale. Sebbene l'iniziativa abbia il potenziale per modernizzare i servizi governativi e aumentarne l'efficienza, la sua attuazione frettolosa, i legami con interessi privati ​​e la mancanza di trasparenza sollevano notevoli preoccupazioni. Il lancio previsto per il 4 luglio sarà un test cruciale per verificare se l'amministrazione riuscirà a raggiungere i suoi ambiziosi obiettivi in ​​materia di IA senza compromettere la sicurezza e la privacy dei suoi cittadini.

Questa iniziativa esemplifica l'approccio più ampio dell'amministrazione Trump alla politica tecnologica: l'innovazione rapida e la deregolamentazione sono prioritarie, mentre le tradizionali misure di sicurezza e i meccanismi di controllo vengono ridotti. Resta da vedere se questo approccio avrà successo, ma le prime indicazioni indicano significative sfide di attuazione.

Adatto a:

 

La tua trasformazione AI, l'integrazione dell'IA ed esperto del settore della piattaforma AI

☑️ La nostra lingua commerciale è l'inglese o il tedesco

☑️ NOVITÀ: corrispondenza nella tua lingua nazionale!

 

Konrad Wolfenstein

Sarei felice di servire te e il mio team come consulente personale.

Potete contattarmi compilando il modulo di contatto o semplicemente chiamandomi al numero +49 89 89 674 804 (Monaco) . Il mio indirizzo email è: wolfenstein xpert.digital

Non vedo l'ora di iniziare il nostro progetto comune.

 

 

☑️ Supporto alle PMI nella strategia, consulenza, pianificazione e implementazione

☑️ Creazione o riallineamento della strategia AI

☑️ Sviluppo aziendale pionieristico

Esci dalla versione mobile