Pubblicato l'11 giugno 2025 / Aggiornamento dall'11 giugno 2025 - Autore: Konrad Wolfenstein
Iniziativa ACI statunitense trapelata: i piani completi di Trump per Ai.gov da luglio 2025-Image: Xpert.Digital
I documenti di salvataggio rivelano l'ambiziosa strategia Ai-First di Trump per l'amministrazione federale
I repository di GitHub trapelati mostrano i piani segreti di Trump per l'integrazione dell'IA a livello governativo
Il governo di Trump sta pianificando un'iniziativa di intelligenza artificiale di vasta portata, che dovrebbe iniziare il 4 luglio 2025 e avrebbe istituito una piattaforma centrale chiamata ai.gov come cuore dell'integrazione dell'IA a livello di governo. Questi piani ambiziosi erano noti pubblicamente da repository di GitHub trapelati e messo in scena siti Web prima che fossero rimossi dal governo. L'iniziativa è sotto la direzione di Thomas Shedd, ex ingegnere Tesla e alleato di Elon Musk, e mira a attuare una "strategia AI-first" in tutta l'amministrazione federale.
Scoperta e struttura dei piani trapelati
Sito Web di repository e staging github
L'esistenza dell'iniziativa AI.Gov prevista era nota per un repository GitHub breve accessibile pubblicamente dalla US General Services Administration (GSA). Il repository è scomparso da GitHub dopo che i rappresentanti dei media hanno posto domande, ma le versioni archiviate rimangono disponibili. I servizi di trasformazione della tecnologia (TTS) del lavoro GSA su questo sito Web AI.GoV, che è destinato a servire da punto di contatto centrale per le agenzie governative per integrare l'IA nei loro processi.
Una prima versione del sito Web ospitata tramite GitHub ha rivelato dettagli sul progetto prima che fosse rimosso. Il sito Web di messa in scena ha mostrato la data di inizio prevista il 4 luglio e "accelerare l'innovazione del governo con AI" (accelerazione dell'innovazione del governo con AI). Questa scelta simbolica del Giorno dell'Indipendenza come data di inizio sottolinea l'importanza nazionale che suggerisce l'amministrazione Trump di questa iniziativa.
Sistema a tre componenti
La piattaforma AI.Gov pianificata è composta da tre componenti principali, che insieme hanno lo scopo di formare un ecosistema di intelligenza artificiale completo per l'amministrazione federale. Un bot di chat dovrebbe intraprendere diverse funzioni, per cui le aree esatte di applicazione non sono ancora completamente definite. Questo assistente di chat di intelligenza artificiale ha lo scopo di aiutare cittadini e impiegati del governo con varie indagini e possibilmente a ridurre il contatto diretto con le autorità.
Il secondo componente è un "All-in-one-API" che consentirebbe alle autorità di collegare i loro sistemi con modelli di Openai, Google e Antropic. Tuttavia, i documentari in codice mostrano che sono inoltre previste integrazioni con il substrato roccioso di Amazon Web Services e il lama di Meta. Questa strategia API darebbe alle autorità federali l'accesso ai principali modelli di intelligenza artificiale nel settore privato senza negoziare ogni autorità contratti separati.
Il terzo elemento porta il nome "console" ed è descritto come uno strumento di analisi rivoluzionario per le autorità implementazioni a livello di autorità. Questo strumento dovrebbe consentire alle autorità di monitorare l'uso dell'IA in tempo reale e di vedere quali strumenti preferiscono i dipendenti. Tuttavia, la funzione di sorveglianza solleva domande sulla protezione dei dati e sul monitoraggio dei dipendenti.
Leadership e visione strategica
Thomas Shedd come forza trainante
Thomas Shedd, che ha assunto la gestione del TTS alla fine di gennaio 2025, è la figura centrale dietro questa iniziativa. Come ex manager di Tesla, porta esperienza come ingegnere del software ed è descritto come alleato da Elon Musk. Shedd ha comunicato in modo significativo la sua visione: vuole guidare la GSA come una start-up del software e implementare una larghezza del governo, la prima strategia AI per l'automazione di molti compiti che sono attualmente svolti dai dipendenti federali.
Nelle registrazioni audio congiunte tramite riunioni, Shedd ha spiegato i suoi piani per "agenti di codifica AI", che devono essere resi disponibili per tutte le autorità. La sua strategia include lo sviluppo di strumenti di intelligenza artificiale per il rilevamento delle frodi, la revisione dei contratti governativi e la creazione di una piattaforma centralizzata per l'analisi dei contratti. Tuttavia, questi piani di automazione non sono privi di controversie, poiché gli esperti di sicurezza informatica avvertono che l'automazione del governo non è paragonabile all'automazione di un'auto a guida autonoma.
Collegamento a Elon Musks Doge
L'iniziativa AI.Gov è direttamente correlata al Dipartimento di efficienza del governo di Elon Musk (DOGE), che ha trasformato l'integrazione dell'IA nelle normali funzioni del governo. Shedd è descritto come uno stretto alleato di muschio e la sua visione riflette gli obiettivi dei cani per razionalizzare e automatizzare i processi governativi. Tuttavia, questa connessione solleva anche domande sui conflitti di interesse, in particolare alla luce dei rapporti secondo cui il Ki-Chatbot Grok della squadra di Doges Musk cerca di utilizzare nelle agenzie governative.
I dipendenti di Doge presumibilmente hanno esortato il Dipartimento della sicurezza nazionale a utilizzare Grok, sebbene non fosse approvato per l'uso nell'autorità. Queste pratiche potrebbero violare il conflitto di interessi e mettere in pericolo informazioni sensibili su milioni di americani. Gli esperti avvertono di un possibile vantaggio competitivo ingiusto per i muschi XAI nei confronti di altri fornitori di servizi di intelligenza artificiale utilizzando Grok nel governo federale.
Aspetti tecnici di implementazione e sicurezza
Standard di certificazione e sicurezza Fedramp
Il sito Web di staging indica che la GSA funziona con provider certificati FEDRAMP. FEDRAMP (Federal Risk and Authorization Management Program) è un programma governativo che offre approcci standardizzati per la valutazione della sicurezza, l'autorizzazione e il monitoraggio continuo di prodotti e servizi cloud. La maggior parte dei modelli elencati nella documentazione API è noto per essere certificato Fedramp per uso del governo. Tuttavia, è stato scoperto che un modello dell'azienda Cohere appare nella documentazione API senza che Cohere sembri avere la certificazione FEDRAMP.
Il documentario di GitHub mostra anche che il sito Web delle classifiche dei modelli pubblicherà, sebbene i criteri per queste recensioni non fossero evidenti. Questa funzione di classificazione potrebbe avere un impatto significativo sulla selezione dei fornitori di intelligenza artificiale da parte delle agenzie governative e solleva domande sulla trasparenza e l'equità del processo di valutazione.
Protezione dei dati e problemi di sicurezza
Gli esperti hanno espresso preoccupazioni significative sull'introduzione diffusa dei sistemi di intelligenza artificiale nel governo, poiché questi sistemi potrebbero elaborare dati riservati e informazioni identificabili personalmente sui cittadini. La rapida implementazione di una strategia AI-First senza precauzioni di sicurezza adeguate potrebbe creare notevoli rischi per la sicurezza. Queste preoccupazioni sono aumentate dai rapporti sull'accesso ai cani a banche federali fortemente protette che contengono informazioni personali su milioni di americani.
I rapporti sono particolarmente preoccupanti del fatto che i dipendenti di DOGE abbiano cercato di ricevere l'accesso alle e -mail dai dipendenti DHS e istruirli a formare l'IA per identificare la comunicazione che indica che un dipendente non è "fedele" all'agenda politica di Trump. Un gruppo di circa una dozzina di lavoratori in un dipartimento della difesa è stato informato da un manager nelle ultime settimane che uno strumento algoritmico monitora alcune delle sue attività informatiche.
Contesto politico e normativo
Sollevamento delle regolamenti sulle offerte
L'iniziativa AI.Gov è nel contesto di una più ampia strategia di deregolamentazione dell'amministrazione Trump nel campo dell'intelligenza artificiale. Trump ha già sollevato un decreto del suo predecessore Joe Biden per regolare l'intelligenza artificiale. L'accordo di bidens del 2023 mirava a ridurre i rischi di intelligenza artificiale obbligando gli sviluppatori a divulgare i dati. Invece, l'amministrazione Trump persegue un "approccio adatto all'innovazione" che utilizza questa tecnologia per influenzare il futuro delle operazioni governative.
L'Ufficio di gestione e bilancio ha incaricato le agenzie governative di assumere protocolli di gestione dei rischi di base per importanti applicazioni di intelligenza artificiale e di creare una linea guida per l'IA generativa nei prossimi mesi. Questa istruzione rivela due direttive dell'amministrazione dell'offerta: una che ha obbligato le autorità ad attuare misure protettive per i diritti individuali e garantire la trasparenza e un'altra che mirava a imporre restrizioni alle acquisizioni di intelligenza artificiale.
Resistenza a livello statale
Nonostante gli sforzi deregolativi a livello nazionale, la resistenza si forma a livello federale. I pubblici ministeri di 40 stati statunitensi hanno chiesto al Congresso di prevenire un cambiamento nella legge che proibirebbe gli stati di tutta la regolamentazione dell'intelligenza artificiale per dieci anni. In una lettera congiunta, hanno avvertito che "le conseguenze di una moratoria di distanza sarebbe considerevole e che i tentativi significativi di prevenire danni noti in relazione all'IA avrebbero completamente distrutto".
I pubblici ministeri sostengono che questa misura avrebbe influito su "centinaia di leggi esistenti e pianificate", che sono state sviluppate per proteggere dalla pornografia generata dall'IA, DeepPake per le chiamate di disinformazione e spam. Questi regolamenti sono stati sviluppati nel corso degli anni attraverso accurate considerazioni e, con il coinvolgimento di numerosi attori come consumatori, industria e avvocati.
Distruggi sulla sicurezza e problemi di comunicazione
L'incidente della chat del segnale
Parallelamente alle iniziative di intelligenza artificiale, una sospetta arco di comunicazione del governo di Trump ha causato turbolenze. Jeffrey Goldberg, caporedattore di "The Atlantic", ha riferito di essere stato accidentalmente invitato a un intrattenimento di gruppo di importanti funzionari governativi tramite il segnale dell'app Messenger. Si dice che la chat segreta abbia un attacco imminente alla milizia di Huthi nello Yemen.
Dopo la pubblicazione, un portavoce del National Security Council ha confermato che il corso di chat era molto probabilmente autentico e ha annunciato un esame interno. Il ministro della Difesa Pete Hegseth, che è stato menzionato come partecipante all'intrattenimento, in seguito ha negato il rapporto, dopodiché Goldberg lo ha accusato la menzogna alla CNN.
Questa ripartizione illustra le sfide della gestione delle informazioni sensibili nel nuovo governo e solleva domande sulla sicurezza delle informazioni che sono particolarmente rilevanti perché l'amministrazione sta anche pianificando un'integrazione completa dell'IA. I politici democratici hanno criticato il comportamento come "amatoriale" e una delle "lesioni più incredibili" dei segreti militari.
I piani di AI.Gov hanno rivelato la strategia di digitalizzazione ambiziosa di Trump per il governo
I piani trapelati per l'iniziativa AI.Gov rivelano l'entità delle ambizioni dell'amministrazione Trump per l'integrazione dell'IA nel governo federale. Mentre l'iniziativa ha il potenziale per modernizzare i servizi governativi e aumentare l'efficienza, l'implementazione affrettata, le connessioni con gli interessi privati e la mancanza di trasparenza sollevano notevoli preoccupazioni. L'introduzione prevista per il 4 luglio sarà un test importante per se il governo può realizzare i suoi ambiziosi obiettivi di intelligenza artificiale senza mettere in pericolo la sicurezza e la protezione dei dati dei cittadini.
L'iniziativa è un esempio dell'approccio più ampio dell'amministrazione Trump alla politica tecnologica: l'innovazione rapida e la deregolamentazione sono in primo piano, mentre le misure di sicurezza tradizionali e i meccanismi di vigilanza sono ridotti. Resta da vedere se questo approccio alla fine avrà successo, ma i primi segni indicano notevoli sfide nell'attuazione.
Adatto a:
La tua trasformazione AI, l'integrazione dell'IA ed esperto del settore della piattaforma AI
☑️ La nostra lingua commerciale è l'inglese o il tedesco
☑️ NOVITÀ: corrispondenza nella tua lingua nazionale!
Sarei felice di servire te e il mio team come consulente personale.
Potete contattarmi compilando il modulo di contatto o semplicemente chiamandomi al numero +49 89 89 674 804 (Monaco) . Il mio indirizzo email è: wolfenstein ∂ xpert.digital
Non vedo l'ora di iniziare il nostro progetto comune.