Publié le: 11 juin 2025 / mise à jour de: 11 juin 2025 - Auteur: Konrad Wolfenstein
Initiative ACI US FUKED: Plans complets de Trump pour AI.gov à partir de juillet 2025-IMAGE: Xpert.Digital
Les documents de feuilles révèlent une stratégie ambitieuse de l'IA-première pour l'administration fédérale
Les référentiels de Github divulgués montrent les plans secrètes de Trump pour l'intégration de l'IA à l'échelle du gouvernement
Le gouvernement Trump prévoit une initiative d'intelligence artificielle de grande envergure, qui devrait commencer le 4 juillet 2025 et établirait une plate-forme centrale appelée AI.gov comme le cœur de l'intégration de l'IA à l'échelle du gouvernement. Ces plans ambitieux ont été connus publiquement par des référentiels de Github divulgués et des sites Web de mise en scène avant d'être retirés par le gouvernement. L'initiative est sous la direction de Thomas Shedd, ancienne ingénieur de Tesla et allié d'Elon Musk, et vise à mettre en œuvre une «stratégie IA-First» dans toute l'administration fédérale.
Découverte et structure des plans divulgués
Site Web de référentiel et de mise en scène github
L'existence de l'initiative AI.gov prévue était connue pour un référentiel Github brièvement accessible au public de la US General Services Administration (GSA). Le référentiel a disparu de GitHub après que les représentants des médias ont posé des questions, mais des versions archivées restent disponibles. Les services de transformation technologique (TTS) de la GSA travaillent sur ce site AI.gov, qui est destiné à servir de point de contact central pour que les agences gouvernementales intégrent l'IA dans leurs processus.
Une première version du site Web hébergé via Github a révélé des détails sur le projet avant qu'il ne soit également supprimé. Le site Web de mise en scène a montré la date de début prévue le 4 juillet et «l'accélération de l'innovation gouvernementale avec l'IA» (accélération de l'innovation gouvernementale avec l'IA). Ce choix symbolique du jour de l'indépendance à la date de début souligne l'importance nationale que l'administration Trump de cette initiative suggère.
Système à trois composants
La plate-forme AI.gov prévue se compose de trois composantes principales, qui ensemble sont destinées à former un écosystème d'IA complet pour l'administration fédérale. Un bot de discussion doit assumer différentes fonctions, selon lesquelles les domaines exacts de l'application ne sont pas encore entièrement définis. Cet assistant de chat IA est destiné à aider les citoyens et les employés du gouvernement dans diverses demandes et éventuellement réduire les contacts directs avec les autorités.
Le deuxième composant est un «API tout-en-un» qui permettrait aux autorités de connecter leurs systèmes avec des modèles d'OpenAI, Google et Anthropic. Cependant, les documentaires de code montrent que les intégrations avec le fondement d'Amazon Web Services et le lama de META sont également prévues. Cette stratégie d'API donnerait aux autorités fédérales l'accès aux principaux modèles d'IA dans le secteur privé sans négocier chaque autorité de contrats distincts.
Le troisième élément porte le nom de «console» et est décrit comme un outil d'analyse révolutionnaire pour les implémentations à l'échelle des autorités. Cet outil devrait permettre aux autorités de surveiller l'utilisation de l'IA en temps réel et de voir quels outils préfèrent les employés. Cependant, la fonction de surveillance soulève des questions sur la protection des données et la surveillance des employés.
Leadership et vision stratégique
Thomas Shedd comme un moteur
Thomas Shedd, qui a repris la gestion du TTS fin janvier 2025, est la figure centrale de cette initiative. En tant qu'ancien manager de Tesla, il apporte une expérience en tant qu'ingénieur logiciel et est décrit comme un allié par Elon Musk. Shedd a considérablement communiqué sa vision: il veut diriger la GSA comme une start-up logicielle et mettre en œuvre une stratégie de largeur du gouvernement, d'abord pour l'automatisation de nombreuses tâches qui sont actuellement effectuées par des employés fédéraux.
Dans les enregistrements audio conjoints par des réunions, Shedd a expliqué ses plans pour les «agents de codage de l'IA», qui doivent être mis à disposition pour toutes les autorités. Sa stratégie comprend le développement d'outils d'IA pour la détection de fraude, l'examen des contrats gouvernementaux et pour créer une plate-forme centralisée pour l'analyse des contrats. Cependant, ces plans d'automatisation ne sont pas sans controverse, car les experts en cybersécurité avertissent que l'automatisation du gouvernement n'est pas comparable à l'automatisation d'une voiture auto-conduite.
Connexion avec Elon Musks Doge
L'initiative AI.gov est directement liée au Département d'efficacité du gouvernement d'Elon Musk (DOGE), qui a fait de l'intégration de l'IA en fonctions gouvernementales normales. Shedd est décrit comme un proche allié de musc, et sa vision reflète les objectifs de Doges pour rationaliser et automatiser les processus gouvernementaux. Cependant, ce lien soulève également des questions sur les conflits d'intérêts, en particulier en vue des rapports selon lesquels Ki-Chatbot Grok de Teamk Musk de Doges Musk essaie d'utiliser dans les agences gouvernementales.
Les employés de Doge auraient exhorté le ministère de la Sécurité intérieure à utiliser Grok, bien qu'il n'ait pas été approuvé pour une utilisation dans l'autorité. Ces pratiques pourraient violer les conflits d'intérêts et mettre en danger des informations sensibles sur des millions d'Américains. Les experts mettent en garde contre un éventuel avantage concurrentiel injuste pour les muscs XAI envers les autres fournisseurs de services d'IA en utilisant Grok dans le gouvernement fédéral.
Aspects techniques de mise en œuvre et de sécurité
Normes de certification et de sécurité FedRamp
Le site Web de mise en scène indique que la GSA travaille avec les fournisseurs certifiés FedRamp. FedRamp (Federal Risk and Authorization Management Program) est un programme gouvernemental qui offre des approches standardisées pour l'évaluation de la sécurité, l'autorisation et la surveillance continue des produits et services cloud. La plupart des modèles répertoriés dans la documentation de l'API sont connus pour être certifiés par Fedramp pour un usage gouvernemental. Cependant, il a été constaté qu'un modèle de la société Cohere apparaît dans la documentation de l'API sans que Cohere ne semble avoir la certification FedRamp.
Le documentaire GitHub montre également que le site Web du classement des modèles publiera, bien que les critères de ces critiques n'étaient pas apparents. Cette fonction de classement pourrait avoir un impact significatif sur la sélection des fournisseurs d'IA par les agences gouvernementales et soulève des questions sur la transparence et l'équité du processus d'évaluation.
Problèmes de protection des données et de sécurité
Les experts ont exprimé des préoccupations importantes concernant l'introduction généralisée des systèmes d'IA au sein du gouvernement, car ces systèmes pourraient traiter des données confidentielles et des informations personnellement identifiables sur les citoyens. La mise en œuvre rapide d'une stratégie IA-First sans précautions de sécurité adéquates pourrait créer des risques de sécurité considérables. Ces inquiétudes sont augmentées par des rapports sur l'accès aux doges à des banques fédérales fortement protégées qui contiennent des informations personnelles sur des millions d'Américains.
Les rapports sont particulièrement préoccupants que les employés de Doge ont essayé de recevoir accès aux e-mails des employés du DHS et leur ont demandé de former l'IA pour identifier la communication qui indique qu'un employé n'est pas «fidèle» à l'agenda politique de Trump. Un groupe d'une douzaine de travailleurs dans une autorité du ministère de la Défense a été informé par un gestionnaire au cours des dernières semaines qu'un outil algorithmique surveille certaines de ses activités informatiques.
Contexte politique et réglementaire
Règlement sur les soumissionnaires
L'initiative ai.gov est dans le contexte d'une stratégie de déréglementation plus large de l'administration Trump dans le domaine de l'intelligence artificielle. Trump a déjà levé un décret de son prédécesseur Joe Biden pour réguler l'intelligence artificielle. L'arrangement de Bidens de 2023 visait à réduire les risques d'IA en obligeant les développeurs à divulguer des données. Au lieu de cela, l'administration Trump poursuit une «approche adaptée à l'innovation» qui utilise cette technologie pour influencer l'avenir des opérations gouvernementales.
Le Bureau de la gestion et du budget a demandé aux agences gouvernementales de prendre en charge les protocoles de gestion des risques de base pour des applications d'IA importantes et de créer une ligne directrice pour une IA générative dans les prochains mois. Cette instruction révèle deux directives de l'administration des offres: l'une qui a obligé les autorités à mettre en œuvre des mesures de protection pour les droits individuels et à assurer la transparence, et une autre qui visait à imposer des restrictions aux acquisitions d'IA.
Résistance au niveau de l'État
Malgré les efforts de déréglementation à l'échelle nationale, la résistance est formée au niveau fédéral. Les procureurs de 40 États américains ont appelé le Congrès à empêcher un changement dans la loi qui interdire les États de toutes les réglementations de l'intelligence artificielle pendant dix ans. Dans une lettre conjointe, ils ont averti que "les conséquences d'un moratoire de grande envergure seraient considérables et que des tentatives significatives pour empêcher les dommages connus en relation avec l'IA détruiraient complètement".
Les procureurs soutiennent que cette mesure affecterait «des centaines de lois existantes et planifiées», qui ont été développées pour protéger contre la pornographie générée par l'IA, Deeppake pour la désinformation et les appels de spam. Ces réglementations ont été élaborées au fil des ans grâce à des considérations attentives et, avec l'implication de nombreux acteurs tels que les consommateurs, l'industrie et les avocats.
Répartis de sécurité et problèmes de communication
L'incident de chat de signal
Parallèlement aux initiatives de l'IA, une durée de communication présumée du gouvernement Trump a provoqué des troubles. Jeffrey Goldberg, rédacteur en chef de "The Atlantic", a rapporté qu'il avait été accidentellement invité à un divertissement de groupe de principaux représentants du gouvernement via le signal de l'application Messenger. Le chat secret aurait une attaque imminente contre la milice Huthi au Yémen.
Après la publication, un porte-parole du Conseil de sécurité nationale a confirmé que le cours de chat était très probablement authentique et a annoncé un examen interne. Le ministre de la Défense, Pete Hegseth, qui a été mentionné comme participant au divertissement, a ensuite nié le rapport, après quoi Goldberg l'a accusé du mensonge à CNN.
Cette ventilation illustre les défis du traitement des informations sensibles dans le nouveau gouvernement et soulève des questions sur la sécurité de l'information qui sont particulièrement pertinentes parce que l'administration prévoit également une intégration complète de l'IA. Les politiciens démocrates ont critiqué le comportement comme «comme amateur» et l'une des «blessures les plus incroyables» des secrets militaires.
Les plans AI.gov leactés révèlent une stratégie de numérisation ambitieuse de Trump pour le gouvernement
Les plans divulgués pour l'initiative AI.gov révèlent l'étendue des ambitions de l'administration Trump pour l'intégration de l'IA dans le gouvernement fédéral. Bien que l'initiative ait le potentiel de moderniser les services gouvernementaux et d'augmenter l'efficacité, la mise en œuvre hâtive, les liens avec les intérêts privés et le manque de transparence soulèvent des préoccupations considérables. L'introduction prévue pour le 4 juillet sera un test important pour savoir si le gouvernement peut réaliser ses objectifs ambitieux de l'IA sans mettre en danger la sécurité et la protection des données des citoyens.
L'initiative est un exemple de l'approche plus large de l'administration Trump à la politique technologique: l'innovation rapide et la déréglementation sont au premier plan, tandis que les mesures de sécurité traditionnelles et les mécanismes de supervision sont réduits. Il reste à voir si cette approche sera finalement réussie, mais les premiers signes indiquent des défis considérables dans la mise en œuvre.
Convient à:
Votre transformation d'IA, l'intégration de l'IA et l'expert de l'industrie de la plate-forme d'IA
☑️ Notre langue commerciale est l'anglais ou l'allemand
☑️ NOUVEAU : Correspondance dans votre langue nationale !
Je serais heureux de vous servir, vous et mon équipe, en tant que conseiller personnel.
Vous pouvez me contacter en remplissant le formulaire de contact ou simplement m'appeler au +49 89 89 674 804 (Munich) . Mon adresse e-mail est : wolfenstein ∂ xpert.digital
J'attends avec impatience notre projet commun.