Opublikowano: 11 czerwca 2025 r. / Aktualizacja od: 11 czerwca 2025 r. - Autor: Konrad Wolfenstein
Wyciekła inicjatywa US ACI: kompleksowe plany Trumpa dotyczące AI.gov od lipca 2025 r. Imaga: xpert.digital
LEADEAD DOMOMAMY ujawniają ambitną strategię AI Trumpa dla administracji federalnej
Wyciek repozytoriów Github pokazują tajne plany Trumpa dotyczące integracji AI w całej AI
Rząd Trumpa planuje dalekosiężną inicjatywę sztucznej inteligencji, która ma rozpocząć się 4 lipca 2025 r. I ustanowi centralną platformę o nazwie AI.gov jako serce integracji AI obejmującej całego rządu. Te ambitne plany były publicznie znane przez wyciekające repozytoria GitHub i sceniczne strony internetowe przed ich usunięciem przez rząd. Inicjatywa znajduje się pod kierunkiem Thomasa Shedda, byłego inżyniera Tesli i sojusznika Elona Muska, i ma na celu wdrożenie „strategii AI-First” w całej administracji federalnej.
Odkrycie i struktura wycieków
Github Repository i Inseting Strona internetowa
Istnienie planowanej inicjatywy AI.gov było znane z krótko publicznie dostępnego repozytorium GitHub od amerykańskiej administracji usług ogólnych (GSA). Repozytorium zniknęło z GitHub po zadaniu pytań, ale zarchiwizowane wersje pozostają dostępne. Usługi transformacji technologii (TTS) GSA pracują na tej stronie AI.gov, która ma służyć jako główny punkt kontaktowy dla agencji rządowych w celu zintegrowania sztucznej inteligencji z ich procesami.
Wczesna wersja strony internetowej hostowana za pośrednictwem GitHub ujawniła szczegóły dotyczące projektu przed jego usunięciem. Witryna inscenizacji pokazała planowaną datę rozpoczęcia 4 lipca i „przyspieszaj innowacje rządowe z AI” (przyspieszenie innowacji rządowych z AI). Ten symboliczny wybór Dnia Niepodległości jako daty rozpoczęcia podkreśla krajowe znaczenie, które sugeruje administracja Trumpa tej inicjatywy.
System trójbałkowy
Planowana platforma AI.gov składa się z trzech głównych elementów, które razem mają na celu utworzenie kompleksowego ekosystemu AI dla administracji federalnej. Bot czatu powinien podjąć różne funkcje, w których dokładne obszary aplikacji nie są jeszcze w pełni zdefiniowane. Ten asystent czatu AI ma na celu pomóc obywatelom i pracownikom rządowym w różnych zapytaniach oraz prawdopodobnie zmniejszyć bezpośredni kontakt z władzami.
Drugim komponentem jest „all-in-One-API”, który umożliwiłby władzom łączenie swoich systemów z modelami Openai, Google i Anthropic. Jednak filmy dokumentalne pokazują, że zaplanowane są również integracje z Bedrock Amazon Web Services i Meta's Llama. Ta strategia API dałaby władzom federalnym dostęp do wiodących modeli AI w sektorze prywatnym bez negocjacji każdego organu oddzielne umowy.
Trzeci element nosi nazwę „konsoli” i jest opisany jako przełomowe narzędzie analizy dla władz -w całości wdrożenia. To narzędzie powinno umożliwić władzom monitorowanie użytkowania sztucznej inteligencji w czasie rzeczywistym i sprawdzenie, które narzędzia wolą pracownicy. Jednak funkcja nadzoru rodzi pytania dotyczące ochrony danych i monitorowania pracowników.
Przywództwo i wizja strategiczna
Thomas Shedd jako siła napędowa
Thomas Shedd, który przejął zarządzanie TTS pod koniec stycznia 2025 r., Jest centralną postacią tej inicjatywy. Jako były menedżer Tesli wnosi doświadczenie jako inżynier oprogramowania i jest opisywany przez Elona Muska jako sojusznik. Shedd znacząco przekazał swoją wizję: chce przewodzić GSA jak start-up oprogramowania i wdrożyć szerokość rządową, strategię automatyzacji wielu zadań, które są obecnie wykonywane przez pracowników federalnych.
We wspólnych nagraniach audio przez spotkania Shadd wyjaśnił swoje plany „agentów kodujących AI”, które mają być udostępnione wszystkim władzom. Jego strategia obejmuje opracowanie narzędzi AI do wykrywania oszustw, przegląd kontraktów rządowych i stworzenie scentralizowanej platformy do analizy kontraktów. Jednak te plany automatyzacji nie są pozbawione kontrowersji, ponieważ eksperci ds. Bezpieczeństwa cybernetycznego ostrzegają, że automatyzacja rządu nie jest porównywalna z automatyzacją samochodu prowadzącego.
Połączenie z Elon Musks Doge
Inicjatywa AI.Gov jest bezpośrednio związana z Departamentem Rządu Elona Muska (DOGE), która uczyniła integrację sztucznej inteligencji z normalnymi funkcjami rządowymi. Shedd jest opisywany jako bliski sojusznik piżma, a jego wizja odzwierciedla Pies Cele w zakresie racjonalizacji i automatyzacji procesów rządowych. Jednak to połączenie rodzi również pytania dotyczące konfliktów interesów, szczególnie z uwagi na doniesienia, że Ki-Chatbot Grok Phoes Team Musk Próbuje wykorzystać w agencjach rządowych.
Pracownicy Doge podobno wezwali Departament Bezpieczeństwa Wewnętrznego do korzystania z GROK, chociaż nie został zatwierdzony do użytku w organu. Praktyki te mogą naruszać konflikt interesów i zagrożone poufne informacje o milionach Amerykanów. Eksperci ostrzegają o możliwej nieuczciwej przewagi konkurencyjnej dla Musks XAI wobec innych dostawców usług AI za pomocą GROK w rządzie federalnym.
Aspekty techniczne i aspekty bezpieczeństwa
Certyfikacja i standardy bezpieczeństwa FEDRAMP
Witryna o inscenizacji wskazuje, że GSA współpracuje z dostawcami certyfikowanych Fedramp. Fedramp (Federalny program zarządzania ryzykiem i autoryzacji) to program rządowy, który oferuje znormalizowane podejścia do oceny bezpieczeństwa, autoryzacji i ciągłego monitorowania produktów i usług w chmurze. Większość modeli wymienionych w dokumentacji API jest znana jako certyfikowana przez rząd Fedramp do użytku rządowego. Stwierdzono jednak, że w dokumentacji interfejsu API pojawia się model spółki firmy bez certyfikacji Fedramp.
Dokument GitHub pokazuje również, że strona internetowa Rankings Model zostanie opublikowana, chociaż kryteria tych recenzji nie były widoczne. Ta funkcja rankingowa może mieć znaczący wpływ na wybór dostawców AI przez agencje rządowe i rodzi pytania dotyczące przejrzystości i uczciwości procesu oceny.
Obawy dotyczące ochrony danych i bezpieczeństwa
Eksperci wyrazili poważne obawy dotyczące powszechnego wprowadzenia systemów AI w rządzie, ponieważ systemy te mogą przetwarzać dane poufne i osobiście możliwe do zidentyfikowania o obywatelach. Szybkie wdrożenie strategii AI-PIRST bez odpowiednich środków bezpieczeństwa może stanowić znaczne zagrożenie dla bezpieczeństwa. Te zmartwienia są zwiększane o raporty dotyczące dostępu do psów do silnie chronionych banków federalnych, które zawierają dane osobowe o milionach Amerykanów.
Raporty są szczególnie niepokojące, że pracownicy DOGE starali się otrzymać dostęp do e -maili od pracowników DHS i poinstruują ich, aby przeszkolili AI w celu zidentyfikowania komunikacji, która wskazuje, że pracownik nie jest „lojalny” wobec politycznej agendy Trumpa. Grupa kilkunastu pracowników w Departamencie Obrony została poinformowana przez menedżera w ciągu ostatnich kilku tygodni, że narzędzie algorytmiczne monitoruje niektóre z działań komputerowych.
Kontekst polityczny i regulacyjny
Podnoszenie przepisów dotyczących licytacji
Inicjatywa AI.gov jest w kontekście szerszej strategii deregulacji administracji Trumpa w dziedzinie sztucznej inteligencji. Trump podniósł już dekret swojego poprzednika Joe Biden o uregulowaniu sztucznej inteligencji. Umiejętność Bidens z 2023 r. Miała na celu zmniejszenie ryzyka AI poprzez zobowiązanie programistów do ujawnienia danych. Zamiast tego administracja Trumpa stosuje „podejście przyjazne dla innowacji”, które wykorzystuje tę technologię, aby wpłynąć na przyszłość operacji rządowych.
Biuro zarządzania i budżetu poinstruowało agencje rządowe, aby podjęły podstawowe protokoły zarządzania ryzykiem dla ważnych aplikacji AI i stworzyli wytyczne dotyczące generatywnej sztucznej inteligencji w nadchodzących miesiącach. Instrukcja niniejsza ujawnia dwie dyrektywy administracji ofertowej: jedną, która zobowiązała władze do wdrożenia środków ochronnych w zakresie praw indywidualnych i zapewnienia przejrzystości, a druga, która miała na celu nałożenie ograniczeń na przejęcia AI.
Opór na poziomie stanu
Pomimo ogólnokrajowych wysiłków deregulacji, opór powstaje na szczeblu federalnym. Prokuratorzy z 40 stanów USA wezwali Kongres do zapobiegania zmianom prawa, który przez dziesięć lat zabroniłby państwom wszelkich regulacji sztucznej inteligencji. W wspólnym liście ostrzegali, że „konsekwencje dalekiego moratorium byłyby znaczne i że znaczące próby zapobiegania znanym szkodom w związku z AI całkowicie zniszczyłyby”.
Prokuratorzy twierdzą, że środek ten wpłynie na „setki istniejących i planowanych przepisów”, które zostały opracowane w celu ochrony przed pornografią generowaną przez AI, deppake dla dezinformacji i połączeń spamowych. Przepisy te były opracowywane przez lata poprzez staranne rozważania i, wraz z zaangażowaniem wielu podmiotów, takich jak konsumenci, przemysł i prawnicy.
Awarie bezpieczeństwa i problemy z komunikacją
Incydent na czat sygnałowy
Równolegle z inicjatywami AI podejrzana komunikacja rządu Trumpa spowodowała zamieszanie. Jeffrey Goldberg, redaktor naczelny „The Atlantic”, poinformował, że został przypadkowo zaproszony do rozrywki grupowej wiodących urzędników państwowych za pośrednictwem sygnału aplikacji Messenger. Mówi się, że tajny czat ma zbliżający się atak na milicję Huthi w Jemenie.
Po publikacji rzecznik Rady Bezpieczeństwa Narodowego potwierdził, że kurs czatu był najprawdopodobniej autentyczny i ogłosił egzamin wewnętrzny. Minister obrony Pete Hegseth, który został wspomniany jako uczestnik rozrywki, później odmówił raportu, po czym Goldberg oskarżył go o kłamstwo w CNN.
Ten podział ilustruje wyzwania związane z radzeniem sobie z poufnymi informacjami w nowym rządzie i rodzi pytania dotyczące bezpieczeństwa informacji, które są szczególnie istotne, ponieważ administracja planuje również kompleksową integrację AI. Demokratyczni politycy krytykowali zachowanie jako „podobne do amatorów” i jedno z „najbardziej niesamowitych obrażeń” tajemnic wojskowych.
Zestaw plany AI.GOV ujawniają ambitną strategię digitalizacji Trumpa dla rządu
Wyciekające plany inicjatywy AI.gov ujawniają zakres ambicji administracji Trumpa dotyczącej integracji AI w rządzie federalnym. Podczas gdy inicjatywa może modernizować usługi rządowe i zwiększyć wydajność, pośpieszne wdrożenie, powiązania z prywatnymi interesami i brak przejrzystości budzą znaczne obawy. Wprowadzenie zaplanowane na 4 lipca będzie ważnym testem, czy rząd może zrealizować swoje ambitne cele AI bez narażania bezpieczeństwa i ochrony danych obywateli.
Inicjatywa jest przykładem szerszego podejścia administracji Trumpa do polityki technologicznej: szybkie innowacje i deregulacja są na pierwszym planie, podczas gdy tradycyjne środki bezpieczeństwa i mechanizmy nadzorcze są zmniejszone. Okaże się, czy to podejście ostatecznie odniesie sukces, ale wczesne znaki wskazują na znaczne wyzwania we wdrażaniu.
Nadaje się do:
Twoja transformacja AI, integracja AI i ekspert w branży platformy AI
☑️Naszym językiem biznesowym jest angielski lub niemiecki
☑️ NOWOŚĆ: Korespondencja w Twoim języku narodowym!
Chętnie będę służyć Tobie i mojemu zespołowi jako osobisty doradca.
Możesz się ze mną skontaktować wypełniając formularz kontaktowy lub po prostu dzwoniąc pod numer +49 89 89 674 804 (Monachium) . Mój adres e-mail to: wolfenstein ∂ xpert.digital
Nie mogę się doczekać naszego wspólnego projektu.