
Wyciek inicjatywy USA w zakresie sztucznej inteligencji: kompleksowe plany Trumpa dotyczące AI.gov od lipca 2025 r. – Zdjęcie: Xpert.Digital
Wyciekłe dokumenty ujawniają ambitną strategię Trumpa dla rządu federalnego, stawiającą sztuczną inteligencję na pierwszym miejscu
Wyciekłe repozytoria GitHub ujawniają tajne plany Trumpa dotyczące integracji sztucznej inteligencji z całym rządem.
Administracja Trumpa planuje szeroko zakrojoną inicjatywę w zakresie sztucznej inteligencji, której start zaplanowano na 4 lipca 2025 roku. Jej celem jest utworzenie centralnej platformy AI.gov, która miałaby stać się sercem integracji AI w całym rządzie. Te ambitne plany zostały ujawnione za pośrednictwem wycieków z repozytoriów GitHub i stron testowych, zanim zostały usunięte przez administrację. Inicjatywa, kierowana przez Thomasa Shedda, byłego inżyniera Tesli i sojusznika Elona Muska, ma na celu wdrożenie „strategii AI-first” w całym rządzie federalnym.
Odkrycie i struktura ujawnionych planów
Repozytorium GitHub i witryna testowa
Istnienie planowanej inicjatywy AI.gov zostało ujawnione za pośrednictwem krótko dostępnego publicznie repozytorium GitHub należącego do amerykańskiej General Services Administration (GSA). Repozytorium zostało usunięte z GitHub po tym, jak przedstawiciele mediów zgłosili pytania, ale archiwalne wersje nadal są dostępne. Dział Technology Transformation Services (TTS) GSA pracuje nad stroną internetową AI.gov, która ma służyć jako centralny punkt dla agencji rządowych, umożliwiający im integrację sztucznej inteligencji z ich działalnością.
Wczesna wersja strony internetowej, hostowana na GitHubie, ujawniła szczegóły projektu, zanim również została usunięta. Strona testowa wskazywała planowaną datę uruchomienia projektu na 4 lipca oraz misję „Przyspieszenie innowacji rządowych dzięki sztucznej inteligencji”. Symboliczny wybór Dnia Niepodległości jako daty uruchomienia podkreśla wagę, jaką administracja Trumpa przywiązuje do tej inicjatywy w skali kraju.
System trójskładnikowy
Planowana platforma AI.gov składa się z trzech głównych komponentów, które razem mają stworzyć kompleksowy ekosystem sztucznej inteligencji (AI) dla rządu federalnego. Planowany jest chatbot, który będzie wykonywał różne funkcje, choć jego dokładne obszary zastosowania nie zostały jeszcze w pełni zdefiniowane. Ten asystent czatu oparty na AI ma pomagać obywatelom i pracownikom rządowym w udzielaniu odpowiedzi na różnorodne pytania, a także potencjalnie ograniczać bezpośredni kontakt z agencjami rządowymi.
Drugim komponentem jest „interfejs API typu „wszystko w jednym”, który umożliwiłby agencjom rządowym łączenie swoich systemów z modelami OpenAI, Google i Anthropic. Dokumentacja kodu pokazuje jednak, że planowane są również integracje z platformą Bedrock firmy Amazon Web Services oraz LLaMA firmy Meta. Ta strategia API zapewniłaby agencjom federalnym dostęp do wiodących modeli AI sektora prywatnego bez konieczności negocjowania oddzielnych umów.
Trzeci element nosi nazwę „Console” i jest opisywany jako przełomowe narzędzie analityczne do wdrożeń w całej agencji. Narzędzie to ma umożliwić agencjom monitorowanie wykorzystania sztucznej inteligencji w czasie rzeczywistym i sprawdzanie, które narzędzia preferują pracownicy. Jednak funkcja monitorowania budzi wątpliwości dotyczące prywatności danych i nadzoru nad pracownikami.
Przywództwo i wizja strategiczna
Thomas Shedd jako siła napędowa
Thomas Shedd, który objął kierownictwo nad TTS pod koniec stycznia 2025 roku, jest centralną postacią stojącą za tą inicjatywą. Były menedżer Tesli, wnosi doświadczenie jako inżynier oprogramowania i jest uważany za sojusznika Elona Muska. Shedd jasno wyraził swoją wizję: chce zarządzać GSA jak startupem programistycznym i wdrożyć ogólnokrajową strategię opartą na sztucznej inteligencji, aby zautomatyzować wiele zadań obecnie wykonywanych przez pracowników federalnych.
W ujawnionych nagraniach audio ze spotkań, Shedd przedstawił swoje plany udostępnienia „agentów kodujących AI” wszystkim agencjom rządowym. Jego strategia obejmuje opracowanie narzędzi AI do wykrywania oszustw, weryfikację kontraktów rządowych oraz stworzenie scentralizowanej platformy do analizy kontraktów. Jednak te plany automatyzacji nie są pozbawione kontrowersji, ponieważ eksperci ds. cyberbezpieczeństwa ostrzegają, że automatyzacja administracji publicznej nie jest porównywalna z automatyzacją samochodu autonomicznego.
Połączenie z DOGE Elona Muska
Inicjatywa AI.gov jest bezpośrednio powiązana z Departamentem Efektywności Rządowej (DOGE) Elona Muska, który uznał integrację sztucznej inteligencji z rutynowymi funkcjami rządowymi za priorytet. Shedd jest opisywany jako bliski sojusznik Muska, a jego wizja odzwierciedla cele DOGE, polegające na usprawnieniu i automatyzacji działań rządowych. Jednak to powiązanie rodzi również pytania o konflikt interesów, zwłaszcza w świetle doniesień, że zespół DOGE próbuje wdrożyć w agencjach rządowych chatbota opartego na sztucznej inteligencji, Groka.
Pracownicy DOGE rzekomo wywierali presję na urzędników Departamentu Bezpieczeństwa Wewnętrznego, aby korzystali z Groka, mimo że nie był on autoryzowany do użytku przez agencję. Praktyki te mogą naruszać przepisy dotyczące konfliktu interesów i narażać na szwank poufne informacje milionów Amerykanów. Eksperci ostrzegają przed potencjalną nieuczciwą przewagą konkurencyjną xAI Muska nad innymi dostawcami usług AI z powodu korzystania z Groka przez rząd federalny.
Wdrożenie techniczne i aspekty bezpieczeństwa
Certyfikacja FedRAMP i standardy bezpieczeństwa
Strona internetowa programu testowego sugeruje, że GSA współpracuje z dostawcami posiadającymi certyfikat FedRAMP. FedRAMP (Federal Risk and Authorization Management Program) to program rządowy, który zapewnia ujednolicone podejście do oceny bezpieczeństwa, autoryzacji i ciągłego monitorowania produktów i usług w chmurze. Większość modeli wymienionych w dokumentacji API posiada certyfikat FedRAMP do użytku rządowego. Zauważono jednak, że model firmy Cohere pojawia się w dokumentacji API, a Cohere najwyraźniej nie posiada certyfikatu FedRAMP.
Dokumentacja GitHub pokazuje również, że strona będzie publikować rankingi modeli, choć kryteria ich przyznawania nie były jasne. Ta funkcja rankingowa może znacząco wpłynąć na wybór dostawców sztucznej inteligencji przez agencje rządowe i stawia pytania o przejrzystość i uczciwość procesu oceny.
Obawy dotyczące ochrony danych i bezpieczeństwa
Eksperci wyrażają poważne obawy dotyczące powszechnego stosowania systemów sztucznej inteligencji (AI) w administracji rządowej, ponieważ systemy te mogłyby przetwarzać wrażliwe dane i dane osobowe obywateli. Szybkie wdrożenie strategii AI first bez odpowiednich zabezpieczeń mogłoby stwarzać poważne zagrożenia dla bezpieczeństwa. Obawy te potęgują doniesienia o dostępie Departamentu Energii (DOGE) do ściśle chronionych funduszy federalnych, zawierających dane osobowe milionów Amerykanów.
Szczególnie niepokojące są doniesienia, że pracownicy DOGE próbowali uzyskać dostęp do poczty elektronicznej pracowników DHS i poinstruowali personel, aby szkolił sztuczną inteligencję w zakresie rozpoznawania komunikatów sugerujących, że pracownik nie jest „lojalny” wobec programu politycznego Trumpa. Grupa około tuzina pracowników agencji Departamentu Obrony została w ostatnich tygodniach poinformowana przez przełożonego, że narzędzie algorytmiczne monitoruje część ich aktywności komputerowej.
Kontekst polityczny i regulacyjny
Uchylenie przepisów Bidena
Inicjatywa AI.gov jest częścią szerszej strategii deregulacji administracji Trumpa w zakresie sztucznej inteligencji. Trump uchylił już rozporządzenie wykonawcze swojego poprzednika, Joe Bidena, regulujące kwestie sztucznej inteligencji. Rozporządzenie Bidena z 2023 roku miało na celu ograniczenie ryzyka związanego ze sztuczną inteligencją poprzez nałożenie na deweloperów obowiązku ujawniania danych. Administracja Trumpa z kolei realizuje „przyjazne innowacjom podejście”, wykorzystując tę technologię do wpływania na przyszłość działań rządowych.
Biuro Zarządzania i Budżetu (Office of Management and Budget) nakazało agencjom rządowym przyjęcie podstawowych protokołów zarządzania ryzykiem dla istotnych zastosowań sztucznej inteligencji (AI) oraz opracowanie w nadchodzących miesiącach polityki dotyczącej sztucznej inteligencji generatywnej. Dyrektywa ta uchyla dwie dyrektywy administracji Bidena: jedną zobowiązującą agencje do wdrożenia zabezpieczeń praw jednostki i zapewnienia przejrzystości oraz drugą, która ma na celu nałożenie ograniczeń na nabywanie sztucznej inteligencji.
Opór na szczeblu federalnym
Pomimo ogólnokrajowych wysiłków na rzecz deregulacji, na poziomie stanowym pojawia się opór. Prokuratorzy generalni z 40 stanów USA zaapelowali do Kongresu o zablokowanie poprawki do ustawy, która zabraniałaby stanom regulowania sztucznej inteligencji przez dziesięć lat. We wspólnym liście ostrzegli, że „konsekwencje tak daleko idącego moratorium byłyby poważne i całkowicie zniweczyłyby sensowne próby zapobiegania znanym szkodom związanym ze sztuczną inteligencją”.
Prokuratorzy argumentują, że ten środek „wpłynąłby na setki istniejących i proponowanych przepisów” mających na celu ochronę przed pornografią generowaną przez sztuczną inteligencję, deepfake'ami wykorzystywanymi do dezinformacji oraz spamem. Przepisy te, jak twierdzą, były opracowywane latami, po starannym przemyśleniu i przy udziale licznych interesariuszy, w tym konsumentów, przedstawicieli branży i prawników.
Naruszenia bezpieczeństwa i problemy z komunikacją
Incydent na czacie Signal
Oprócz inicjatyw związanych ze sztuczną inteligencją, zamieszanie wywołała domniemana wpadka komunikacyjna administracji Trumpa. Jeffrey Goldberg, redaktor naczelny „The Atlantic”, poinformował, że został omyłkowo zaproszony do czatu grupowego czołowych urzędników państwowych za pośrednictwem komunikatora Signal. Tajny czat podobno dotyczył zbliżającego się ataku na milicję Huti w Jemenie.
Rzecznik Rady Bezpieczeństwa Narodowego potwierdził po publikacji, że zapis rozmowy jest najprawdopodobniej autentyczny i zapowiedział wewnętrzne dochodzenie. Sekretarz obrony Pete Hegseth, który był wymieniony jako uczestnik rozmowy, później zdementował doniesienia, po czym Goldberg oskarżył go o kłamstwo w CNN.
Ta wpadka ilustruje wyzwania związane z przetwarzaniem poufnych informacji w nowej administracji i rodzi pytania dotyczące bezpieczeństwa informacji, które są szczególnie istotne w kontekście planów administracji dotyczących kompleksowej integracji sztucznej inteligencji. Politycy Partii Demokratycznej skrytykowali to zachowanie, nazywając je „amatorskim” i jednym z „najbardziej niewiarygodnych naruszeń” tajemnic wojskowych.
Wyciekłe plany AI.gov ujawniają ambitną strategię Trumpa dotyczącą cyfryzacji rządu
Wyciekłe plany inicjatywy AI.gov ujawniają skalę ambicji administracji Trumpa w zakresie integracji sztucznej inteligencji z rządem federalnym. Inicjatywa ta ma potencjał modernizacji usług publicznych i zwiększenia ich efektywności, jednak jej pospieszne wdrożenie, powiązania z interesami prywatnymi i brak przejrzystości budzą poważne obawy. Planowane uruchomienie, zaplanowane na 4 lipca, będzie kluczowym testem, który pokaże, czy administracja będzie w stanie osiągnąć ambitne cele w zakresie sztucznej inteligencji bez narażania bezpieczeństwa i prywatności obywateli.
Ta inicjatywa jest przykładem szerszego podejścia administracji Trumpa do polityki technologicznej: priorytetem są szybkie innowacje i deregulacja, a tradycyjne środki bezpieczeństwa i mechanizmy nadzoru są ograniczane. Czy to podejście ostatecznie odniesie sukces, czas pokaże, ale wstępne sygnały wskazują na poważne wyzwania związane z wdrożeniem.
Nadaje się do:
Twoja transformacja AI, integracja AI i ekspert w branży platformy AI
☑️Naszym językiem biznesowym jest angielski lub niemiecki
☑️ NOWOŚĆ: Korespondencja w Twoim języku narodowym!
Chętnie będę służyć Tobie i mojemu zespołowi jako osobisty doradca.
Możesz się ze mną skontaktować wypełniając formularz kontaktowy lub po prostu dzwoniąc pod numer +49 89 89 674 804 (Monachium) . Mój adres e-mail to: wolfenstein ∂ xpert.digital
Nie mogę się doczekać naszego wspólnego projektu.
