
To Claude pomógł schwytać Maduro i zabić Chameneiego. Chatbot AI, który poszedł na wojnę wbrew sobie
- Wysłane przez Krzysztof Urbanowicz
- Kategorie Claude
- Data 2026-03-01
- Komentarze 0 komentarz
W piątek 28 lutego 2026 roku, kilka godzin po tym, jak prezydent Donald Trump nakazał wszystkim agencjom federalnym natychmiastowe zaprzestanie korzystania z technologii Anthropic, amerykańskie wojsko użyło modelu Claude do planowania nalotów na Iran. Chatbot z San Francisco jest tak głęboko osadzony w operacjach wojskowych, że nawet rozkaz prezydenta nie jest w stanie go natychmiast odłączyć.
Dlaczego akurat Claude? Dlaczego nie ChatGPT od OpenAI, Gemini od Google’a czy Grok od xAI Elona Muska? Odpowiedź jest jednocześnie prozaiczna i fascynująca, bo mówi więcej o naturze współczesnej wojny niż o samej technologii.
Amazon dał Claude chmurę, a Palantir wprowadził do Pentagonu
Claude znalazł się w niejawnych sieciach Pentagonu jako pierwszy. Nie dlatego, że był najlepszy (choć Pentagon przyznaje, że jest), lecz dlatego, że Anthropic jako jedyna firma AI przeszło skomplikowany proces certyfikacji do pracy w środowiskach niejawnych (classified).
Stało się to możliwe dzięki dwóm partnerom: Amazonowi, który udostępnił swoją chmurę Top Secret Cloud, oraz Palantirowi, gigantowi analityki obronnej, którego platforma AI stanowi kręgosłup wielu operacji wywiadowczych USA.
Ta trójstronna architektura, Anthropic dostarcza model, Amazon infrastrukturę chmurową, Palantir warstwę aplikacyjną, stworzyła ekosystem, którego żaden konkurent nie zdołał jeszcze odtworzyć.
200 milionów dolarów na zabijanie
Latem 2025 roku Pentagon przyznał kontrakty o wartości do 200 milionów dolarów czterem firmom AI: Anthropic, Google, OpenAI i xAI. Ale to Anthropic jako pierwszy faktycznie wdrożył swój model w sieciach niejawnych. ChatGPT, Gemini i Grok grają w lidze biurowej. Claude gra w najwyższej lidze, w której stawką są ludzie.
To rozróżnienie między siecią jawną a niejawną jest kluczowe. W systemach niejawnych przetwarza się dane wywiadowcze, identyfikuje cele, symuluje scenariusze bojowe. To właśnie tam Claude okazał się niezastąpiony.
Jak przyznał anonimowy urzędnik Pentagonu w rozmowie z Axios: “Jedyny powód, dla którego wciąż rozmawiamy z tymi ludźmi, to fakt, że ich potrzebujemy i potrzebujemy ich teraz. Problem polega na tym, że są aż tak dobrzy.”
Dlaczego inne modele AI nie mogą od razu zastąpić Claude
ChatGPT, Gemini i Grok nie są w stanie zastąpić Claude’a z dnia na dzień z kilku powodów.
- Zaden z nich nie przeszedł pełnego procesu akredytacji do pracy w sieciach niejawnych. Grok xAI jest podobno “na pokładzie” gotów do użycia w środowisku niejawnym, ale to wciąż etap deklaracji, nie wdrożenia. Google i OpenAI prowadzą negocjacje, lecz ich modele funkcjonują na razie wyłącznie w przestrzeni jawnej.
- Problem tkwi w ekosystemie. Claude nie działa w próżni. Jest zintegrowany z platformą Palantira, która od lat buduje narzędzia analityczne dla armii amerykańskiej. Wymiana jednego modelu AI to nie jest kwestia odinstalowania jednej aplikacji i zainstalowania drugiej. To przebudowa całego łańcucha decyzyjnego. Palantir, złapany w krzyżowy ogień między swoim partnerem technologicznym a swoim największym klientem, milczy wymownie.
- Kwestie techniczne. Inny wysoki urzędnik Pentagonu przyznał, że „inne firmy modelowe są po prostu z tyłu”, jeśli chodzi o specjalistyczne zastosowania rządowe. Claude został dostosowany do potrzeb klientów bezpieczeństwa narodowego w sposób, którego konkurencja jeszcze nie powtórzyła. To nie jest kwestia tego, który model lepiej pisze wiersze. To kwestia tego, który model potrafi przeanalizować strumień danych wywiadowczych i wyciągnąć z niego wnioski operacyjne w czasie rzeczywistym.
Claude znalazł się na wojnie wbrew sobie
Ironia tej sytuacji jest wielowarstwowa. Anthropic, firma założona przez byłych pracowników OpenAI, którzy odeszli właśnie z powodu obaw o bezpieczeństwo AI, zbudowała – wbrew sobie – najlepsze narzędzie do prowadzenia wojny.
Paradoksalnie, firma, która uczyniła z odpowiedzialnego rozwoju AI swój znak rozpoznawczy, stała się dostawcą technologii dla najbardziej wrażliwych operacji wojskowych na świecie.
A kiedy postawiła granicę, twierdząc, że jej model nie powinien służyć do masowej inwigilacji Amerykanów ani do tworzenia w pełni autonomicznej broni, Trump odpowiedział, wpisując ją na czarną listę.
Określenie „zagrożenie dla łańcucha dostaw” to etykieta dotąd zarezerwowana dla firm z Chin, jak Huawei, nigdy wcześniej nie zastosowana wobec amerykańskiej firmy.
Czy AI może podejmować decyzje o życiu i śmierci ludzi?
Pentagon chciał użycia Claude’a „do wszystkich legalnych celów”, bez żadnych ograniczeń. Anthropic odmówiło w dwóch konkretnych przypadkach: masowej inwigilacji obywateli USA i systemów broni, które mogą zabijać bez nadzoru człowieka.
Dario Amodei, prezes Anthoropic, argumentował, że obecne modele AI są po prostu zbyt zawodne, by podejmować autonomiczne decyzje o życiu i śmierci. Pentagon ripostował, że prawo federalne już tego zabrania, więc zabezpieczenia Anthropic są zbędne.
Ale to właśnie tu leży sedno problemu. Jeśli prawo już tego zabrania, dlaczego Pentagon tak desperacko chce usunąć zabezpieczenia firmy? Pytanie to zadali senatorowie Ed Markey i Chris Van Hollen w liście do sekretarza obrony Pete’a Hegsetha, pisząc, że groźby wobec amerykańskiej firmy AI za odmowę rezygnacji z podstawowych zabezpieczeń stanowią „przerażające nadużycie władzy rządowej”.
Trump: To „lewicowe świry”.
Reakcja branży AI była zaskakująco jednomyślna. Setki pracowników Google’a i OpenAI podpisały list otwarty w solidarności z Anthropic. Sam Altman, prezes OpenAI, zadeklarował, że jego firma wyznacza te same czerwone linie. List zatytułowany „Nie damy się podzielić” ostrzegał, że rząd „próbuje podzielić każdą firmę strachem, że druga ustąpi”. To rzadki moment jedności w branży, której gracze zwykle traktują się jak wrogowie i wytaczają sobie coraz to nowe procesy sądowe.
Zastąpienie Claude’a zajmie Pentagonowi minimum sześć miesięcy, twierdzą eksperci. W tym czasie armia amerykańska będzie zmuszona ciągle korzystać z narzędzia firmy, którą właśnie wpisała na czarną listę. Będzie planować operacje wojskowe za pomocą Claude, modelu AI stworzonego przez ludzi, których prezydent nazwał „lewicowymi świrami”.
Przez dziesięciolecia zimnej wojny Pentagon bał się, że wróg zdobędzie przewagę technologiczną. A w 2026 roku okazało się, że najgroźniejszy scenariusz jest inny: twój najlepszy dostawca ma sumienie.
Anthropic nie odmówiło współpracy z armią. Odmówiło współpracy bez zasad. I to okazało się nie do zaakceptowania.
Najważniejsze w tej historii jest to, czego większość komentatorów nie widzi, bo skupia się na politycznym spektaklu Trump vs. Anthropic.
Kto kontroluje twój model AI, kontroluje twój biznes
Historia Claude’a i Pentagonu to nie opowieść o etyce sztucznej inteligencji, czy brutalności Trumpa, lecz o pułapce integracji.
Pentagon odkrył coś, co każdy CEO powinien zapamiętać: jeśli wdrożysz jedno narzędzie AI głęboko w swoje procesy decyzyjne, stajesz się jego zakładnikiem. Nie ma “szybkiej wymiany”. Nie ma “plug and play”.
Gdy model AI staje się częścią łańcucha dowodzenia, przestaje być narzędziem, a zaczyna być infrastrukturą. A infrastruktury nie wyłącza się jednym podpisem pod rozporządzeniem.
Kto kontroluje twój model AI, kontroluje twój biznes. To lekcja nie tylko dla armii.
Tag:claude
Krzysztof Urbanowicz, założyciel Urba AI Academy, jest autorem AI Management System, autorskiej metodologii wdrażania sztucznej inteligencji w pracy zarządczej. Nie uczy AI. Uczy, jak nią zarządzać.
• Pracuje z zarządami (w tym w trybie C-Level 1:1), menedżerami i zespołami decyzyjnymi, przygotowując ich do podejmowania decyzji z udziałem AI, zanim te decyzje zaczną generować koszty, ryzyka i odpowiedzialność osobistą.
• Ma na koncie w sumie ponad 3300 szkoleń i projektów doradczych dla liderów polskiego biznesu (PKN Orlen, PZU, KGHM, PGNiG…).
• Przeprowadził 350+ szkoleń i projektów AI dla firm (Tauron, Orange, Havas...), mediów i wydawnictw (TVN, Polskie Radio, Wolters Kluwer, CH Beck, Infor...), instytucji publicznych i organizacji (NFZ, MSW, MFiPR, Konfederacja Lewiatan, Krajowa Izba Doradców Podatkowych...) oraz uczelni (UW, UJ, SGH, SWPS...).
AI Management System to autorska metodologia Krzysztofa Urbanowicza, która systematyzuje wdrażanie AI na poziomie decyzyjnym organizacji. Nie koncentruje się na narzędziach, lecz na tym, jak nimi zarządzać: procesy, ryzyko, jakość myślenia, bezpieczeństwo danych. Powstała na bazie ponad 350 Masterclassów i wdrożeń B2B. Obejmuje pięć obszarów zastosowania: zarządzanie, sprzedaż, marketing, komunikację i PR oraz administrację.
➡️ Były dyrektor i wykładowca Europejskiego Studium Dziennikarstwa – wspólnego projektu prestiżowej francuskiej uczelni L'École Supérieure de Journalisme de Lille i Uniwersytetu Warszawskiego.
➡️ Dziennikarz z wykształcenia i zawodu, karierę zaczynał w mediach francuskich: Le Figaro, Le Quotidien de Paris, radio RFI.
