Google oddaje AI Pentagonowi. Etyka kończy się przy klauzuli tajności

29 kwi 2026

Google podpisał z Pentagonem umowę, która pozwala amerykańskiemu wojsku korzystać z modeli sztucznej inteligencji firmy w pracach objętych klauzulą tajności. Według Reutersa, powołującego się na serwis The Information, chodzi o dostęp do narzędzi AI Google, w tym systemu Gemini, na potrzeby „dowolnego legalnego celu rządowego”.

Za tym urzędowym sformułowaniem kryje się szerokie pole działania dla administracji USA. Granice użycia technologii mają wyznaczać nie deklaracje etyczne Google, lecz amerykańskie prawo, procedury Pentagonu i decyzje podejmowane poza jawną kontrolą.

Firma zapewnia, że jej systemy nie są przeznaczone do masowej inwigilacji na terenie USA ani do broni autonomicznej, w tym selekcji celów, bez odpowiedniego nadzoru człowieka. Jednocześnie w kontrakcie znalazł się zapis, że umowa nie daje Google prawa do kontrolowania ani wetowania legalnych decyzji operacyjnych rządu USA.

To właśnie ten fragment najmocniej niepokoi krytyków. Jeśli ostateczna decyzja należy do Pentagonu, a prace odbywają się w środowisku niejawnym, społeczeństwo ma wierzyć w zabezpieczenia, których działania nie zobaczy. Google może mówić o odpowiedzialnym wsparciu bezpieczeństwa narodowego, ale po przekazaniu narzędzia amerykańskiemu aparatowi wojskowemu traci wpływ na konkretne zastosowania.

Pracownicy ostrzegali Pichaia

Umowa została zawarta mimo sprzeciwu części pracowników. Około 600 osób zatrudnionych w Google, w tym w DeepMind i Google Cloud, podpisało list do prezesa Sundara Pichaia z apelem, by firma nie udostępniała swoich systemów AI do tajnych operacji wojskowych.

Autorzy listu pisali, że pracując blisko tej technologii, czują odpowiedzialność za wskazywanie jej najbardziej niebezpiecznych zastosowań. Wymieniali ryzyko masowej inwigilacji, automatyzacji decyzji wojskowych i działań, które mogą być „nieludzkie lub skrajnie szkodliwe”.

Dla zarządu Google nie był to argument rozstrzygający. Rzecznik Google Public Sector przekonywał, że firma wspiera agencje rządowe zarówno w projektach jawnych, jak i niejawnych, między innymi w logistyce, cyberbezpieczeństwie, tłumaczeniach dyplomatycznych, utrzymaniu floty i ochronie infrastruktury krytycznej.

Te przykłady brzmią bezpiecznie. Kontrakt dotyczy jednak modeli, które mogą pracować w wojskowych sieciach objętych klauzulą tajności. Tam granica między wsparciem administracyjnym a elementem systemu planowania działań militarnych może być bardzo cienka.

Powrót cienia Project Maven

Sprawa natychmiast przywołała historię Project Maven. W 2018 roku Google znalazł się pod presją tysięcy pracowników, gdy wyszło na jaw, że firma uczestniczy w projekcie Pentagonu wykorzystującym AI do analizy obrazów z dronów. Po protestach Google nie przedłużył kontraktu.

Tamten bunt stał się jednym z symboli oporu pracowników Big Techu wobec militaryzacji technologii. Pokazywał, że inżynierowie nie chcą być tylko wykonawcami kodu, którego późniejsze zastosowanie znika w wojskowej procedurze.

Dziś Google działa już w innych realiach. Ma własną jednostkę Google Public Sector, zabiega o kontrakty rządowe, rozwija infrastrukturę dla administracji USA i posiada certyfikacje umożliwiające pracę z danymi niejawnymi. Firma, która kiedyś wycofywała się z wojskowego projektu pod presją załogi, teraz podpisuje aneks otwierający jej modele na środowiska tajne.

Ten zwrot przygotowywano wcześniej. W 2025 roku Alphabet usunął z zasad dotyczących AI wcześniejsze zobowiązania, że nie będzie rozwijał technologii przeznaczonych do broni i nadzoru. Kierownictwo tłumaczyło to zmienioną sytuacją geopolityczną i potrzebą udziału w sprawach bezpieczeństwa narodowego. Był to czytelny sygnał, że granica między laboratorium technologicznym a amerykańskim aparatem bezpieczeństwa będzie przesuwana.

Big Tech idzie do wojska

Google nie jest wyjątkiem. Pentagon już wcześniej zawarł umowy z największymi firmami rozwijającymi sztuczną inteligencję. W 2025 roku Departament Obrony USA przyznał kontrakty o wartości do 200 mln dolarów każda firmom Anthropic, Google, OpenAI i xAI Elona Muska. Celem ma być rozwój „agentowych” przepływów pracy, dużych modeli językowych i zaawansowanych narzędzi AI dla wyzwań bezpieczeństwa narodowego.

Amerykańskie wojsko chce mieć najnowsze modele sztucznej inteligencji wpięte we własne systemy. Nie tylko do pisania raportów, lecz także do analizy, planowania, automatyzacji procesów, cyberoperacji, obsługi danych i przyspieszania decyzji w obszarach uznawanych przez Pentagon za wojskowe.

Krytycy nie muszą więc twierdzić, że Google już buduje autonomiczne systemy zabijania. Wystarczy stwierdzić coś bardziej precyzyjnego: firma udostępnia technologię, która może zostać użyta w tajnych procesach wojskowych, a zapisy etyczne nie dają jej realnego prawa zatrzymania rządowego użytkownika.

Nie chodzi o abstrakcyjny lęk przed sztuczną inteligencją. Chodzi o władzę nad systemami, które mogą wpływać na działania administracji USA, armii i służb, a jednocześnie działać poza widokiem opinii publicznej.

Nowa normalność Doliny Krzemowej

Przez lata Big Tech budował wizerunek branży, która łączy ludzi, usprawnia życie i demokratyzuje wiedzę. Ten obraz zawsze był częściowo marketingowy, ale w przypadku Google miał szczególne znaczenie. Dawne hasło „Don’t be evil” stało się jednym z najczęściej przywoływanych symboli technologicznej niewinności.

Dziś ta niewinność jest coraz trudniejsza do obrony. Gdy stawką są kontrakty wojskowe, dostęp do infrastruktury publicznej i udział w globalnym wyścigu zbrojeń technologicznych, język etyki ustępuje językowi bezpieczeństwa narodowego. A bezpieczeństwo narodowe ma tę wygodną cechę, że bardzo szybko zamyka dyskusję.

Google może nadal przekonywać, że nie popiera masowej inwigilacji ani broni autonomicznej bez nadzoru człowieka. Dla pracowników i organizacji krytycznych wobec militaryzacji AI kluczowe jest jednak co innego. Jeśli firma nie może kontrolować zastosowania własnej technologii w tajnym systemie wojskowym USA, jej deklaracje stają się politycznym opakowaniem, nie realnym bezpiecznikiem.

Sztuczna inteligencja przestaje być tylko produktem cyfrowym. W rękach Pentagonu staje się częścią infrastruktury amerykańskiej polityki bezpieczeństwa. To dlatego spór o kontrakt Google nie dotyczy wyłącznie jednej firmy. Dotyczy całej Doliny Krzemowej, która coraz chętniej mówi językiem etyki, ale zarabia już w logice wojny.

Najnowsze

Mit o pomaganiu

Mit o pomaganiu

Wczoraj pisałem o Łatwogangu, 251 mln zł zebranych dla dzieci chorujących onkologicznie, dziurze w NFZ, politykach...

Sprawdź również

UE wzmacnia własny odpowiednik GPS

UE wzmacnia własny odpowiednik GPS

Europa rozwija swój system nawigacji satelitarnej Galileo i wzmacnia go nową konstelacją satelitów na niskiej orbicie. W środę 25 marca z Nowej Zelandii mają wystartować dwa pierwsze prototypy programu Celeste. Projekt ma poprawić dokładność pozycjonowania, skrócić...