Rano 31 marca 2026 roku stażysta w Solayer Labs przeglądał rejestr npm. Zauważył coś, czego tam być nie powinno: plik .map o rozmiarze 59,8 MB w paczce @anthropic-ai/claude-code w wersji 2.1.88. Do południa ten plik był już zarchiwizowany na GitHubie i przeglądany przez tysiące developerów z całego świata.
Tak rozpoczął się jeden z najbardziej spektakularnych wycieków kodu w historii branży AI.
Co to właściwie był za błąd?
Source mapy to pliki debugowania. Programiści tworzą je, żeby móc mapować skompilowany, zminifikowany kod z powrotem na oryginalne linie TypeScript. Są nieocenione przy debugowaniu błędów produkcyjnych — pod warunkiem, że zostają w środowisku developerskim.
W wersji 2.1.88 Claude Code jeden plik .map trafił do publicznego rejestru npm. I zamiast kilku linii pomocniczych do debugowania — zawierał cały kod źródłowy: 1900 plików TypeScript, ponad 512 000 linii kodu, 40 narzędzi, 50 slash komend.
Wystarczyło jedno pominięcie w .npmignore lub polu files w package.json. Narzędzie do weryfikacji (npm pack --dry-run) uruchomione przed releasem wykryłoby problem w kilka sekund.
Anthropic szybko przyznało się do błędu:
"This was a release packaging issue caused by human error, not a security breach."
Dla firmy wycenianej na 380 miliardów dolarów, z przychodami run-rate na poziomie 14 miliardów, to zdanie brzmi jak klasyczny corporate understatement.
Contekst: Anthropic w drodze do IPO
Żeby zrozumieć wagę zdarzenia, trzeba znać kontekst biznesowy.
W lutym 2026 Anthropic zamknął rundę Serii G: 30 miliardów dolarów przy wycenie 380 miliardów. Inwestorami są m.in. GIC, Coatue, Goldman Sachs, Sequoia Capital i JPMorganChase. Osiem z dziesięciu największych firm z listy Fortune 10 to klienci Claude.
Claude Code — CLI tool, którego kod wyciekł — generuje 2,5 miliarda dolarów ARR. Liczba ta podwoiła się od początku 2026 roku. Szacuje się, że 4% wszystkich publicznych commitów na GitHubie jest autorstwa Claude Code.
Firma zmierza ku IPO. W tym kontekście wyciek nie jest tylko kompromitacją techniczną — to ujawnienie konkurencyjnego blueprintu najważniejszego produktu w kluczowym momencie strategicznym.
Źródło: Anthropic Series G announcement, VentureBeat
Co znaleziono w kodzie
Architektura: to nie jest "wrapper na GPT"
Pierwsza i najważniejsza lekcja z wycieku: Claude Code to nie chatbot w terminalu. To złożony, wielowarstwowy system operacyjny do inżynierii oprogramowania.
Runtime to Bun (nie Node.js) — szybszy start, lepsza eliminacja martwego kodu. UI terminala budowane jest w React z biblioteką Ink — tak, komponentowy model Reacta działa tutaj w konsoli. Walidacja danych przez Zod v4 — wszędzie: wejście narzędzi, odpowiedzi API, pliki konfiguracyjne.
Sama definicja bazowego narzędzia (tool) liczy 29 000 linii TypeScript. Silnik zapytań — obsługujący wszystkie wywołania modelu, streaming i cache — to 46 000 linii. Dla porównania: wiele popularnych frameworków open-source ma tyle samo kodu łącznie.
Trójwarstwowa pamięć, która się "samoleczy"
Najciekawsze odkrycie architektoniczne dotyczy tego, jak Claude Code zarządza pamięcią w długich sesjach.
Tradycyjne podejście: "zapamiętaj wszystko". Problem: po kilku godzinach kontekst AI zapełnia się szumem, model się gubi, zaczyna halucynować.
Anthropic zbudowała trójwarstwowy system:
Warstwa 1: MEMORY.md — lekki indeks wskaźników (max 150 znaków na linię), zawsze załadowany do kontekstu agenta. Nie przechowuje danych — przechowuje gdzie szukać danych.
Warstwa 2: Pliki tematyczne — właściwa wiedza o projekcie, pobierana na żądanie. Agent wie, że "informacje o architekturze bazy danych są w pliku X" i czyta go tylko gdy potrzebuje.
Warstwa 3: Grep, nie full read — historyczne transkrypty nigdy nie są wczytywane w całości. Agent "grepuje" je pod kątem konkretnych identyfikatorów.
Kluczowa zasada: Strict Write Discipline. Agent aktualizuje indeks wyłącznie po udanym zapisie pliku — nigdy po nieudanej próbie. Dzięki temu kontekst nie zaśmieca się "planami, które nie wyszły".
Co więcej, agent traktuje własną pamięć jak "hint" — przed podjęciem działania weryfikuje fakty w aktualnym stanie kodu, nie ufa zapisanemu stanowi sprzed tygodnia.
KAIROS — autonomiczny daemon, który myśli gdy śpisz
Nazwa pochodzi z greki — oznacza "właściwy moment". W kodzie pojawia się ponad 150 razy.
KAIROS to fundamentalna zmiana modelu działania AI: zamiast reaktywnego asystenta — aktywny daemon działający w tle.
Gdy użytkownik jest nieaktywny, uruchamia się proces autoDream:
- Scala rozproszone obserwacje z sesji
- Usuwa logiczne sprzeczności w zapisanej wiedzy
- Przekształca niejasne spostrzeżenia ("chyba używamy PostgreSQL") w absolutne fakty ("używamy PostgreSQL 15.3")
- Uruchamia forka subagenta do tych zadań, aby nie zakłócać głównego "toku myślenia" agenta
Gdy użytkownik wraca — kontekst jest czysty, aktualny, gotowy.
Dla właściciela firmy: to jak asystent, który zamiast czekać, przegląda swoje notatki i porządkuje wiedzę podczas gdy jesteś na lunchu.
"Undercover Mode" — najbardziej kontrowersyjne odkrycie
W kodzie znaleziono system prompt, który wywołał największą dyskusję w społeczności:
"You are operating UNDERCOVER... Your commit messages... MUST NOT contain ANY Anthropic-internal information. Do not blow your cover."
Tryb "Undercover" pozwala Claude Code na kontrybucję do publicznych repozytoriów open-source bez żadnych śladów wskazujących na użycie AI. Żadnych nazw modeli w commitach, żadnych wzmianek o Anthropic, zero atrybucji.
Anthropic prawdopodobnie używa tego do wewnętrznego "dog-foodingu" — testowania własnych narzędzi na swoich własnych projektach. Ale framework jest gotowy do szerszego użycia przez korporacyjnych klientów.
Etyczne pytanie pozostaje otwarte: czy commit autorstwa AI bez żadnej adnotacji to problem? Dyskusja w społeczności open-source trwa.
Wewnętrzne nazwy modeli — peek za kurtynę
Kod ujawnił wewnętrzną roadmapę modeli Anthropic:
- Capybara — wariant Claude 4.6
- Fennec — Opus 4.6
- Numbat — model nadal w testach, jeszcze nie wydany publicznie
Najciekawsze: komentarze w kodzie ujawniają, że Capybara v8 ma 29-30% wskaźnik fałszywych twierdzeń. To regresja wobec v4, gdzie ten wskaźnik wynosił 16,7%. Anthropic walczy z problemem "nadmiernego komentowania kodu" i wdrożyło "assertiveness counterweight" — mechanizm zapobiegający zbyt agresywnym refaktorom.
Innymi słowy: nawet firma z budżetem R&D liczonym w miliardach dolarów zmaga się z tymi samymi problemami co każdy, kto używa AI do pisania kodu.
Co możesz wdrożyć już dziś
Wyciek to nie tylko historia o Anthropic. To podręcznik architektoniczny dla każdego, kto buduje lub wdraża narzędzia AI w firmie.
1. Audyt pipeline'u CI/CD
Uruchom npm pack --dry-run przed każdym releasem. Sprawdź .npmignore i pole files w package.json. Nie zakładaj, że konfiguracja jest poprawna — zweryfikuj co faktycznie trafia do paczki.
2. Projektuj pamięć AI świadomie
Jeśli używasz AI do długich, złożonych zadań — wdrożenie systemu zbliżonego do MEMORY.md ma sens już teraz. Zamiast "dawaj AI wszystko", daj mu indeks i pozwól wybierać co wczytać.
3. Zdefiniuj politykę atrybucji AI
Zanim tryb "Undercover" stanie się standardem rynkowym — zdecyduj jako firma: czy wasze użycie AI w komunikacji zewnętrznej (PR, commits, dokumentacja) jest oznaczane? Lepsiej mieć politykę teraz niż tłumaczyć się klientom później.
4. Traktuj source mapy jako kod źródłowy
Bo nimi są. Każde narzędzie budujące TypeScript/JavaScript generuje pliki .map. Upewnij się, że Twój pipeline explicitnie je wyklucza z produkcyjnych artefaktów.
Ile możesz na tym zyskać
Firmy, które poważnie podejdą do architektury AI po wycieku, mogą zyskać dwie rzeczy.
Efektywność operacyjna: Wdrożenie trójwarstwowej pamięci (nawet uproszczonej) w narzędziach AI redukuje czas "dogrzewania" agenta na początku sesji. Zamiast tłumaczyć kontekst projektu od nowa, agent wie gdzie szukać. Oszczędność: kilkadziesiąt minut dziennie na każdego developera używającego AI.
Strategiczna przewaga: Firmy, które zrozumieją jak działają narzędzia takie jak Claude Code, będą lepiej przygotowane do ich konfiguracji, customizacji i audytu. Wyciek dał nam do ręki specyfikację inżynierską narzędzia generującego 2,5 mld USD rocznie. To rzadka okazja do nauki na cudzym błędzie — bez własnych kosztów.
Dla Anthropic ten błąd kosztował reputację. Dla reszty branży — to darmowy masterclass z inżynierii AI na poziomie produkcyjnym.