Claude Code staje się coraz gorszy. Nie jest to opinia z Reddita, tylko wniosek poparty danymi z prawie siedmiu tysięcy sesji.
Analiza Stelli Laurenzo z AMD
Stella Laurenzo, dyrektorka AI w AMD, spędziła tygodnie analizując logi swojego zespołu. Prawie 7 000 sesji z Claude Code między styczniem a marcem 2026. Wyniki opublikowała 2 kwietnia na GitHubie i liczby są brutalne.
Głębokość myślenia modelu spadła o 67%. Co trzecia edycja kodu była robiona bez wcześniejszego przeczytania pliku. Anthropic 3 marca po cichu zmienił domyślne ustawienia bez żadnej informacji dla użytkowników.
Wyciek kodu źródłowego Claude Code
Pod koniec marca Anthropic przez przypadek opublikował na publicznym repozytorium pliki z kodem źródłowym Claude Code. Pół miliona linii. Z komentarzy w tym kodzie wynika, że ich najnowszy testowy model zmyśla prawie dwa razy częściej niż wersja sprzed kilku miesięcy. Zmyśla nazwy paczek, wersje API, cytaty z dokumentacji.
Schemat powtarza się w całej branży
Powstała strona aistupidlevel.info, która mierzy 22 modele AI w czasie rzeczywistym. Zbudowana po to, żeby wykrywać kiedy firmy AI obniżają jakość w celu redukcji kosztów.
Schemat jest zawsze ten sam: premiera robi wrażenie, przychodzą tłumy użytkowników, firma po cichu optymalizuje koszty, jakość spada, użytkownicy narzekają, firma zaprzecza.
Laurenzo jest pierwszą osobą, która udowodniła to liczbami na tak dużą skalę. Dane z AMD to nie subiektywne odczucia. To logi z tysięcy sesji pokazujące konkretny spadek jakości rozumowania i rzetelności edycji kodu.
Jeśli korzystasz z narzędzi AI do kodowania, warto śledzić takie analizy. Więcej o praktycznym wykorzystaniu AI znajdziesz w kursie Skuteczne Prompty (21 lekcji wideo). Gotowe prompty do kopiowania czekają w Repozytorium Promptów.