OpenAI wypuściło ChatGPT 5.4 w środku kontrowersji związanych ze współpracą z Pentagonem. Postanowiłem sprawdzić, jak nowy model wypada w bezpośrednim porównaniu z Claude Opus 4.6. Wyniki są zaskakujące.
Test symulacji fizyki: GPT wygrywa technicznie
Do testu użyłem generowania symulacji fizyki. GPT 5.4 wypadł lepiej pod względem technicznym: wyższa liczba klatek na sekundę, lepsza optymalizacja kodu i działające cięcie obiektów. Pod względem kosztów różnica była ogromna. Claude zużył 100% sesji plus dodatkowe 3 dolary. GPT wykorzystał zaledwie 10% swojego limitu.
Nowy model OpenAI ma milion tokenów kontekstu, osiąga 75% w testach obsługi komputera (człowiek: 72%) i generuje o jedną trzecią mniej halucynacji niż poprzednia wersja. To solidne liczby.
Jakość pisania: Claude wciąż lepszy
Ale jest druga strona medalu. Gdy chodzi o jakość tekstu, niuanse językowe i zrozumienie kontekstu, Claude nadal prowadzi. Odpowiedzi są bardziej przemyślane, lepiej ustrukturyzowane i bliższe temu, czego oczekujesz od profesjonalnego asystenta.
Wniosek? Nie ma jednego króla. GPT 5.4 dominuje w zadaniach technicznych i programistycznych. Claude jest lepszy w pracy z tekstem, analizie i zadaniach wymagających precyzji językowej. Najlepsza strategia to korzystanie z obu modeli w zależności od zadania.
Jak wycisnąć maksimum z każdego modelu?
Kluczem jest dobry prompt. Ten sam model może dać przeciętną lub doskonałą odpowiedź w zależności od tego, jak sformułujesz zapytanie. Jeśli chcesz opanować tę umiejętność, sprawdź kurs Skuteczne Prompty: 21 lekcji wideo z konkretnymi technikami. Gotowe szablony promptów do kopiowania znajdziesz w Repozytorium Promptów.