ChatGPT z nowym silnikiem. GPT-4.1 jest szybszy, bardziej precyzyjny i tańszy

OpenAI udostępniło GPT-4.1 – nową wersję swojego modelu językowego. Jego twórcy zapowiadają szybsze działanie, lepsze zrozumienie złożonych poleceń i tańsze przetwarzanie danych. Użytkownicy mogą korzystać z niego już dziś.
GPT-4.1 to najnowszy model językowy, który ma poprawić dokładność, skrócić czas odpowiedzi i zwiększyć niezawodność w przetwarzaniu złożonych zapytań. Według danych opublikowanych przez OpenAI, model lepiej radzi sobie z programowaniem, rozumieniem długiego kontekstu i wykonywaniem poleceń złożonych z wielu kroków.
Przeczytaj również Chcesz pisać lepsze prompty? OpenAI wypuściło poradnik
Szybsze i tańsze modele GPT
Nowy model GPT-4.1 został udostępniony nie tylko w pełnej wersji, ale również w dwóch lżejszych wariantach – mini i nano. Wersja mini zastępuje dotychczasowy model GPT-4o mini i jest dostępna także dla użytkowników darmowych.
Najmniejszy model – nano – został zaprojektowany z myślą o zadaniach, które muszą być realizowane błyskawicznie i przy minimalnych kosztach. Dotyczy to np. autouzupełniania tekstu, klasyfikowania wiadomości czy szybkich odpowiedzi w czacie.
Koszty korzystania z modeli GPT-4.1 w API zostały obniżone względem GPT-4o – pełna wersja jest o 26% tańsza dla przeciętnego zapytania. Dodatkowo użytkownicy, którzy wielokrotnie korzystają z tych samych zapytań (czyli tzw. zapytań z pamięci podręcznej), mogą liczyć na 75% zniżkę. Oznacza to, że jeśli dana analiza była już wcześniej przetwarzana przez model, kolejne wywołania są znacznie tańsze.
Nowe możliwości w ChatGPT
GPT-4.1 został wprowadzony nie tylko do API, ale też do samej aplikacji ChatGPT. Użytkownicy planów Plus, Team i Pro mogą wybrać nowy model ręcznie z menu. Wersja mini została ustawiona jako domyślny model rezerwowy dla darmowych kont, które wyczerpały limit GPT-4o.
Równolegle OpenAI wprowadziło nową funkcję eksportu raportów w formacie PDF. Można z niej korzystać przy użyciu opcji „Pobierz jako PDF” w interfejsie ChatGPT. Funkcja umożliwia tworzenie sformatowanych dokumentów zawierających tabele, ilustracje i cytowania. Dotyczy to również wcześniej zapisanych analiz stworzonych z użyciem trybu Deep Research.
Lepsze rozumienie kodu i długich dokumentów
Co ważne, GPT-4.1 został przetestowany pod kątem różnych zastosowań programistycznych. W niezależnym teście SWE-bench Verified – sprawdzającym, czy model potrafi poprawić działający kod na podstawie opisu problemu – osiągnął wynik 54,6%.
Nowy model lepiej radzi sobie również z długim kontekstem. Może przetwarzać do 1 miliona tokenów, czyli ponad ośmiokrotność kodu źródłowego całej biblioteki React. W testach „needle in a haystack” GPT-4.1 skutecznie odnajdywał konkretne informacje niezależnie od ich położenia w obrębie bardzo długiego dokumentu.
Przeczytaj również OpenAI kupi Windsurf za 3 mld dolarów. Jak ta transakcja zmieni ChatGPT?