OpenAI zaprezentowała o3 oraz o4-mini: Nowe flagowe modele ChatGPT z rozszerzonymi możliwościami.
16.04.2025
3535

Dziennikarz
Szostal Oleksandr
16.04.2025
3535

OpenAI zaprezentowała swoje najnowsze modele sztucznej inteligencji - o3 oraz o4-mini. Te modele są zaktualizowanymi wersjami serii 'o', które koncentrują się na długotrwałym rozumowaniu przed udzieleniem odpowiedzi, ustanawiając nowe standardy wydajności i użyteczności. Zgodnie z ogłoszeniem OpenAI, nowe modele wykazują znaczny postęp w rozumowaniu i integracji z narzędziami w ChatGPT. Potrafią samodzielnie korzystać i łączyć wszystkie narzędzia ChatGPT, w tym analizę plików za pomocą Pythona, głęboką analizę danych wizualnych oraz generację obrazów. Te modele potrafią określić, kiedy i jak używać narzędzi do tworzenia szczegółowych odpowiedzi w wymaganym formacie, co pozwala na szybsze rozwiązywanie skomplikowanych problemów. Główne cechy modeli: - OpenAI o3: Najpotężniejszy model, który ma zaawansowane możliwości w kodowaniu, matematyce, naukach i percepcji wizualnej. Ustanowił nowe rekordy na Codeforces, SWE-bench oraz MMMU. Model jest szczególnie skuteczny w skomplikowanych zapytaniach i zadaniach wizualnych. Popełnia o 20% mniej istotnych błędów w porównaniu do poprzedniego modelu o1 w trudnych rzeczywistych zadaniach, w tym w programowaniu, konsultingu biznesowym oraz kreatywnych pomysłach. - OpenAI o4-mini: Mniejszy model, zoptymalizowany do szybkiego i efektywnego rozumowania. Wykazuje dobrą wydajność w matematyce, kodowaniu oraz zadaniach wizualnych. Na AIME 2025 model zdobył 99,5%, mając dostęp do interpretatora Pythona. Przewyższa również poprzedni model o3-mini w zadaniach poza STEM oraz w naukach o danych. Oba modele przestrzegają instrukcji i dostarczają pomocne odpowiedzi dzięki poprawionemu intelektowi i integracji ze źródłami internetowymi. Stały się również bardziej naturalne w komunikacji, wykorzystując pamięć i historię rozmów do personalizacji odpowiedzi. OpenAI ogłosiła, że uczenie ze wzmocnieniem (RL) poprawia wydajność modeli oraz zintegrowała obrazy bezpośrednio w proces rozumowania. Modele potrafią analizować i manipulować obrazami podczas rozumowania. OpenAI o3 oraz o4-mini są nie tylko mądrzejsze, lecz także bardziej efektywne kosztowo w porównaniu do wcześniejszych modeli o1 oraz o3-mini. OpenAI zaktualizowała także dane do nauki bezpieczeństwa, opracowała system do wykrywania niebezpiecznych zapytań oraz uruchomiła eksperyment Codex CLI. Użytkownicy różnych planów uzyskają dostęp do nowych modeli, a także istnieje możliwość otrzymania grantów na projekty wykorzystujące Codex CLI. Przyszłość OpenAI polega na połączeniu specjalizowanych możliwości rozumowania z umiejętnościami konwersacyjnymi oraz narzędziami serii GPT w celu stworzenia jeszcze potężniejszych modeli.
Czytaj także
- Nie chodzi o pieniądze: wskazano główną przyczynę, dla której Ukraińcy wyjeżdżają z Polski
- Ukraińcom ogłoszono taryfę na gaz od 1 września: kto będzie mógł płacić mniej
- Trump zwołał nadzwyczajną naradę i może podjąć 'krytycznie ważną decyzję' w sprawie Iranu
- Francja stanowczo potępiła nocny atak Rosji na Ukrainę i dała radę Putunowi
- Różnica w cenie – do 7 hrywien: kierowcy pokazali, jak różnią się ceny paliw w różnych regionach
- Już nie poprowadzę ludzi na śmierć: amerykański ochotnik zamyka swoją jednostkę w Siłach Zbrojnych Ukrainy