DeepSeek V3.1 pokonuje ChatGPT. Chiński model z otwartym kodem pręży muskuły

2 dni temu 9

Jest szybko i są otwarte źródła

Chiński startup z Hangzhou udostępnił rozwiązanie liczące 685 miliardów parametrów, które w pierwszych testach radzi sobie podobnie, jak flagowe systemy OpenAI (które zaliczyło ostatnio wpadkę z premierą GPT-5) i Anthropic. Różnica jest jednak fundamentalna – dzięki temu, że DeepSeek jest modelem otwartoźródłowym, każdy może go pobrać, używać, a nawet pobawić się w druciarza i modyfikować go wg. swoich upodobań.

🚨 BREAKING: DeepSeek V3.1 is Here! 🚨

The AI giant drops its latest upgrade — and it’s BIG:
⚡685B parameters
🧠Longer context window
📂Multiple tensor formats (BF16, F8_E4M3, F32)
💻Downloadable now on Hugging Face
📉Still awaiting API/inference launch

The AI race just got… pic.twitter.com/nILcnUpKAf

— DeepSeek News Commentary (@deepsseek) August 19, 2025

Jest też szybko – DeepSeek V3.1 osiągnął 71,6% w benchmarku kodowania Aider, co plasuje go wśród najlepszych dostępnych modeli. To już robi wrażenie, to nie jest kolejne przeciętne rozwiązanie w morzu podobnych projektów, ale konkurent zdolny konkurować z czołowymi graczami.

DeepSeek V3.1 zwraca uwagę relatywnie niskimi kosztami

Najbardziej zaskakuje ekonomiczna strona przedsięwzięcia. W tej chwili koszt wykonania zadania kodowania wynosi około 1,01 USD, podczas gdy konkurencyjne systemy sięgają prawie 70 dolarów za podobne obciążenie. 68-krotna różnica w kosztach przy zachowaniu porównywalnej jakości wyników to coś, co potrafi wywołać uniesienie brwi i czego branża chyba nie przewidziała.

Model radzi sobie z kontekstem do 128 000 tokenów, co odpowiada mniej więcej 400 stronom tekstu przetwarzanym jednocześnie. Co ważne, utrzymuje przy tym zupełnie przyzwoitą prędkość odpowiedzi, co daje mu przewagę nad wolniejszymi systemami opartymi na rozumowaniu.

Architektura hybrydowa stanowi prawdziwą innowację. DeepSeek stworzył system, który łączy funkcje czatu, rozumowania i kodowania w jednym spójnym modelu i to skutecznie – a bywało, że wcześniejsze próby prowadzone w takim kierunku dawały efekty w postaci modeli, które radziły sobie słabo we wszystkich aspektach

Społeczność odkryła „pod maską” sporo technicznych nowości – cztery nowe tokeny specjalne, ukryte w strukturze: funkcje wyszukiwania umożliwiające integrację z siecią w czasie rzeczywistym oraz tokeny „myślenia” pozwalające na wewnętrzne procesy rozumowania. Model obsługuje różne formaty precyzji, od standardowego BF16 do eksperymentalnego FP8, o niższej precyzji i mniejszych wymaganiach obliczeniowych.

Czytaj też: Recenzja Huawei MatePad 11.5 2025. Najbardziej opłacalny tablet na rynku stał się jeszcze lepszy!

Patrzcie, mówimy, to nasze, chińskie, przez nas wykonane i to nie jest nasze ostatnie słowo

Czas premiery nie wydaje się przypadkowy. DeepSeek V3.1 pojawił się dosłownie „chwilę” po wprowadzeniu GPT-5 przez OpenAI i Claude 4 przez Anthropic – modeli reklamowanych jako szczytowe osiągnięcia technologiczne i trudno nie zauważyć tu prężenia muskułów przez Chiny. Nagłówek tej części tekstu już nie wydaje się taki zabawny jak u Barei.

DeepSeek przeprowadził przy okazji konsolidację swoich produktów, usuwając odniesienia do wersji R1 i przekierowując wszystko do wersji V3.1. Oznacz to, że uznali dojrzałość platformy i można się spodziewać jej szerszej komercjalizacji. Warto jednocześnie przypomnieć, że będąca w opracowaniu wersja DeepSeek R2 została poważnie opóźniona, ze względu na problemy z niedostateczną wydajnością układów Huawei, na których była trenowana.

Claude Opus 4 kosztuje 15 USD za milion tokenów wejściowych i 75 USD za wyjściowe, podczas gdy Claude Sonnet 4 wymaga odpowiednio 3 USD i 15 USD. W tym kontekście DeepSeek V3.1 oferuje zbliżoną wydajność za ułamek tych kosztów. Model zajmujący 700 GB potrzebuje oczywiście sporych zasobów, by zapewnić dobrą wydajność – wydaje się pewne, że dostawcy usług chmurowych wkrótce zaoferują hostowane wersje dla wymagających użytkowników, eliminujące konieczność stawiania na własny hardware. Otwarty charakter rozwiązania eliminuje zaś opłaty licencyjne i ograniczenia użytkowania.

Pojawienie się DeepSeek V3.1 pokazuje, że zaawansowana sztuczna inteligencja nie wymaga już wyłącznie ogromnych zasobów i zamkniętych ekosystemów. Jeśli otwarte alternatywy mogą dorównywać systemom własnościowym, oferując przy tym większą elastyczność i niższe koszty, to możliwe, że dotychczasowa przewaga technologicznych gigantów okaże się mniej trwała, niż by tego sobie życzyli.

Przeczytaj źródło