Chińskie DeepSeek w piątek wypuściło nowy model sztucznej inteligencji, który nie zdołał zamknąć luki wydajnościowej gap with leading US labs.
Wynik ten studzi oczekiwania, które narosły po wcześniejszym wydaniu modelu R1, które w styczniu 2025 roku wstrząsnęło branżą, according do Bloomberg.
Co dostarczył model
DeepSeek opublikowało nowy model po miesiącach oczekiwania.
Wyniki benchmarków pokazały, że nie dorównuje on najwyższej klasie obecnych modeli z USA.
Luka między chińskimi a amerykańskimi czołowymi laboratoriami AI utrzymała się. DeepSeek do momentu publikacji nie odniosło się publicznie do oceny Bloomberg.
Model R1 DeepSeek pojawił się w styczniu 2025 roku i natychmiast przyciągnął globalną uwagę. Twierdzono, że dorównuje on czołowym amerykańskim modelom przy ułamku zgłaszanych kosztów treningu.
Premiera zaniepokoiła inwestorów technologicznych i wywołała szeroką debatę na temat amerykańskich kontroli eksportu zaawansowanych układów scalonych do Chin. Deklaracje kosztowe R1 były kwestionowane przez część badaczy, ale konkurencyjność modelu w kilku benchmarkach została powszechnie uznana.
To styczniowe wydanie uczyniło DeepSeek najbardziej komentowanym laboratorium AI poza Stanami Zjednoczonymi przez sporą część początku 2025 roku. Oczekiwano, że nowe wydanie zbuduje na tej dynamice. Na podstawie doniesień Bloomberg tak się nie stało.
Also Read: Researcher Breaks 15-Bit Bitcoin Key In Largest Quantum Attack to Date
Kontekst ograniczeń eksportu chipów
Amerykańskie ograniczenia dotyczące eksportu zaawansowanych półprzewodników do Chin pozostawały w mocy na progu 2026 roku. Kontrole te zostały częściowo zaprojektowane tak, by spowolnić rozwój chińskiej AI poprzez ograniczenie dostępu do wydajnego sprzętu treningowego.
Model R1 DeepSeek był przedstawiany jako dowód, że chińskie laboratoria mogą obchodzić te limity. Słabsza wydajność nowego modelu może wzmocnić argument, że ograniczenia dotyczące chipów przynoszą zamierzony efekt. Argument ten prawdopodobnie zostanie zweryfikowany, gdy pojawi się więcej niezależnych danych benchmarkowych.
Co dalej
Ten wynik nie usuwa DeepSeek z konkurencyjnego krajobrazu. Laboratorium już wcześniej udowodniło, że potrafi tworzyć wydajne i opłacalne modele. Zmniejszenie luki w określonych zadaniach jest nadal możliwe w kolejnych wydaniach.
Inwestorzy i decydenci polityczni obserwujący konkurencję AI między USA a Chinami będą oceniać, czy ten rezultat jest tymczasowym niepowodzeniem, czy bardziej trwałym rozjazdem.
Nie ogłoszono jeszcze oficjalnie harmonogramu następnego wydania modelu DeepSeek.
Read Next: Claude Mythos Vs. GPT-5.5: Gated Anthropic Model Wins 6 Of 9 Tests






