Dlaczego Render Network uważa, że prawdziwym wąskim gardłem AI nie jest brak GPU, lecz marnowana moc obliczeniowa

1 godzina temu
Dlaczego Render Network uważa, że prawdziwym wąskim gardłem AI nie jest brak GPU, lecz marnowana moc obliczeniowa

Utrzymuje się założenie, że rozwój branży AI wkrótce zostanie ograniczony przez globalny niedobór wydajnych układów GPU.

Jednak ograniczenie kształtujące następną fazę rozwoju AI może wynikać mniej z absolutnego niedoboru, a bardziej ze strukturalnej nieefektywności.

Według Trevor’a Harries-Jones’a z Render Network większość światowej mocy obliczeniowej w ogóle nie jest wykorzystywana — i to właśnie ten rozdźwięk uważa on za ważniejszy niż same ograniczenia podaży.

Niezrozumiany „niedobór” GPU

„Czterdzieści procent GPU na świecie jest bezczynnych” — powiedział w wywiadzie dla Yellow.com, podczas wydarzenia Breakpoint projektu Solana. „Ludzie zakładają, że mamy niedobór, ale w rzeczywistości jest nadpodaż GPU wystarczająco wydajnych, by realizować zadania renderingu i AI”.

Harries-Jones argumentuje, że choć popyt na układy szkoleniowe, takie jak Nvidia H100, pozostaje bardzo wysoki, to samo trenowanie modeli stanowi jedynie niewielką część rzeczywistych obciążeń AI.

„Trenowanie to tak naprawdę tylko bardzo mały procent wykorzystania AI” — zauważa. „Inferencja zajmuje 80 procent”.

Taka nierównowaga, jak sugeruje, otwiera drogę do znacznie szerszego wykorzystania sprzętu konsumenckiego, słabszych GPU i nowych klas procesorów, takich jak LPU, TPU czy ASIC, niż się powszechnie zakłada.

Drugą zmianą, na którą zwraca uwagę, jest konwergencja tradycyjnych workflow 3D z pojawiającymi się natywnymi dla AI formatami assetów.

Twórcy kierują AI w stronę pipeline’ów o jakości filmowej

Techniki takie jak Gaussian splatting, które zachowują bazową strukturę 3D zamiast generować spłaszczone klatki 2D, oraz pojawienie się world models zaczynają zbliżać systemy AI do filmowego pipeline’u produkcyjnego.

Te zmiany są istotne, ponieważ sprawiają, że wyniki pracy AI stają się użyteczne wewnątrz istniejących profesjonalnych narzędzi, zamiast funkcjonować jako ciekawostkowe, oderwane formaty.

Rozmiar modeli nadal stanowi wyzwanie, ale Harries-Jones spodziewa się, że kwantyzacja i kompresja modeli będą dalej zmniejszać systemy open‑weight, aż zaczną bez problemu działać na urządzeniach konsumenckich.

Mniejsze modele, jak podkreśla, są kluczowe dla zdecentralizowanych sieci, które opierają się na rozproszonej pamięci RAM i przepustowości, a nie na hyperskalowych klastrach.

Also Read: Data Shows Bitcoin Enters 'Cost-Basis Cycle' Era As ETFs Redefine Market Structure

Podczas gdy wielu spodziewa się, że rosnąca złożoność modeli będzie windować koszty w górę, on uważa, że dominować będzie odwrotny mechanizm.

Przełomy w trenowaniu, takie jak niedawne chińskie projekty modeli stawiające na efektywność zamiast na skalę, wskazują na przyszłość, w której AI stanie się tańsza, mimo że jej wykorzystanie będzie rosnąć.

„Wraz ze spadkiem kosztów” — mówi — „zobaczymy coraz więcej nowych zastosowań”.

Zamiast niedoboru mocy obliczeniowej, Harries-Jones przewiduje cykl w duchu paradoksu Jevonsa: spadające koszty tworzą większy popyt, a większy popyt zachęca do tworzenia jeszcze bardziej efektywnych systemów.

Oczekuje on także, że kolejną fazę branży zdefiniuje hybrydowa moc obliczeniowa — mieszanka zadań wykonywanych na urządzeniu, w sieciach lokalnych i scentralizowanej chmurze.

Podobnie jak w modelu rozproszonej inteligencji Apple, różne środowiska będą obsługiwać różne zadania w zależności od wymagań dotyczących opóźnień, prywatności, wrażliwości danych i skali.

Krytyczne biznesowo obciążenia nadal będą wymagały zgodnych z regulacjami centrów danych, ale zadania niewrażliwe lub wsadowe będzie można w coraz większym stopniu uruchamiać na zdecentralizowanych sieciach. Postęp w szyfrowaniu może z czasem poszerzyć tę granicę.

Nadchodząca fala treści „3D‑first”

W dłuższej perspektywie widzi on znacznie szerszą zmianę: upowszechnienie 3D napędzane przez AI.

Harries-Jones spodziewa się, że kolejna era konsumenckich zastosowań AI skupi się wokół immersyjnych, natywnie 3D treści, a nie tekstu czy płaskich obrazów.

„Będziemy konsumować więcej treści 3D niż kiedykolwiek wcześniej” — mówi, wskazując na wczesne sygnały płynące ze strony sprzętu immersyjnego oraz szybką ewolucję narzędzi 3D‑AI.

Tradycyjne wąskie gardła motion graphics — wysoce techniczne workflow, dostępne jedynie dla wąskiej grupy specjalistów — mogą ustąpić narzędziom, które pozwolą milionom użytkowników tworzyć sceny o jakości filmowej.

Twórcy, którzy początkowo byli sceptyczni wobec AI, teraz bezpośrednio eksperymentują z tymi pipeline’ami, przyspieszając tempo doskonalenia narzędzi i kształtując sposób, w jaki będą ewoluować hybrydowe workflow.

Ich opinie, jak twierdzi, prawdopodobnie wpłyną na kierunek rozwoju branży równie mocno jak trendy sprzętowe.

Read Next: Why Gradient Thinks Trillion-Parameter Models Won’t Belong To OpenAI or Google In The Future

Zastrzeżenie i ostrzeżenie o ryzyku: Informacje zawarte w tym artykule służą wyłącznie celom edukacyjnym i informacyjnym i opierają się na opinii autora. Nie stanowią one porad finansowych, inwestycyjnych, prawnych czy podatkowych. Aktywa kryptowalutowe są bardzo zmienne i podlegają wysokiemu ryzyku, w tym ryzyku utraty całości lub znacznej części Twojej inwestycji. Handel lub posiadanie aktywów krypto może nie być odpowiednie dla wszystkich inwestorów. Poglądy wyrażone w tym artykule są wyłącznie poglądami autora/autorów i nie reprezentują oficjalnej polityki lub stanowiska Yellow, jej założycieli lub dyrektorów. Zawsze przeprowadź własne dokładne badania (D.Y.O.R.) i skonsultuj się z licencjonowanym specjalistą finansowym przed podjęciem jakiejkolwiek decyzji inwestycyjnej.
Najnowsze wiadomości
Pokaż wszystkie wiadomości
Dlaczego Render Network uważa, że prawdziwym wąskim gardłem AI nie jest brak GPU, lecz marnowana moc obliczeniowa | Yellow.com