Gradient‑CEO Eric Yang ist überzeugt, dass die nächste große Verschiebung in der Künstlichen Intelligenz nicht von größeren proprietären Modellen oder more powerful data centers. kommen wird.
Stattdessen argumentiert er, dass sie von einer grundlegenden Veränderung in der Art und Weise angetrieben wird, wie Modelle trainiert werden: Das Training wird über ein globales, erlaubnisfreies Rechennetz verteilt, anstatt innerhalb der Mauern eines einzelnen unternehmenseigenen Supercomputers stattzufinden.
In einem Gespräch über Gradients Arbeit in einem Interview mit Yellow.com sagte Yang, die heutigen dominanten KI‑Labs wie OpenAI, Google, Anthropic, xAI beruhten auf der Annahme, dass Foundation‑Modelle nur innerhalb massiver, zentralisierter Infrastrukturen trainiert werden können.
„KI profitiert so sehr von Zentralisierung, dass bisher niemand große Modelle über mehrere Rechenzentren hinweg trainieren konnte“, sagte er. Gradient setzt darauf, dass diese Annahme kurz vor dem Kollaps steht.
Yang behauptet, Gradient habe bereits erfolgreiche Reinforcement‑Learning‑Trainingsläufe erzielt, die über unabhängige Rechenzentren verteilt sind und eine Performance erreichen, die mit zentralisierten RLHF‑Workflows konkurriert.
Er sagt, dies öffne die Tür zu etwas, das zuvor als unmöglich galt: das Post‑Training von Billionen‑Parameter‑Modellen, durchgeführt nicht von einem einzigen Unternehmen, sondern von Tausenden von Compute‑Anbietern rund um den Globus.
Auch lesen: As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors
Die wirtschaftlichen Auswirkungen seien ebenso bedeutend. Yang beschreibt einen globalen, „kopfgeldgetriebenen“ Marktplatz, auf dem GPU‑Betreiber, Rechenzentren und sogar kleine, unabhängige Infrastrukturanbieter darum konkurrieren, Rechenleistung zu Trainingsjobs beizusteuern.
Beitragende erhalten Belohnungen dafür, Rechenleistung zum niedrigstmöglichen Preis bereitzustellen, während die Trainingskosten unter die der zentralisierten Alternativen fallen, die derzeit den Markt dominieren.
Er ist zudem der Ansicht, dass dezentrale KI‑Infrastruktur bedeutende Sicherheits‑ und Vertrauensvorteile bietet.
Wenn Inferenz vollständig auf nutzereigener Hardware – MacBooks, Desktops, Heim‑GPUs oder hybriden Setups – ausgeführt werden kann, verlassen persönliche Daten das Gerät nie.
„Heute leaken wir weit sensiblere Daten in KI‑Systeme, als wir es je bei Google getan haben“, sagte er. „Ein souveränes Modell, das lokal läuft, ändert das.“
Yang argumentiert, dass sich diese Transparenz bis hin zum Training selbst ausdehnen kann.
Wenn die Herkunft der Trainingsdaten on‑chain aufgezeichnet wird, können Nutzer sehen, welche Umgebungen und Beitragenden das Modell geprägt haben – ein Gegenmittel, wie er sagt, zu den Verzerrungen und der undurchsichtigen redaktionellen Kontrolle in zentralisierten Systemen.
Seiner Ansicht nach wird die künftige KI‑Landschaft nicht von einem einzigen großen Modell beherrscht, sondern von einem „Meer spezialisierter Modelle“, die kollaborativ trainiert und besessen werden.
„Jedes Unternehmen wird KI betreiben, so wie es heute Analytics betreibt“, sagte Yang. „Wenn das passiert, wird ein globales dezentrales Rechennetzwerk zum einzigen Modell, das skaliert.“
Als Nächstes lesen: The Aster ETF Hoax That Fooled Even Top Crypto Influencers

