Gradient CEO'su Eric Yang, yapay zekadaki bir sonraki büyük dönüşümün, daha büyük tescilli modellerden ya da daha güçlü veri merkezlerinden gelmeyeceğine inanıyor.
Bunun yerine, modellerin nasıl eğitildiğine dair temel bir değişimin bu dönüşümü yönlendireceğini savunuyor: eğitimin tek bir kurumsal süper bilgisayarın duvarları içinde değil, küresel ve izinsiz bir hesaplama ağına dağıtılması.
Yellow.com ile yaptığı bir röportajda Gradient'in çalışmalarından bahseden Yang, bugün OpenAI, Google, Anthropic, xAI gibi baskın yapay zeka laboratuvarlarının, temel modellerin yalnızca devasa, merkezi altyapılar içinde eğitilebileceği varsayımına dayandığını söyledi.
“Yapay zeka merkezileşmeden o kadar çok fayda görüyor ki, kimse birden fazla veri merkezi arasında büyük modelleri eğitmeyi başaramadı,” dedi. Gradient, bu varsayımın çökmek üzere olduğuna oynuyor.
Yang, Gradient'in bağımsız veri merkezlerine dağıtılmış, merkezi RLHF iş akışlarına rakip performans gösteren başarılı pekiştirmeli öğrenme eğitim çalışmaları gerçekleştirdiğini öne sürüyor.
Bunun, daha önce imkânsız olduğu düşünülen bir kapıyı araladığını söylüyor: trilyon parametreli modellerin sonradan eğitiminin tek bir şirket tarafından değil, dünyadaki binlerce hesaplama sağlayıcısı tarafından gerçekleştirilmesi.
Ayrıca Oku: As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors
Ekonomik etkiler de aynı derecede önemli. Yang, GPU operatörlerinin, veri merkezlerinin ve hatta küçük bağımsız altyapı sağlayıcılarının eğitim işlerine hesaplama gücü sağlamak için rekabet ettiği küresel, “ödül odaklı” bir pazarı tasvir ediyor.
Katkıda bulunanlar, en düşük maliyetle hesaplama gücü sundukları için ödüller kazanırken, eğitim maliyetleri de bugün piyasaya hakim olan merkezi alternatiflerin altına düşüyor.
Ayrıca, merkezi olmayan yapay zeka altyapısının anlamlı güvenlik ve güven avantajları sağladığına inanıyor.
Eğer çıkarım (inference) tamamen kullanıcıya ait donanımlarda, MacBook'larda, masaüstlerinde, ev tipi GPU'larda veya hibrit kurulumlarda yapılabilirse, kişisel veriler cihazdan hiç ayrılmıyor.
“Bugün, hassas verileri Google'a sızdırdığımızdan çok daha fazlasını yapay zeka sistemlerine sızdırıyoruz,” diyor. “Yerelde çalışan egemen (sovereign) bir model bunu değiştiriyor.”
Yang, bu şeffaflığın eğitimin kendisine de genişleyebileceğini savunuyor.
Eğitim verisinin kökeni zincir üzerinde kaydedilirse, kullanıcılar hangi ortamların ve katkıda bulunanların modeli şekillendirdiğini görebilir; Yang'a göre bu, merkezi sistemlerde görülen önyargılar ve opak editoryal kontrol için bir panzehir.
Ona göre, nihai yapay zeka manzarasına tek bir büyük model değil, iş birliğiyle eğitilen ve sahiplenilen bir “uzmanlaşmış modeller denizi” hakim olacak.
“Her şirket, bugün analitik çalıştırdığı gibi yapay zeka çalıştıracak,” diyor Yang. “Bu gerçekleştiğinde, küresel, merkezi olmayan bir hesaplama ağı ölçeklenebilen tek model hâline gelecek.”
Sıradaki Haber: The Aster ETF Hoax That Fooled Even Top Crypto Influencers

