Gradient, Trilyon Parametreli Modellerin Gelecekte OpenAI veya Google'a Ait Olmayacağını Neden Düşünüyor?

Gradient, Trilyon Parametreli Modellerin Gelecekte OpenAI veya Google'a Ait Olmayacağını Neden Düşünüyor?

Gradient CEO'su Eric Yang, yapay zekadaki bir sonraki büyük dönüşümün, daha büyük tescilli modellerden ya da daha güçlü veri merkezlerinden gelmeyeceğine inanıyor.

Bunun yerine, modellerin nasıl eğitildiğine dair temel bir değişimin bu dönüşümü yönlendireceğini savunuyor: eğitimin tek bir kurumsal süper bilgisayarın duvarları içinde değil, küresel ve izinsiz bir hesaplama ağına dağıtılması.

Yellow.com ile yaptığı bir röportajda Gradient'in çalışmalarından bahseden Yang, bugün OpenAI, Google, Anthropic, xAI gibi baskın yapay zeka laboratuvarlarının, temel modellerin yalnızca devasa, merkezi altyapılar içinde eğitilebileceği varsayımına dayandığını söyledi.

“Yapay zeka merkezileşmeden o kadar çok fayda görüyor ki, kimse birden fazla veri merkezi arasında büyük modelleri eğitmeyi başaramadı,” dedi. Gradient, bu varsayımın çökmek üzere olduğuna oynuyor.

Yang, Gradient'in bağımsız veri merkezlerine dağıtılmış, merkezi RLHF iş akışlarına rakip performans gösteren başarılı pekiştirmeli öğrenme eğitim çalışmaları gerçekleştirdiğini öne sürüyor.

Bunun, daha önce imkânsız olduğu düşünülen bir kapıyı araladığını söylüyor: trilyon parametreli modellerin sonradan eğitiminin tek bir şirket tarafından değil, dünyadaki binlerce hesaplama sağlayıcısı tarafından gerçekleştirilmesi.

Ayrıca Oku: As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors

Ekonomik etkiler de aynı derecede önemli. Yang, GPU operatörlerinin, veri merkezlerinin ve hatta küçük bağımsız altyapı sağlayıcılarının eğitim işlerine hesaplama gücü sağlamak için rekabet ettiği küresel, “ödül odaklı” bir pazarı tasvir ediyor.

Katkıda bulunanlar, en düşük maliyetle hesaplama gücü sundukları için ödüller kazanırken, eğitim maliyetleri de bugün piyasaya hakim olan merkezi alternatiflerin altına düşüyor.

Ayrıca, merkezi olmayan yapay zeka altyapısının anlamlı güvenlik ve güven avantajları sağladığına inanıyor.

Eğer çıkarım (inference) tamamen kullanıcıya ait donanımlarda, MacBook'larda, masaüstlerinde, ev tipi GPU'larda veya hibrit kurulumlarda yapılabilirse, kişisel veriler cihazdan hiç ayrılmıyor.

“Bugün, hassas verileri Google'a sızdırdığımızdan çok daha fazlasını yapay zeka sistemlerine sızdırıyoruz,” diyor. “Yerelde çalışan egemen (sovereign) bir model bunu değiştiriyor.”

Yang, bu şeffaflığın eğitimin kendisine de genişleyebileceğini savunuyor.

Eğitim verisinin kökeni zincir üzerinde kaydedilirse, kullanıcılar hangi ortamların ve katkıda bulunanların modeli şekillendirdiğini görebilir; Yang'a göre bu, merkezi sistemlerde görülen önyargılar ve opak editoryal kontrol için bir panzehir.

Ona göre, nihai yapay zeka manzarasına tek bir büyük model değil, iş birliğiyle eğitilen ve sahiplenilen bir “uzmanlaşmış modeller denizi” hakim olacak.

“Her şirket, bugün analitik çalıştırdığı gibi yapay zeka çalıştıracak,” diyor Yang. “Bu gerçekleştiğinde, küresel, merkezi olmayan bir hesaplama ağı ölçeklenebilen tek model hâline gelecek.”

Sıradaki Haber: The Aster ETF Hoax That Fooled Even Top Crypto Influencers

Feragatname ve Risk Uyarısı: Bu makalede sağlanan bilgiler yalnızca eğitici ve bilgilendirici amaçlıdır ve yazarın görüşüne dayanmaktadır. Mali, yatırım, hukuki veya vergi tavsiyesi teşkil etmez. Kripto para varlıkları son derece değişkendir ve yatırımınızın tamamını veya önemli bir kısmını kaybetme riski dahil olmak üzere yüksek riske tabidir. Kripto varlık ticareti veya tutma tüm yatırımcılar için uygun olmayabilir. Bu makalede ifade edilen görüşler yalnızca yazara aittir ve Yellow, kurucuları veya yöneticilerinin resmi politikasını veya pozisyonunu temsil etmez. Her zaman kendi kapsamlı araştırmanızı yapın (D.Y.O.R.) ve herhangi bir yatırım kararı vermeden önce lisanslı bir finansal uzmanla görüşün.
Gradient, Trilyon Parametreli Modellerin Gelecekte OpenAI veya Google'a Ait Olmayacağını Neden Düşünüyor? | Yellow.com