Mengapa Gradient Yakin Model dengan Satu Triliun Parameter di Masa Depan Tidak Akan Menjadi Milik OpenAI atau Google

Mengapa Gradient Yakin Model dengan Satu Triliun Parameter di Masa Depan Tidak Akan Menjadi Milik OpenAI atau Google

CEO Gradient Eric Yang yakin pergeseran besar berikutnya dalam kecerdasan buatan tidak akan datang dari model proprietary yang lebih besar atau more powerful data centers.

Sebagai gantinya, ia berpendapat pergeseran itu akan didorong oleh perubahan mendasar dalam cara model dilatih: mendistribusikan pelatihan di jaringan komputasi global tanpa izin, bukan di dalam tembok satu superkomputer korporat.

Berbicara tentang pekerjaan Gradient dalam sebuah wawancara dengan Yellow.com, Yang mengatakan lab AI dominan saat ini seperti OpenAI, Google, Anthropic, xAI dibangun di atas asumsi bahwa model fondasi hanya dapat dilatih di infrastruktur besar yang terpusat.

“AI mendapat begitu banyak manfaat dari sentralisasi sehingga tidak ada yang mampu melatih model besar di beberapa pusat data,” katanya. Gradient bertaruh bahwa asumsi ini akan segera runtuh.

Yang mengklaim Gradient telah berhasil melakukan pelatihan reinforcement learning yang terdistribusi di berbagai pusat data independen, dengan kinerja yang menyaingi alur kerja RLHF tersentralisasi.

Ia mengatakan hal ini membuka pintu bagi sesuatu yang sebelumnya dianggap mustahil: post-training model dengan satu triliun parameter yang dijalankan bukan oleh satu perusahaan, melainkan oleh ribuan penyedia komputasi di seluruh dunia.

Also Read: As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors

Implikasi ekonominya sama signifikannya. Yang menggambarkan sebuah pasar global “berbasis bounty” di mana operator GPU, pusat data, dan bahkan penyedia infrastruktur kecil independen bersaing untuk menyumbangkan komputasi ke tugas pelatihan.

Kontributor mendapatkan imbalan karena menyediakan komputasi dengan harga terendah yang tersedia, sementara biaya pelatihan turun di bawah alternatif tersentralisasi yang saat ini mendominasi pasar.

Ia juga percaya infrastruktur AI terdesentralisasi memberikan keuntungan keamanan dan kepercayaan yang berarti.

Jika inferensi dapat dijalankan sepenuhnya di perangkat milik pengguna, MacBook, desktop, GPU rumahan, atau setup hibrida, maka data pribadi tidak pernah keluar dari perangkat.

“Saat ini kita membocorkan jauh lebih banyak data sensitif ke sistem AI daripada yang pernah kita lakukan ke Google,” katanya. “Model berdaulat yang berjalan secara lokal mengubah hal itu.”

Yang berargumen bahwa transparansi ini dapat diperluas ke proses pelatihan itu sendiri.

Jika asal-usul data pelatihan dicatat on-chain, pengguna dapat melihat lingkungan dan kontributor mana yang membentuk model, sebuah penawar, katanya, terhadap bias dan kontrol editorial tidak transparan yang terlihat di sistem tersentralisasi.

Menurut pandangannya, lanskap AI pada akhirnya tidak akan dikuasai oleh satu model besar, melainkan “lautan model spesialis” yang dilatih dan dimiliki secara kolaboratif.

“Setiap perusahaan akan menjalankan AI seperti mereka menjalankan analitik sekarang,” kata Yang. “Ketika itu terjadi, jaringan komputasi terdesentralisasi global menjadi satu-satunya model yang dapat diskalakan.”

Read Next: The Aster ETF Hoax That Fooled Even Top Crypto Influencers

Penafian dan Peringatan Risiko: Informasi yang diberikan dalam artikel ini hanya untuk tujuan edukasi dan informasi dan berdasarkan opini penulis. Ini tidak merupakan saran keuangan, investasi, hukum, atau pajak. Aset kripto sangat fluktuatif dan mengalami risiko tinggi, termasuk risiko kehilangan seluruh atau sebagian besar investasi Anda. Trading atau memegang aset kripto mungkin tidak cocok untuk semua investor. Pandangan yang dinyatakan dalam artikel ini adalah pandangan penulis saja dan tidak mewakili kebijakan resmi atau posisi Yellow, pendirinya, atau eksekutifnya. Selalu lakukan riset menyeluruh Anda sendiri (D.Y.O.R.) dan konsultasikan dengan profesional keuangan berlisensi sebelum membuat keputusan investasi apapun.