CEO Gradient Eric Yang tin rằng bước chuyển lớn tiếp theo của trí tuệ nhân tạo sẽ không đến từ các mô hình độc quyền lớn hơn hay more powerful data centers.
Thay vào đó, ông cho rằng nó sẽ được thúc đẩy bởi một thay đổi nền tảng trong cách huấn luyện mô hình: phân phối quá trình huấn luyện trên một mạng lưới tính toán toàn cầu, permissionless thay vì nằm trong bức tường của một siêu máy tính doanh nghiệp đơn lẻ.
Khi nói về công việc của Gradient trong một cuộc phỏng vấn với Yellow.com, Yang cho biết các phòng thí nghiệm AI thống trị ngày nay như OpenAI, Google, Anthropic, xAI được xây dựng trên giả định rằng các mô hình nền tảng chỉ có thể được huấn luyện bên trong hạ tầng tập trung, khổng lồ.
“AI được hưởng lợi quá nhiều từ sự tập trung đến mức chưa ai có thể huấn luyện các mô hình lớn trên nhiều trung tâm dữ liệu,” ông nói. Gradient đang đặt cược rằng giả định này sắp sụp đổ.
Yang cho biết Gradient đã chạy thành công các đợt huấn luyện tăng cường (reinforcement learning) được phân phối trên nhiều trung tâm dữ liệu độc lập, với hiệu năng sánh ngang các quy trình RLHF tập trung.
Ông nói điều này mở ra cánh cửa cho điều từng được cho là bất khả thi: hậu huấn luyện mô hình nghìn tỷ tham số không do một công ty duy nhất thực hiện, mà bởi hàng nghìn nhà cung cấp tài nguyên tính toán trên khắp thế giới.
Also Read: As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors
Tác động kinh tế cũng quan trọng không kém. Yang mô tả một thị trường toàn cầu “dựa trên tiền thưởng”, nơi các nhà vận hành GPU, trung tâm dữ liệu và thậm chí các nhà cung cấp hạ tầng độc lập nhỏ cạnh tranh để đóng góp năng lực tính toán cho các công việc huấn luyện.
Những người đóng góp kiếm phần thưởng bằng cách cung cấp năng lực tính toán với mức giá thấp nhất có thể, trong khi chi phí huấn luyện giảm xuống thấp hơn các phương án tập trung hiện đang thống trị thị trường.
Ông cũng tin rằng hạ tầng AI phi tập trung mang lại lợi thế đáng kể về bảo mật và niềm tin.
Nếu suy luận (inference) có thể được thực hiện hoàn toàn trên phần cứng thuộc sở hữu người dùng, như MacBook, máy tính để bàn, GPU tại nhà hoặc các thiết lập lai, thì dữ liệu cá nhân sẽ không bao giờ rời khỏi thiết bị.
“Hôm nay chúng ta đang rò rỉ nhiều dữ liệu nhạy cảm vào các hệ thống AI hơn so với những gì chúng ta từng đưa vào Google,” ông nói. “Một mô hình có chủ quyền chạy cục bộ sẽ thay đổi điều đó.”
Yang cho rằng mức độ minh bạch này có thể mở rộng đến cả quá trình huấn luyện.
Nếu nguồn gốc dữ liệu huấn luyện được ghi lại on-chain, người dùng có thể thấy những môi trường và bên đóng góp nào đã định hình mô hình, một liều giải độc, theo ông, đối với các thiên kiến và kiểm soát biên tập mờ ám trong các hệ thống tập trung.
Theo quan điểm của ông, bối cảnh AI cuối cùng sẽ không bị chi phối bởi một mô hình lớn duy nhất, mà bởi một “biển các mô hình chuyên biệt” được huấn luyện và sở hữu một cách cộng tác.
“Mỗi công ty sẽ vận hành AI giống như họ vận hành phân tích dữ liệu ngày nay,” Yang nói. “Khi điều đó xảy ra, một mạng lưới tính toán phi tập trung toàn cầu trở thành mô hình duy nhất có thể mở rộng.”
Read Next: The Aster ETF Hoax That Fooled Even Top Crypto Influencers

