CEO Gradient Ерік Янг вважає, що наступний великий зсув у сфері штучного інтелекту не прийде від ще більших закритих моделей чи more powerful data centers.
Натомість, на його думку, його спричинить фундаментальна зміна в тому, як навчаються моделі: розподілене навчання в глобальній, відкритій для всіх обчислювальній мережі, а не в межах одного корпоративного суперкомп’ютера.
Розповідаючи про роботу Gradient в інтерв’ю для Yellow.com, Янг зазначив, що сьогоднішні домінуючі AI‑лабораторії, такі як OpenAI, Google, Anthropic, xAI, побудовані на припущенні, що базові моделі можна тренувати лише всередині гігантської централізованої інфраструктури.
«ШІ настільки виграє від централізації, що нікому ще не вдавалося тренувати великі моделі у кількох дата-центрах», — сказав він. Gradient робить ставку, що це припущення ось-ось зруйнується.
За словами Янга, Gradient вже здійснив успішні запуски навчання з підкріпленням, розподілені між незалежними дата-центрами, з продуктивністю, що конкурує з централізованими RLHF‑процесами.
Він каже, що це відкриває двері до того, що раніше вважалося неможливим: пост‑тренування трильйон‑параметричних моделей, яке проводитимуть не однією компанією, а тисячами постачальників обчислювальних ресурсів по всьому світу.
Також читайте: As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors
Економічні наслідки не менш значущі. Янг описує глобальний «ринок винагород», де оператори GPU, дата-центри та навіть невеликі незалежні інфраструктурні провайдери змагаються за право надати обчислювальні потужності для навчальних завдань.
Учасники отримують винагороди за надання обчислень за найнижчою доступною ціною, тоді як вартість навчання знижується нижче рівня централізованих альтернатив, які нині домінують на ринку.
Він також вважає, що децентралізована інфраструктура ШІ забезпечує суттєві переваги в безпеці та довірі.
Якщо інференс можна повністю виконувати на обладнанні, яке належить користувачу, — MacBook, десктопи, домашні GPU чи гібридні конфігурації, — тоді персональні дані ніколи не залишають пристрій.
«Сьогодні ми зливаємо в системи ШІ значно більше чутливих даних, ніж будь-коли віддавали Google, — сказав він. — Суверенна модель, що працює локально, змінює це».
Янг стверджує, що така прозорість може поширюватися і на саме навчання.
Якщо походження навчальних даних фіксується on-chain, користувачі можуть бачити, які середовища та учасники вплинули на формування моделі — це, за його словами, протиотрута до упереджень і непрозорого редакційного контролю, притаманних централізованим системам.
На його думку, майбутній ландшафт ШІ не буде керуватися однією великою моделлю, а радше «морем спеціалізованих моделей», які навчаються й належать колективно.
«Кожна компанія використовуватиме ШІ так само, як сьогодні використовує аналітику, — сказав Янг. — Коли це станеться, глобальна децентралізована обчислювальна мережа стане єдиною моделлю, що масштабується».
Читайте далі: The Aster ETF Hoax That Fooled Even Top Crypto Influencers

