ในวงการ AI มักมีสมมติฐานว่าการเติบโตจะถูกจำกัดในไม่ช้า ด้วยภาวะขาดแคลน GPU ระดับสูงทั่วโลก
แต่อุปสรรคที่กำลังกำหนดทิศทางระยะต่อไปของการพัฒนา AI อาจไม่ใช่ปัญหาทรัพยากรขาดแคลนแบบสัมบูรณ์ หากแต่เป็นปัญหาเชิงโครงสร้างและความไร้ประสิทธิภาพ
ตามมุมมองของ Trevor Harries-Jones แห่ง Render Network เขาเห็นว่าความสามารถด้านคอมพิวต์ส่วนใหญ่ของโลกแทบไม่ได้ถูกใช้งานเลย ซึ่งเป็นช่องว่างที่สำคัญกว่าข้อจำกัดด้านอุปทานเสียอีก
วิกฤต GPU ที่ถูกเข้าใจผิด
“สี่สิบเปอร์เซ็นต์ของ GPU ทั่วโลกว่างงานอยู่” เขากล่าวกับ Yellow.com ในการสัมภาษณ์ระหว่างงาน Breakpoint ของ Solana “ผู้คนคิดว่ามันมีภาวะขาดแคลน แต่แท้จริงแล้วมี GPU จำนวนมากเกินพอ ที่มีประสิทธิภาพพอสำหรับงานเรนเดอร์และงาน AI”
Harries-Jones โต้แย้งว่า แม้ความต้องการชิปสำหรับเทรนโมเดล อย่าง Nvidia H100 จะยังรุนแรง แต่การเทรนนั้นแท้จริงแล้วเป็นเพียงส่วนเล็กๆ ของภาระงาน AI ในโลกความเป็นจริง
“การเทรนนิ่งคิดเป็นสัดส่วนที่เล็กมากของการใช้งาน AI ทั้งหมด” เขาระบุ “อินเฟอเรนซ์กินสัดส่วนถึง 80%”
ความไม่สมดุลนี้ เขามองว่าเป็นโอกาสให้ฮาร์ดแวร์ฝั่งผู้บริโภค GPU ระดับล่าง และคลาสโปรเซสเซอร์แบบใหม่อย่าง LPU, TPU และ ASIC เข้ามารับภาระงานคอมพิวต์ระดับโลกได้มากกว่าที่หลายคนคาดคิด
การเปลี่ยนแปลงอีกด้านที่เขาเน้น คือการบรรจบกันของเวิร์กโฟลว์ 3D แบบดั้งเดิม กับฟอร์แมตทรัพย์สินดิจิทัลที่ออกแบบมาเพื่อ AI ตั้งแต่ต้น
ครีเอเตอร์ดัน AI สู่สายการผลิตระดับภาพยนตร์
เทคนิคอย่าง Gaussian splatting ซึ่งคงโครงสร้าง 3D ไว้แทนที่จะสร้างเฟรม 2D แบนๆ และการเกิดขึ้นของ world models กำลังดึงระบบ AI ให้เข้าใกล้ไปสู่สายการผลิตระดับภาพยนตร์มากขึ้น
พัฒนาการเหล่านี้สำคัญ เพราะทำให้งานที่สร้างด้วย AI ถูกนำไปใช้จริงในเครื่องมือมืออาชีพที่มีอยู่แล้ว แทนที่จะเป็นเพียงฟอร์แมตแปลกใหม่ที่แยกขาดออกมา
ขนาดโมเดลยังเป็นความท้าทาย แต่ Harries-Jones คาดว่าเทคนิค quantization และการบีบอัดโมเดล จะทำให้ระบบแบบ open-weight มีขนาดเล็กลงเรื่อยๆ จนสามารถรันได้อย่างสบายบนอุปกรณ์ผู้บริโภค
โมเดลที่เล็กลง เขากล่าว เป็นสิ่งจำเป็นสำหรับเครือข่ายแบบกระจายศูนย์ ที่ต้องพึ่งพา RAM และแบนด์วิดท์แบบกระจาย แทนการใช้คลัสเตอร์ขนาดใหญ่แบบ hyperscale
Also Read: Data Shows Bitcoin Enters 'Cost-Basis Cycle' Era As ETFs Redefine Market Structure
ขณะที่หลายฝ่ายคาดว่าความซับซ้อนของโมเดลที่เพิ่มขึ้น จะดันต้นทุนให้สูงขึ้น เขากลับเชื่อว่ากลไกตรงกันข้ามจะเกิดขึ้น
ความก้าวหน้าด้านการเทรน เช่น โมเดลจากจีนบางราย ที่ให้ความสำคัญกับ “ประสิทธิภาพ” มากกว่า “ขนาด” บ่งชี้ถึงอนาคตที่ AI จะมีต้นทุนถูกลง แม้การใช้งานจะเร่งตัวขึ้นก็ตาม
“เมื่อค่าใช้จ่ายลดลง” เขากล่าว “คุณจะเห็นเคสการใช้งานใหม่ๆ เกิดขึ้นมากขึ้นเรื่อยๆ”
แทนที่จะติดที่ภาวะขาดแคลนคอมพิวต์ Harries-Jones คาดว่าจะเห็นวงจรแบบ Jevons paradox: ต้นทุนที่ลดลงสร้างดีมานด์เพิ่ม และดีมานด์ที่เพิ่มก็ยิ่งผลักดันให้ระบบมีประสิทธิภาพมากขึ้นไปอีก
เขายังคาดว่าคอมพิวต์แบบผสม ที่รวมการประมวลผลบนอุปกรณ์ เครือข่ายภายใน และคลาวด์ศูนย์กลาง จะเป็นโครงสร้างหลักของอุตสาหกรรมในระยะถัดไป
คล้ายกับโมเดล distributed intelligence ของ Apple ที่สภาพแวดล้อมต่างๆ จะจัดการงานต่างประเภทกัน ตามปัจจัยด้าน latency ความเป็นส่วนตัว ความอ่อนไหวของข้อมูล และสเกลงาน
ภาระงานที่มีความสำคัญเชิงภารกิจ ยังจำเป็นต้องใช้ดาต้าเซ็นเตอร์ที่สอดคล้องมาตรฐาน แต่ภาระงานที่ไม่อ่อนไหวหรือเป็นแบบ batch จะสามารถรันบนเครือข่ายแบบกระจายศูนย์ได้มากขึ้น ขณะที่ความก้าวหน้าด้านการเข้ารหัส อาจค่อยๆ ขยายขอบเขตนี้ในอนาคต
คลื่นใหม่ของคอนเทนต์แบบ 3D ก่อนอื่น
ในระยะยาว เขาเห็นการเปลี่ยนแปลงที่กว้างกว่านั้น: การที่ 3D กำลังกลายเป็นกระแสหลักด้วยพลังของ AI
Harries-Jones คาดว่า ยุคถัดไปของ AI ฝั่งผู้บริโภคจะหมุนรอบคอนเทนต์แบบ immersive ที่เป็น 3D-native มากกว่าข้อความหรือภาพแบน
“เราจะเสพคอนเทนต์ 3D มากกว่าที่เคย” เขากล่าว โดยชี้ไปที่สัญญาณจากฮาร์ดแวร์ immersive รุ่นใหม่ๆ และวิวัฒนาการอย่างรวดเร็วของเครื่องมือ 3D-AI
คอขวดแบบดั้งเดิมของงาน motion graphics ที่เวิร์กโฟลว์มีความเทคนิคสูงและจำกัดอยู่ในกลุ่มผู้เชี่ยวชาญเฉพาะทาง อาจถูกแทนที่ด้วยเครื่องมือที่เปิดโอกาสให้ผู้ใช้หลายล้านคน สร้างซีนระดับภาพยนตร์ได้เอง
ครีเอเตอร์ซึ่งเคยต่อต้าน AI ตอนนี้กำลังทดลองใช้กับสายการผลิตเหล่านี้โดยตรง เร่งให้วงจรการพัฒนาเครื่องมือสั้นลง และกำหนดทิศทางการเติบโตของเวิร์กโฟลว์แบบไฮบริด
ฟีดแบ็กของพวกเขา เขาให้เหตุผลว่า น่าจะมีอิทธิพลต่อทิศทางอุตสาหกรรม ไม่แพ้เทรนด์ด้านฮาร์ดแวร์เลย
Read Next: Why Gradient Thinks Trillion-Parameter Models Won’t Belong To OpenAI or Google In The Future

