Nexthop AI는 Lightspeed Venture Partners가 주도하고 Andreessen Horowitz가 기존 후원사인 Altimeter Capital, Kleiner Perkins와 함께 참여한 시리즈 B에서 5억 달러를 조달했다.
이번 라운드는 산타클라라에 기반을 둔 이 회사를 42억 달러로 평가하며, 이는 회사가 2025년 3월에 1억 1천만 달러와 함께 스텔스 모드에서 공개된 지 1년이 채 지나지 않은 시점이다.
이번 자금 조달과 함께, 회사는 AI 데이터 센터 트래픽을 위해 특별히 설계된 세 가지 신규 네트워킹 스위치를 공개했다.
이 조달은 하이퍼스케일러들이 기존 레거시 네트워킹 장비가 감당하지 못하는 속도로 AI 인프라에 자본을 쏟아붓는 가운데 이뤄졌다.
Alphabet, Amazon, Meta, Microsoft는 2026년 한 해에만 AI 데이터 센터 및 관련 인프라에 약 6,500억 달러를 지출할 것으로 예상된다.
Nexthop이 구축하는 것
Nexthop은 데이터 센터 시설 내부와 데이터 센터 간에서 수천 대의 GPU 서버 사이의 데이터 흐름을 관리하는 네트워킹 하드웨어와 소프트웨어를 개발한다.
회사는 기성 제품을 판매하는 대신, 각 하이퍼스케일러의 자체 엔지니어링 팀과 함께 시스템을 공동 설계하는 방식을 택한다.
이 회사의 스위치는 포트당 1.6테라비트 속도를 지원하며, 고집적 구성을 통해 50~100테라비트 이상의 총 처리량을 제공한다. 이는 기존에는 대형 통신사 코어 라우터에서나 볼 수 있던 수준의 성능이다.
소프트웨어 스택은 SONiC과 같은 오픈소스 네트워크 운영체제를 중심으로 구축되어, 하이퍼스케일러들이 Nexthop의 하드웨어를 기존 환경에 유연하게 통합할 수 있도록 한다.
함께 읽기: Arthur Hayes Bets On $150 HYPE By August, With His Fund's Largest Altcoin Position On The Line
시장 기회와 경쟁 구도
Nexthop은 350억 달러 규모로 추산되는 데이터 센터 스위칭 시장을 노리며, Cisco Systems, Arista Networks, Hewlett-Packard Enterprise와 경쟁하고 있다.
Nexthop이 내세우는 기존 업체 대비 주장은, 이들 벤더의 제품은 클라우드 시대를 위해 설계되었지, 대규모 GPU 학습 클러스터의 지속적이고 전면적인(all-to-all) 통신 패턴을 염두에 두고 설계된 것은 아니라는 점이다.
이 회사는 2024년에 Anshul Sadana가 설립했다. 그는 Arista에서 최고운영책임자(COO)를 포함해 17년간 근무했으며, 그 이전에는 Cisco에서 8년을 보냈다. Sadana는 하이퍼스케일러들이 Nexthop과 파트너십을 맺으면 제품 개발 주기를 6~12개월 단축하고, 보통 자체적으로 시도하는 1~2개 대신 4~6개의 기술 대안을 탐색할 수 있다고 말했다.
회사가 이러한 포지셔닝을 기존 고객 관계를 보유한 확립된 벤더들을 상대로 지속 가능한 수익으로 전환할 수 있을지 여부가 여전히 핵심 시험대이며, 이 5억 달러는 그 답을 찾기 위한 런웨이 역할을 하게 된다.





