OcNOS 7.0 GA

OcNOS-DC
NOS de centro de datos

Sistema operativo de red abierto para fabric DC leaf-spine. Overlays EVPN-VXLAN, RoCEv2 sin pérdidas para clústeres GPU de IA/ML, automatización ZTP y telemetría streaming, sobre hardware abierto Broadcom validado.

dc-spine01 — OcNOS-DC EN VIVO
$show bgp evpn summary
BGP EVPN — AS 65001
Vecino State Pfx
10.0.0.11 Establecido 342
10.0.0.12 Establecido 342
10.0.0.13 Establecido 341
10.0.0.14 Establecido 341
$show pfc counters et-0/0/1
Prioridad 3 RoCEv2
Número de drops 0
Estado ✓ sin pérdidas
$show ztp status
Estado ✓ Completo
Fabric ✓ EVPN unido
$
T
Capacidad máxima de spine
Velocidad de puerto (TH5)
Packet Loss (RoCEv2)
ASIC validados
SKU Tiers
Who Deploys OcNOS-DC

Diseñado para los equipos que operan fabrics de IA, empresa y cloud.

Desde spines de clúster de GPU hasta leaf multi-tenant — un único NOS, tres SKU, hardware abierto validado.

Operadores de clústeres IA y GPU

Fabric east-west sin pérdidas para cargas RDMA.

«El entrenamiento GPU a GPU no tolera ni un solo paquete descartado — un único descarte detiene toda la tarea.»

PFC & ECN preconfigurados para RoCEv2 en spines Tomahawk 4/5 (25,6T–51,2T). Overlay EVPN-VXLAN, ZTP y telemetría gNMI: el mismo Ethernet sin pérdidas que ejecutan los hyperscalers.

DC-PLUS · TH4 / TH5
Enterprise Data Center

Leaf-spine EVPN-VXLAN sin el sobrecosto propietario.

«El mismo silicio Broadcom que Arista EOS y Cisco Nexus — pagando la prima del proveedor.»

IRB simétrico, rutas Type-2/Type-5, gateway anycast distribuido y supresión de ARP en plataformas Trident & Tomahawk. Underlay BGP con ECMP en cada nivel.

DC-IPBASE · TD3 – TH3
Operadores cloud y multi-tenant

Cientos de VNI tenant — un único fabric.

«Un hardware separado por tenant no escala. Tampoco lo hacen los ecosistemas de automatización propios de un fabricante.»

Aislamiento VRF por tenant, encapsulación VXLAN, Docker on-switch basado en Linux. NETCONF/YANG, gNMI, Ansible: APIs abiertas y automatización portable.

DC-IPBASE / DC-PLUS
Por qué OcNOS-DC

Economía abierta. Rendimiento de grado IA.

AI & GPU Clusters

RoCEv2 sin pérdidas — Fabric GPU-a-GPU sin pérdidas de paquetes

PFC y ECN preconfigurados para cargas RDMA. OcNOS-DC sobre plataformas TH4/TH5 ofrece el mismo Ethernet sin pérdidas que los hyperscalers ejecutan en clústeres de IA en producción, sin la etiqueta de precio de Cisco o NVIDIA.

Prioridad 3 PFC ECN WRED RoCEv2 RDMA Sin drop
Solución Fabric de IA
Fabric overlay

EVPN-VXLAN — Leaf-Spine de producción desde el día 1

IRB simétrico, gateway anycast distribuido, supresión de ARP y rutas Type-5. ZTP asegura que cada nuevo leaf se une al fabric automáticamente sin trabajo de CLI.

Telemetría

Real-Time gNMI Streaming

Utilización de buffer, contadores de pausa PFC y eventos de congestión transmitidos en tiempo real. Modelos YANG OpenConfig para integración vendor-neutral.

Automatización Day 0

ZTP — Llega el rack. Se une al fabric.

El Zero Touch Provisioning basado en DHCP incorpora automáticamente cada nuevo leaf y spine. Los racks de clúster GPU se ponen en servicio sin una sola sesión SSH.

One Accountable Vendor

Un solo contrato de soporte — Software + Hardware + RMA

Un SLA único para OcNOS, la plataforma Edgecore o UfiSpace validada y la logística de RMA. Sin trasvases entre proveedores cuando un switch falla a las 3 de la madrugada.

Arquitectura

Topología Leaf-Spine OcNOS-DC

Desde los switches ToR del clúster GPU pasando por el fabric leaf-spine hasta el DCI: un único NOS, un proveedor y un contrato de soporte.

OcNOS-DC leaf-spine fabric with RoCEv2 GPU racks and DCI OcNOS-DC data center topology. Two GPU racks (H100 RoCEv2) and a storage/CPU rack with NVMe-oF/VXLAN feed dual leaf/ToR switches (Edgecore AS7726, DC-IPBASE SKU). Two spine switches (AS9736-64D, TH5, DC-PLUS) interconnect the leaves. A DCI Gateway with 400G ZR/ZR+ extends VXLAN tunnels to a remote DC. Isolated OOB management bus (DC-MGMT) wraps top and bottom. ISOLATED OOB MGMT BUS (TOP) ISOLATED OOB MGMT BUS (BOTTOM) GPU Rack A H100 · RoCEv2 COMPUTE GPU Rack B H100 · RoCEv2 COMPUTE Storage / CPU NVMe-oF · VXLAN STORAGE Leaf / ToR PFC · ECN · VTEP Edgecore AS7726 DC-IPBASE SKU Leaf / ToR PFC · ECN · VTEP Edgecore AS7726 DC-IPBASE SKU Spine Switch BGP ECMP · EVPN AS9736-64D · TH5 DC-PLUS SKU Spine Switch ECMP · Telemetría AS9736-64D · TH5 DC-PLUS SKU DCI Gateway 400G ZR/ZR+ Extensión de túnel VXLAN DC-PLUS SKU OOB Mgmt TD3-X2 · 1/10G Red aislada DC-MGMT SKU Remote DC EVPN inter-DC OcNOS-DC OcNOS-DC — DC-MGMT → DC-IPBASE → DC-PLUS — DE 128G A 51,2T
OcNOS-DC Leaf / Spine
DCI / Coherent optics
Servidores / Externo

Pase el cursor para ver capacidades y SKU

Choose Your OcNOS-DC

Comparación SKU y plataforma

OcNOS-DC se ofrece en tres ediciones. Todas incluyen soporte IPI unificado tanto para software como para hardware.

OcNOS-DC — Switches de centro de datos DC-MGMT DC-IPBASE DC-PLUS
Capa 2 / Capa 3
EVPN-VXLAN
Ethernet para IA (RoCEv2 / PFC / ECN)
Telemetría streaming (gNMI/gRPC)
Óptica coherente 400G ZR/ZR+ (DCI)
Qualified Platforms
ASICCapacidadVelocidad de puerto DC-MGMT DC-IPBASE DC-PLUS
TD3-X2128G1/10G
TD3-X52,000G10/25/100G
TD3-X73,200G10/25/100G
TH26,400G100G
TH312,800G400G
TD412,800G400G
TH425,600G400G
TH551,200G800G

*El soporte de funciones depende de la plataforma. Consulte la Matriz de funciones para más detalles. Hay disponibles más de 40 plataformas DC cualificadas.

Stack DC completo en cada SKU
EVPN-VXLANIRB simétricoBGP ECMP RoCEv2PFCECN WRED RDMAZTPgNMI/gRPC OpenConfigNETCONF/YANGAnsible 400G ZR+Docker en switchRESTCONF
Prueba gratis Qualified Platforms Matriz interactiva de funciones
Cómo comparamos

OcNOS-DC frente a Arista EOS / Cisco Nexus / NVIDIA Spectrum-X

Mismo silicio Broadcom. Hardware abierto. Sin impuesto propietario sobre IA.

✕ Proprietary DC Switching (Arista / Cisco / NVIDIA)
NOS propietario sobre hardware propietario — lock-in del fabricante en cada refresh
Las funciones de AI fabric (RoCEv2, ajuste de PFC) requieren SKU premium o licencia add-on
Ecosistemas de automatización propios del fabricante — portabilidad limitada entre plataformas y generaciones
Prima de hardware sustancial frente al silicio Broadcom equivalente sobre plataformas ODM abiertas
Las renovaciones de licencia y ciclos de refresh están atadas a la cadencia de hardware del fabricante
✓ OcNOS-DC on Open Hardware
NOS abierto sobre hardware abierto Edgecore / UfiSpace — elección multi-fabricante de HW
Fabric de IA RoCEv2 lossless completo incluido en DC-IPBASE — sin add-ons
Basado en Linux, APIs abiertas — Ansible, NETCONF/YANG, gNMI, RESTCONF, Docker on-switch
El mismo silicio Broadcom TH5 — un 60–70 % menos de TCO
Un único contrato de soporte de IPI cubre el software OcNOS-DC y el hardware validado

También una alternativa a despliegues SONiC autointegrada. OcNOS-DC es un NOS comercial con TAC 24/7, SLA de un único fabricante y logística de RMA. SONiC es de código abierto y requiere integración interna, validación de hardware y soporte de terceros — la sobrecarga de ingeniería que IP Infusion absorbe.

Probado en producción

OcNOS se despliega donde las redes realmente funcionan.

Más de 600 redes de operadores. Más de 60 países. Más de 50 plataformas de hardware abierto validadas. Suministrando software de red de clase carrier desde 1999.

600+
Redes de operador
60+
Países
50+
Plataformas validadas
1999
Shipping Since
También desplegado por
NTT MTN SK Telecom DIGI Communications Lintasarta Telkom
Todos los casos de éxito →

¿Listo para desplegar OcNOS-DC?

Hable con un ingeniero que haya desplegado OcNOS-DC en producción, o pruébelo gratis en nuestro laboratorio en la nube, sin hardware necesario.

FAQ

Preguntas frecuentes

¿Qué es EVPN-VXLAN y por qué es importante para los centros de datos?
EVPN-VXLAN es el fabric de overlay estándar de la industria para data centers multi-tenant. VXLAN encapsula tramas Layer 2 en UDP para transportarlas sobre un underlay Layer 3, mientras que EVPN (RFC 7432) proporciona el plano de control basado en BGP para distribuir la alcanzabilidad MAC e IP. OcNOS-DC implementa IRB simétrico, rutas Type-2 y Type-5, anycast gateway distribuido y supresión ARP — la pila completa de fabric de producción.
¿Cómo logra OcNOS-DC un networking sin pérdidas para clústeres GPU IA/ML?
OcNOS-DC implementa Priority Flow Control (PFC) y Explicit Congestion Notification (ECN) preajustados para los patrones de tráfico RoCEv2 RDMA. PFC pausa clases de tráfico específicas para evitar pérdidas de paquetes GPU a GPU, mientras que ECN señaliza la congestión de forma temprana para prevenir buffer bloat. Juntos habilitan un fabric de IA sin pérdidas de paquetes — crítico para cargas de entrenamiento distribuido donde un solo paquete descartado detiene toda la tarea GPU.
Qué incluye cada SKU DC — y qué requiere un nivel superior.
DC-MGMT cubre Layer 2 / Layer 3 para switches de gestión out-of-band. DC-IPBASE añade el fabric overlay EVPN-VXLAN y el Ethernet lossless para IA (RoCEv2 / PFC / ECN) — esta es la línea base para la mayoría de los despliegues leaf-spine, incluidos los ToR de clúster GPU. DC-PLUS añade telemetría streaming (gNMI/gRPC) y óptica coherente 400G ZR/ZR+ para DCI. Sin licencia por protocolo dentro de un nivel — lo que ve en la tabla de SKU es lo que contiene el SKU. Vea la OcNOS Feature Matrix for the full breakdown by platform.
¿Quién mantiene el contrato de soporte del hardware abierto — IP Infusion o el ODM?
IP Infusion posee un contrato de soporte único y responsable que cubre el software OcNOS-DC, el hardware Edgecore o UfiSpace validado y la logística de RMA. Usted abre un único ticket con el TAC de IPI; nosotros coordinamos con el ODM en su nombre. Esto elimina el clásico traslado de responsabilidades multi-vendor que los operadores experimentan con pilas desagregadas. Ver Soporte para detalles del SLA.
¿Qué plataformas hardware soporta OcNOS-DC?
OcNOS-DC soporta más de 25 plataformas de data center validadas de Edgecore y UfiSpace basadas en los chipsets Broadcom Tomahawk3/4/5, Trident3/4 y Trident4-X. Los formatos van desde leaves Top-of-Rack de 1RU 48×25G + 8×100G hasta switches spine de 32×400G y 64×400G / 64×800G. Vea la lista completa en la lista de compatibilidad de hardware.