Home » Spine-Leaf Architecture: ออกแบบ Data Center Network ยุคใหม่
Spine-Leaf Architecture: ออกแบบ Data Center Network ยุคใหม่
Spine-Leaf Architecture: ออกแบบ Data Center Network ยุคใหม่
Spine-Leaf Architecture เป็น network topology มาตรฐานสำหรับ modern data center แทนที่ traditional 3-tier architecture (core-distribution-access) ด้วย 2-tier design ที่ทุก leaf switch เชื่อมต่อกับทุก spine switch ทำให้ได้ predictable latency, high bandwidth และ easy scalability
Traditional 3-tier architecture มีปัญหาหลายอย่าง: Spanning Tree Protocol (STP) block redundant links ทำให้ใช้ bandwidth ไม่เต็มที่, latency ไม่สม่ำเสมอ (ขึ้นกับ path), scale ยาก (ต้องเพิ่ม layer) Spine-leaf แก้ปัญหาเหล่านี้ด้วย ECMP (Equal-Cost Multi-Path) routing ที่ใช้ทุก link พร้อมกัน ไม่ต้องมี STP
3-Tier vs Spine-Leaf
| คุณสมบัติ |
3-Tier (Core-Dist-Access) |
Spine-Leaf |
| Layers |
3 (Core → Distribution → Access) |
2 (Spine → Leaf) |
| Topology |
Tree/hierarchical |
Full mesh (every leaf → every spine) |
| STP |
ต้องใช้ (block redundant links) |
ไม่ต้อง (L3 ECMP routing) |
| Bandwidth |
Oversubscribed (STP blocks links) |
Full bisectional bandwidth (ECMP) |
| Latency |
Variable (2-4 hops ขึ้นกับ path) |
Predictable (max 2 hops: leaf→spine→leaf) |
| Scalability |
ยาก (เพิ่ม layer = redesign) |
ง่าย (เพิ่ม spine = bandwidth, เพิ่ม leaf = ports) |
| East-West Traffic |
ไม่ดี (hairpin ผ่าน core) |
ดีมาก (optimized for east-west) |
Spine-Leaf Components
| Component |
บทบาท |
ตัวอย่าง |
| Spine Switch |
Interconnect ระหว่าง leaf switches (fabric backbone) |
Cisco Nexus 9364C, Arista 7050X3 |
| Leaf Switch |
เชื่อมต่อ servers, storage, firewalls (ToR switch) |
Cisco Nexus 93180YC, Arista 7050SX3 |
| Border Leaf |
เชื่อมต่อ WAN, internet, external networks |
Leaf switch ที่ uplink ออก outside |
| Service Leaf |
เชื่อมต่อ shared services (firewall, load balancer) |
Leaf switch สำหรับ service chaining |
Design Rules
| Rule |
รายละเอียด |
| Every leaf → every spine |
Leaf ทุกตัวต้องเชื่อมต่อกับ spine ทุกตัว (full mesh) |
| No leaf-to-leaf links |
ห้ามเชื่อมต่อ leaf กับ leaf โดยตรง |
| No spine-to-spine links |
ห้ามเชื่อมต่อ spine กับ spine โดยตรง |
| L3 routing on all links |
ทุก link เป็น L3 routed (ไม่มี L2 trunk) |
| ECMP for load balancing |
ใช้ Equal-Cost Multi-Path บน OSPF/BGP |
| VXLAN for L2 overlay |
ถ้าต้องการ L2 connectivity ข้าม leaves → ใช้ VXLAN |
Sizing Guidelines
| Parameter |
ค่าทั่วไป |
ตัวอย่าง |
| Spine switches |
2-4 ตัว (redundancy + bandwidth) |
4 spines = 4× bandwidth |
| Leaf switches |
ขึ้นกับจำนวน servers |
48-port leaf = 48 servers per leaf |
| Uplink speed |
4× หรือ 10× ของ server speed |
Server 10G → uplink 40G/100G |
| Oversubscription |
1:1 ถึง 3:1 |
1:1 = non-blocking, 3:1 = cost-effective |
| Max servers |
Spines × leaf uplinks × server ports |
4 spines × 48 leaves × 48 ports = 9,216 servers |
Oversubscription Ratio
| Ratio |
ความหมาย |
เหมาะกับ |
| 1:1 (non-blocking) |
Total uplink BW = total server BW |
HPC, storage, latency-sensitive |
| 2:1 |
Uplink BW = 50% ของ server BW |
General enterprise |
| 3:1 |
Uplink BW = 33% ของ server BW |
Web servers, stateless apps |
| 4:1+ |
Uplink BW < 25% ของ server BW |
ไม่แนะนำ (bottleneck) |
Routing Protocol
| Protocol |
ใช้สำหรับ |
จุดเด่น |
| eBGP (underlay) |
L3 routing ระหว่าง spine-leaf |
Scalable, per-link AS, no area design |
| OSPF (underlay) |
L3 routing ระหว่าง spine-leaf |
Simple, fast convergence |
| iBGP + EVPN (overlay) |
VXLAN control plane |
MAC/IP advertisement, ARP suppression |
Best Practice: eBGP underlay + iBGP EVPN overlay (RFC 7938) แต่ละ leaf/spine ใช้ unique ASN (eBGP) หรือ ใช้ OSPF underlay + iBGP EVPN overlay (simpler)
Spine-Leaf + VXLAN EVPN
| Layer |
Protocol |
บทบาท |
| Underlay (L3) |
OSPF หรือ eBGP |
IP reachability ระหว่าง VTEPs (leaf switches) |
| Overlay (L2/L3) |
VXLAN + BGP EVPN |
L2 extension ข้าม L3 fabric + L3 VPN |
| Control Plane |
MP-BGP EVPN |
Distribute MAC/IP, ARP suppression |
Vendor Solutions
| Vendor |
Solution |
จุดเด่น |
| Cisco |
Nexus 9000 + ACI / VXLAN EVPN |
ACI policy-driven, VXLAN EVPN manual |
| Arista |
7000 series + CloudVision |
Open standards, BGP EVPN, automation |
| Juniper |
QFX series + Apstra |
Intent-based networking, multi-vendor |
| Dell/SONiC |
S5200/Z9000 + SONiC OS |
Open-source NOS, cost-effective |
| Cumulus/NVIDIA |
Spectrum switches + Cumulus Linux |
Linux-based, open networking |
Migration from 3-Tier
| Phase |
Action |
| 1. Assessment |
สำรวจ current topology, traffic patterns, server count |
| 2. Design |
กำหนด spine/leaf count, uplink speed, oversubscription, VXLAN VNIs |
| 3. Build new fabric |
Deploy spine-leaf ใหม่ข้างๆ existing network |
| 4. Migrate workloads |
ย้าย servers/VMs ทีละกลุ่มมา leaf switches ใหม่ |
| 5. Decommission old |
ถอด 3-tier switches เมื่อ migrate เสร็จ |
ทิ้งท้าย: Spine-Leaf = DC Network Standard
Spine-Leaf เป็น standard topology สำหรับ modern data center 2-tier design: predictable latency (max 2 hops), ECMP full bandwidth ไม่ต้อง STP, L3 routing ทุก link + VXLAN EVPN overlay เลือก vendor ตาม existing ecosystem + budget + automation needs Scale ง่าย: เพิ่ม spine = bandwidth, เพิ่ม leaf = ports
อ่านเพิ่มเติมเกี่ยวกับ VXLAN Data Center Overlay และ Network Virtualization NSX ACI ที่ siamlancard.com หรือจาก icafeforex.com และ siam2r.com