Hálózattervezés alapjai Campus hálózati modellek
2007/2008. tanév, II. félév Dr. Kovács Szilveszter E-mail:
[email protected] Informatikai Intézet 106. sz. szoba Tel: (46) 565-111 / 21-06 Dr. Kovács Szilveszter ©
NetD. II. / 1.
Tradícionális Campus • Fıleg fizikai méret problémák (pl. max. szegmens hossz) • Tipikusan épületek szerinti felosztás
Dr. Kovács Szilveszter ©
NetD. II. / 2.
Tradícionális Campus - problémák • Túl nagy L1 üzenetszórás (közös média) területek (L2 eszközök beépítésével javítható a helyzet) • Túl nagy L2 üzenetszórás „broadcast domain”-ek (L3 eszközök beépítése szükséges)
Dr. Kovács Szilveszter ©
NetD. II. / 3.
Tradícionális Campus – 80/20 • 80/20 szabály: a forgalom 80%-a helyi és csak 20% megy ki a gerincre • Oka: a gyakorta használt erıforrások helyben vannak
Dr. Kovács Szilveszter ©
NetD. II. / 4.
Campus ma – 20/80 • •
Napjainkra a 80/20 szabály megfordult: 20/80 a forgalomnak csak 20%-a helyi és 80% megy ki a gerincre Oka: a gyakorta használt erıforrások távoliak (Internet, központi erıforrások)
WAN 80%
Dr. Kovács Szilveszter ©
NetD. II. / 5.
Campus ma – követelmények • Gyors konvergencia - viszonylag gyorsan alkalmazkodjon az esetleges topológia változásokhoz • Útvonalak meghatározása – Lehessen konfigurálni az egyes alkalmazások, vagy felhasználói csoportok elérési útvonalát • Redundancia – Hibatőrés a linkekben, hálózati eszközökben, erıforrásokban • Skálázhatóság – A hálózat struktúrája képes legyen kielégíteni a növekvı igényeket (eszközök cseréje, újabb eszközök beépítése). • Központi erıforrás elérés támogatása – Szerver farmok alkalmas elhelyezhetısége • Az új 20/80 szabály szerinti forgalom minta támogatása • Több protokoll párhuzamos támogatása (multiprotocol environment) • Multicasting támogatás Dr. Kovács Szilveszter ©
NetD. II. / 6.
Campus ma – követelmények
Redundancia, skálázhatóság, központi erıforrások Dr. Kovács Szilveszter ©
NetD. II. / 7.
Campus – forgalom típusok • Helyi szolgálatok – lokális forgalom • Távoli szolgálatok – az erıforrás egy másik hálózatban (VLAN) van (L3 kapcsolat), a forgalom a topológiától függıen érintheti a gerincet • Intézményi szolgálatok (enterprise services) – a gerincen keresztül érhetıek el mint külön központi erıforrás hálózat
VLAN4
Dr. Kovács Szilveszter ©
NetD. II. / 8.
Campus – kapcsolóeszközök • Repeater (L1 switch:-) – egyetlen osztott közeg
• Bridge - L2 switch – részleges forgalom irányítás (MAC), de egyetlen „Broadcast Domain” – támogatja a VLAN-ok kialakítását
• Router - L3 switch – – – – – – –
Determining the forwarding path based on L3 information Validating the integrity of the L3 header via checksum Verifying packet expiration and updates accordingly Processing and responding to any option information Updating forwarding statistics in the Management Information Base (MIB) Applying security controls if required Implementing QoS (TOS - Type Of Service bitek)
• Gateway – L4 switch – L3 hardware-based routing + L4 control information – Az alkalmazások felismerése és ennek megfelelı prioritás, valamint számlázás – Táblaméret ~ állomásszám * felügyelt protokollok
•
Multilayer Switch – L2-4 együtt, skálázhatóság, alacsony késleltetés – Meghatározza a folyamokat „route once, switch many” Dr. Kovács Szilveszter ©
NetD. II. / 9.
• Core Layer – – – – –
Campus – hierarchikus modell
Optimális (L2 v. L3) kapcsolat Nagy sebesség Nem végez forgalomszőrést Nincs VLAN Lehetıleg nincs Spanning Tree
• Distribution Layer – – – – – – – –
Policy-based connectivity Packet manipulation Address or area aggregation Departmental or workgroup access connectivity to the backbone Broadcast/multicast domain definition Inter-VLAN routing Any media transitions that need to occur Security
• Access Layer – – – – – –
Access-layer aggregation and L3/L4 services Shared bandwidth Switched bandwidth MAC-layer filtering Microsegmentation Remote access Dr. Kovács Szilveszter ©
NetD. II. / 10.
Campus – fıbb blokkok • Switch block, Core block • Server block, WAN block, Mainframe block, Internet connectivity
Dr. Kovács Szilveszter ©
NetD. II. / 11.
Campus – Switch blokk • A Switch blokk eszközszámát meghatározó tényezık: – Different types and patterns of traffic – Amount of Layer 3 switching capacity at the distribution layer – Number of users per access-layer switch – Extent to which subnets need to traverse geographical locations within the network – Size to which the spanning tree domains should be allowed to grow
Access
• Mérete függ: – Traffic types and behavior – Size and number of workgroups
• Túl nagy ha: – A traffic bottleneck occurs in the routers at the distribution layer because of intensive CPU processing resulting from policy-based filters – Broadcast or multicast traffic slows down the switches and routers Dr. Kovács Szilveszter ©
Distribution
NetD. II. / 12.
Campus – L2 Core blokk • Kettı, vagy több Switch blokk esetén van csak rá szükség • Különbözı technológiák (frame, packet, or cell-based) alkalmazhatóak a magban • A core egy, vagy több független (biztonság) L2 hálózat, melyben nincs VLAN (a VLAN-ok a distribution Layer-ben végzıdnek).
Core Dr. Kovács Szilveszter ©
NetD. II. / 13.
Campus – Colapsed core • A distribution- és core-layer funkciók egyetlen eszközbe kerülnek (de a funkciók itt is elkülönülnek) – Sebezhetı. Lehetséges megoldás: Hot Standby Router Protocol (HSRP) tartalék
Dr. Kovács Szilveszter ©
NetD. II. / 14.
Campus – L2 Dual-core • •
A mag két L2 eszköz azonos költségő redundáns utakkal (két független párhuzamos út) A Distribution Layer L3, ezért nincs L2 hurok, ki lehet kapcsolni a Spanning Tree-t (A core L2 eszközök között pedig nincs link!)
Dr. Kovács Szilveszter ©
NetD. II. / 15.
Campus – L2 Core skálázhatóság • A mag L2 eszközökbıl van összerakva, ami L3-hoz kapcsolódik az DL-ben. • Elıny: olcsóbb megoldás. Skálázhatósági korlát: A core eszközöket hurok elkerülése miatt nem lehet összekötni (ne legyen Spanning Tree), ezért ha növeljük a számukat, a DL linkek számát is növelni kell szimmetrikusan valamennyi DL eszköz felé (az L3 DL-ek azonos Path Cost-al lássák egymást)
L2
L3 L2
Mindegyik DL eszköznek független útja van mindegyik CL eszközhöz és bármely két L3 eszköz között két azonos költségő út van. Dr. Kovács Szilveszter © NetD. II. / 16.
Campus – L3 Core skálázhatóság • • • •
•
A mag L3 eszközökbıl áll. Elınyök: Gyors konvergencia (össze lehet kötni a core eszközöket, így sem kell Sp.Tree) Automatikus terhelés kiegyenlítés a magban (a core routing protokoll támogatja) Nincs peering probléma (a DL L3 eszközeinek nem kell a teljes Campus routingjával foglalkoznia, a core-nak van külön routing protokollja. (Nem kell a DL routing táblakat a Core-on keresztül továbbítani mindenhová, gyorsabb routing info konvergencia) Hátrány: Az L3 eszközök drágábbak és lassabbak a magban
L3
L3 L2
Dr. Kovács Szilveszter ©
NetD. II. / 17.
Campus – kis hálózat Egyetlen multilayer switch szolgálja ki az egész hálózatot.
Elıny: olcsó Hátrány: nincs redundancia
Dr. Kovács Szilveszter ©
NetD. II. / 18.
Campus – közepes hálózat
Colapsed core
Elıny: nagy sebesség és magas rendelkezésre állás
Dr. Kovács Szilveszter ©
NetD. II. / 19.
Campus – nagy hálózat
Layer 2 core: - Cost-effectiveness and high availability - Support high-bandwidth, performance - Fast recovery from failures (több link, a DL kezeli) Layer 3 core: - High performance supporting unicast and multicast - Nonblocking campus backbone scales to many Gbps of throughput - Broadcast containment - Very fast deterministic failure recovery, campus-wide (a Core kezeli: dinamikus routing) Dr. Kovács Szilveszter ©
NetD. II. / 20.