[vc_row][vc_column][vc_column_text]De lezers van dit blog zullen weten dat de snelheid van Ethernet oorspronkelijk in stappen ‘keer tien’ omhoog ging: 10Mbps, 100Mbps, 1Gbps, 10Gbps, 100Gbps. Vrijwel gelijk met de 100G werd ook 40G ontwikkeld, de eerste vreemde eend in de bijt. Serverleveranciers vonden 100GE te duur als vervolgstap op 10GE, waardoor 40GE is ontwikkeld.
In 2013 begon het vaststellen van de standaard voor 400Gbps Ethernet, een snelheid die min of meer paste in het rijtje van 10GE, 40GE, 100GE. Tot zover was dat geen verrassing. Maar dan komt in 2014 ineens een commissie voor 25Gbps Ethernet en wordt ook gesproken over 50Gbps Ethernet. Men kan zich dan gaan afvragen waarom deze standaard gekomen is. Wie heeft iets aan deze snelheden? Wie verwacht er nu een markt voor 25Gbps als 40GE al verkocht wordt en er al een aardige installed base van is?
Wel, voordat ASICS kunnen samenwerken moeten zij op het moederbord van een switch via koperbanen bits naar elkaar sturen. Toen de IEEE aan de 40GE en 100GE standaarden werkte, was de hoogste snelheid over één koperbaantje 10Gbps. (Eigenlijk was dit 10.3125Gbps. Kon dat niet sneller? Alles kon of kan, maar niet voor een redelijke prijs: sneller was op dat moment nog veel te duur.)
Op het moederbord van een switch of op een NIC-kaart in een server kon tussen de ASICs 10GE worden doorgegeven met één koperbaan:
Voor 40GE werden vier koperbanen gebruikt:
Maar 100GE is met 10.3125 Gbps per koperbaan echt gekkenwerk:
Tegenwoordig is het economisch haalbaar om 25 Gbps over één koperbaan te sturen (25.78125Gbps om precies te zijn, dit is een standaard bouwblokje) en daarmee kost 100GE opeens veel minder ruimte op het moederbord:
Laten we eens beginnen met een bestaande switch van 48 poorten 10GE en vier poorten 40GE. Vanuit de switching ASIC in het hart van de switch zijn er 48 koperbanen plus 4×4 koperbanen nodig om de poorten aan te sluiten: 64 in totaal en dus ook 64 pinnen vanuit de ASIC naar het moederbord.
Als je als opvolger een switch wilt met hogere snelheden, zouden dat 48 poorten van 40GE en een stel 100GE uplinks moeten worden. Maar dan heb je ten minste 48×4 = 192 pinnen uit de ASIC en ook 192 baantjes op het moederbord nodig. De ASIC wordt groter, het moederbord complexer, dus de switch gebruikt meer energie, is duurder en heeft een kleinere MTBF.
Als je nu 25G Ethernet invoert…
…kun je een switch bouwen met 48 poorten 10/25GE en vier uplinks van 40/100GE. ASIC heeft 64 pinnen nodig, 64 banen op het moederbord. Je hoeft het hele ontwerp van de switch nauwelijks aan te passen: simpel, net zo duur als de bestaande switch en volgende maand klaar.
Dus: ja, er is een economische reden om 25GE in plaats van 40GE te gaan gebruiken, naast 100GE. Het gaat zeker goedkoper worden dan 40GE, dus is na 2016 de kans op een flinke markt voor 25GE aanwezig. De meeste analisten verwachten 25GE vooral als server-switch optie, niet als snelheid om switches onderling te verbinden.
Kijk ernaar uit: er komen switches met 48 poorten 1/10/25GE om servers aan te sluiten, en met vier of zes 40/100GE uplinks.
Zie: https://ciscotechblog.nl/nexus-switches-11025ge-poorten/ [/vc_column_text][/vc_column][/vc_row]
1 Comments