Cisco Nederland
Deel

HyperFlex capaciteit-planner


2 June 2016


[vc_row][vc_column][vc_column_text]HyperFlex is een hyper-converged oplossing van Cisco. De data wordt op verschillende nodes meerdere keren weggeschreven. Hierdoor heeft het systeem geen last van RAID-Penalties en zelfs bij het verlies van een HyperFlex-node is alle data nog steeds beschikbaar.

De vraag die ik nu voornamelijk krijg is: hoe bereken je de capaciteit van een HyperFlex-systeem?

Voordat deze vraag beantwoord wordt, moet men eerst begrijpen wat nu eigenlijk het verschil is tussen Terabyte en Tebibyte. Een harddiskleverancier gebruikt terabyte om de grootte van een harddisk aan te geven. Echter, een OS gebruikt tebibyte. Hierdoor ontstaat er een verschil:

  • Terabyte is eigenlijk metrisch en de waarde is dan ook 10¹²
  • Tebibyte is binair en de waarde is 2⁴⁰

Er zit een verschil van 10% in de waardes.

Om de capaciteit van een HyperFlex-systeem te berekenen, gebruiken we Tebibytes.

Overige parameters voor berekening capaciteit

Deduplication en compression zijn parameters die altijd aan staan bij HyperFlex. Sommige klanten willen graag waardes weten zonder deze parameters, doordat de dedup en compressie afhankelijk is van de load die erop draait.

Op een HyperFlex-systeem moet men in het totaal ook 20% reserveren voor NotEnoughSpace. In de formule is dat de waarde van 0.8.

VRF heeft een waarde van 2 of 3. Dit geeft aan hoeveel keer een block weggeschreven moet zijn over de nodes. De waarde 3 wordt geadviseerd voor een productieomgeving en de waarde 2 is voor lab- en testomgevingen.

Hoeveel capaciteit heb ik bij een x aantal HyperFlex-nodes?

De formule om de capaciteit van een x aantal HyperFlex-nodes te berekenen, is:

((Disksize * #Disks per node * (nodes – 1) ) / VRF) * 0.8) * dedup * compression

WOW! Dit lijkt een moeilijke formule. Maar met onderstaand voorbeeld, zal het duidelijker worden.

Men neme een HyperFlex-systeem HX240 van 4 nodes met 15 harddisken. Een harddisk is momenteel 1.2TB. Het systeem gaat gebruikt worden in een productieomgeving (VRF = 3) en de klant wil niet rekenen met dedup en compressie.

((1.2 * 15 * (4-1)) / 3) *0.8) * 1 * 1 = 14.4 TB = 13.09 TiB

Als ik x capaciteit nodig heb, hoeveel nodes moet ik dan configureren?

De HX220 heeft altijd 6 harddisken. Hiervoor kunnen we dan momenteel de capaciteit uit een tabel halen. Dit is voor een productieomgeving ZONDER dat dedup en compressie zijn meegerekend.

Aantal HX220-nodes Capaciteit
4 5,24 TiB
5 6,98 TiB
6 8,73 TiB
7 10,43 TiB
8 12,22 TiB

Voor een HX240-systeem kunnen we verschillende kanten uit. Het systeem heeft minimaal 6 HDD’s nodig en er kunnen maximaal 23 HDD’s in. Je kunt HX240 dus uitbreiden door HDD’s of nodes toe te voegen. Wanneer je meer nodes nodig hebt, of meer HDD’s in een node, is afhankelijk van de load die men erop gaat draaien. Heeft men meer CPU en Memory nodig of kan men met minder nodes ook al uit de voeten?

Om niet met een moeilijke formule te komen is hier een tabel met waardes. Alle waardes zijn in TiB, geen dedup of compressie en we gaan uit van een productieomgeving.

Aantal nodes #HDD per node #HDD per node #HDD per node #HDD per node #HDD per node
6 11 15 19 23
4 5,24 TiB 9,6 TiB 12,1 TiB 16,59 TiB 20,08 TiB
5 6,98 TiB 12,81 TiB 17,46 TiB 22,12 TiB 26,78 TiB
6 8,73 TiB 16,01 TiB 21,83 TiB 27,65 TiB 33,47 TiB
7 10,43 TiB 19,21 TiB 26,19 TiB 33,18 TiB 40,16 TiB
8 12,22 TiB 22,41 TiB 30,56 TiB 38,71 TiB 46,86 TiB

Indien men een HyperFlex-systeem met minimaal 20TiB wil hebben, kan men dus kiezen uit een systeem met 8 nodes en 11 HDD’s, of 6 nodes met 15 HDD’s, of een 5-nodesysteem met 19 HDD’s, of een 4-nodesysteem met 23 HDD’s. De keuze is afhankelijk van wat voor load op het systeem gaat draaien.

Hulp nodig of verdere vragen? Laat het weten![/vc_column_text][/vc_column][/vc_row]

Reageer

2 Comments

  1. Ik las ook iets over een 8% metadata penalty? kun je hier iets over roepen ?

    • In dit artikel staat nog dat er 20% gereserveerd moet zijn voor NotEnoughSpace. Dit getal bestaat eigenlijk uit 8% NotEnoughSpace en 12% overhead. Inmiddels is dit in de 1.7.1 veranderd en heeft men nog maar 8% overhead (Metadata) te reserveren.
      Mijn eigen “Hyperflex Sizing Tool” houdt hier rekening mee. Deze online tool is te vinden op :

      http://bit.ly/HyperflexSizingTool