Cisco France Blog
Partager

Gestion des infrastructures réseaux avec DCNM 5.0


8 June 2010


Dans un billet précédent, nous vous avions parlé de Data Center Network Manager, le logiciel de management de l’infrastructure Nexus. Ce produit continue son évolution avec la sortie de DCNM version 5.0 conjointement à la sortie de NX-OS 5.0 pour Nexus 7000. Cette nouvelle version confirme la vocation de DCNM à être la solution d’administration complète de l’infrastructure LAN et SAN du DataCenter.

Fidèle au principe de suivre au plus près les évolutions de la gamme Nexus, DCNM supporte désormais les modules XL du Nexus 7000, le  Nexus 4000 et le Nexus 1000V. Le support du Nexus 1000V est particulièrement complet et intéressant, car il inclut la gestion, en mode graphique, de tous les composants du Nexus 1000V : Virtual Switch Module (VSM), Virtual Ethernet Module (VEM), Port Profiles, interfaces vEthernet, domaines et connections avec le VCenter, etc …. La figure ci-dessous illustre une des représentations graphiques du Nexus 1000V dans DCNM.

 

Concernant le Nexus 4000, DCNM apporte, en plus de tout ce qui est déjà supporté sur les 7000/5000/2000, le support spécifique du FIP snooping et de l’IGMP snooping. La configuration du FIP snooping se fait au moyen d’un assistant de configuration entièrement graphique (wizard).

Pour accompagner la convergence entre le LAN et le SAN dans le DataCenter, DCNM s’intègre avec Fabric Manager, le gestionnaire des commutateurs SAN de la gamme Cisco MDS. En plus de pouvoir cohabiter sur le même serveur et partager la même base de données, DCNM découvre désormais les commutateurs MDS et les affiche sur la carte topologique. Une navigation croisée est ensuite possible depuis DCNM vers Fabric Manager.

L’évolutivité et la haute-disponibilité de DCNM sont également améliorées avec la possibilité de configurer plusieurs serveurs DCNM en mode cluster. Les membres d’un cluster DCNM utilisent tous la même base de données et se partagent la charge de monitoring d’une infrastructure Nexus . En cas d’arrêt d’un des membres du cluster, les autres membres reprennent automatiquement le monitoring des Nexus qui étaient surveillés par le serveur défaillant. Cela se passe de manière transparente pour les utilisateurs DCNM connectés.  Cette fonctionnalité de clustering est particulièrement intéressante car elle permet à la fois :

–          L’évolutivité d’une solution DCNM en fonction du nombre de commutateurs Nexus

–          Le partage de charge automatique entre plusieurs serveurs DCNM, en particulier dans le contexte de DataCenter multi-sites.

–          La haute-disponibilité de DCNM

Pour en savoir plus, rendez-vous sur cette page.

Tags:
Laisser un commentaire

1 commentaires