Après 5 ans, les serveurs UCS représentent bien plus qu’une alternative aux architectures propriétaires
2 min read
La standardisation est un processus normal pour rationaliser les coûts, les processus d’achat et les modèles opérationnels.
Mais la standardisation ne doit imposer ni nivellement par le bas en termes de caractéristiques ni complexité accrue en termes d’architecture, de déploiement et de gestion opérationnelle.
L’évolution des infrastructures de traitement dans les DataCenters ont conduit pendant un temps relativement long à la cohabitation de différentes architectures. Pour des raisons historiques, des adhérences applicatives ou pour des exigences spécifiques de performances et de disponibilité les traitements informatiques se sont répartis sur des mainframes, des architectures RISC ou SPARC et des architectures X86.
Aujourd’hui par défaut les architectures X86 doivent être considérées :
- pour toute nouvelle application
- lors du changement de version d’application, type SAP, qui nécessitera à cette occasion l’utilisation de serveurs plus puissants
De fait la production en volume de processeurs X86 permet des réductions de coûts importants.
Si on regarde ce qui s’est passé avec Intel, non seulement les performances croissent régulièrement mais la disponibilité atteint des taux records sur les tous derniers Xeon E7 v2.
Performances et disponibilité n’ont plus rien à envier aux meilleurs mainframes ou Risc avec en prime des coûts incomparables.
Pour s’en convaincre il suffit de constater que SAP, pour sa solution SAP HANA de traitement en mémoire, impose des processeurs Intel Xeon E7. Quand on sait l’importance stratégique que représente SAP HANA , on imagine bien que le choix n’est pas fait au hasard.
Si l’on en croit le Gartner 65% des applications qui s’exécutaient en environnement UNIX en 2012 seront migrées sur de serveurs X86 en 2017.
La performance est-elle un risque ?
Dans la majorité des cas la puissance des processeurs Xeon répond aux exigences applicatives. Le problème vient plutôt du décalage entre la puissance disponible et le débit des baies de stockage. Pour les applications particulièrement gourmandes en entrées sorties, les mémoires flash sont là pour accélérer les performances applicatives que ce soit sous forme de cartes dans les serveurs ou de baies flashes externes.
Retrouver l’industrialisation du mainframe avec des serveurs Cisco UCS
Les premiers pas dans le monde distribué se sont accompagnés de plus de complexité tout naturellement. On a assisté à la naissance d‘architectures dites accidentelles dont l’évolution s’accompagnait de plus de composants, de plus de câblage et de plus d’administration.
En prenant en compte ces contraintes , Cisco annonçait il y a tout juste 5 ans l’Unified Computing System UCS . L’objectif était de concevoir une nouvelle forme d’architecture pour répondre au besoin de rationalisation des datacenters d’aujourd’hui et de demain.
Petit retour en video sur ces 5 ans d’innovations
La priorité a été portée sur la réduction des coûts opérationnels et la simplification de la gestion opérationnelle.
Avec les serveurs Cisco UCS on bénéficie ainsi de tous les atouts des gammes Xeon d’Intel en termes de performances et de disponibilité. 90 records de performances ont d’ailleurs été atteints par les serveurs UCS. Mais la véritable différentiation qui permet de parler d’industrialisation concerne :
- L’industrialisation de la gestion des configurations, des changements, des évolutions grâce à l’utilisation des services profiles
- La simplification opérationnelle avec un point unique d’administration quel que soit le nombre de serveurs.
- Une simplicité d’intégration dans tout type d’environnement grâce à une API XML
- Une simplicité de câblage avec le câblage unifié qui véhicule les flux LAN,SAN et d’administration
Autant de raisons qui expliquent le succès des serveurs UCS qui fêtent ce mois-ci leurs 5 ans.