Cisco France Blog – Data Center

Cisco sera présent à la Convention des Utilisateurs SAP (USF) à Nancy les 12 et 13 Octobre prochains

convention 2016Comme chaque année, le mois d’octobre voit revenir la Convention des Utilisateurs SAP (USF), qui se tiendra cette année à Nancy les 12 et 13 Octobre. Cet évènement rassemble chaque année pendant 2 jours la communauté des utilisateurs SAP francophones, autour de présentations plénières, d’ateliers de témoignages clients et d’une exposition. Le thème de cette année, « La donnée au cœur de nos systèmes« , sera le fil conducteur des conférences proposées le matin. L’après-midi sera occupé par les nombreux ateliers retour d’expériences qui sont toujours très fréquentés et appréciés par tous les participants.

Cisco sera présent sur le stand 39  de l’exposition ou j’aurai le plaisir de vous y accueillir pour échanger sur vos projets SAP ou pour tout savoir sur nos offres d’infrastructures UCS pour HANA, dont la toute nouvelle offre « Cisco UCS Integrated Infrastructure for HANA » dont je vous ai présenté les prémices dans ce billet.

Mots-clefs :, ,

Des Services Providers du monde entier adoptent ACI pour offrir des services SDN évolués

Cisco Application Centric Infrastructure (ACI)  est une architecture programmable automatisée qui supporte les centres informatiques et les clouds multinenants. Cette architecture a su séduire un nombre important d’opérateurs telecom de toutes tailles qui  y ont vu l’opportunité d’accroitre leur efficacité et d’accélérer l’innovation.

Services providers locaux ou internationaux : la même recherche d’efficacité.  Chaque  service provider local tente de fournir le meilleur service au client. Bien qu’ils doivent faire face aux mêmes défis que les grands services providers travaillant à l’échelle mondiale ils ne disposent pas des mêmes ressources. Pour réussir à fournir une gestion de cloud hautement sécurisé, des accès à haute vitesse à l’internet mobile et une disponibilité continue des applications, de nombreux services providers se tournent vers la solution Cisco Application Centric Infrastructure ACI. En déployant ACI ces services providers locaux comptent améliorer l’efficacité de leur IT, réduire les coûts opérationnels, améliorer la scalabilité pour la croissance à venir et libérer du temps aux équipes pour mieux se consacrer aux clients. ACI permet ces améliorations en proposant un contrôle unifié des environnements physiques et virtuels, une sécurité accrue et une automatisation basée sur des règles. Les nouveaux services peuvent ainsi être mis sur le marché plus rapidement.

Ils ont adopté ACI pour faire face aux défis du numérique.

Integra. Ce fournisseur important Telecom de l’ouest des Etats Unis est présent dans 35 villes et 11 états. Integra a Integradécidé de remplacer son infrastructure vieillissante par deux nouveaux datacenters afin d’apporter un meilleur service au client. En déployant ACI, Integra voulait d’une part s’approprier la technologie Software Defined Networking et d’autre part transformer son organisation pour être à même de tirer parti de nouvelles possibilités, décliner de nouveaux services aux clients tout en fonctionnant avec une meilleure efficacité. Avec Cisco ACI Integra projette de réaliser un gain de productivité de ses équipes et un accroissement de ses revenus d’environ 1,05 million $ par an sur 5 ans ce qui aboutirait à un ROI de 368% et une période de break event de 9 mois.

NTT DOCOMO, INC. Ce grand acteur japonais des télécommunications compte 70 millions de clients mobiles au Japon. DOCOMO a sélectionné ACI pour améliorer l’efficacité en automatisant le déploiement des fonctions de réseaux virtuels NFV et accroitre la visibilité. Avec ACI , DOCOMO est capable de reconfigurer le réseau en fonction du changement des applications et des clients et d’améliorer l’expérience client pendant les périodes de restauration de réseau ou de congestion grâce aux politiques applicatives ;

Tele2, basé à Stockholm, supporte 16 millions de clients dans neuf pays avec des services de communication fixes et mobiles, des services de données et des solutions globales pour l’internet des objets et les Machine to Machine. Tele2 a décidé de transférer ses fonctions informatiques dans le cloud en utilisant la Network Function Virtualization (NFV) pour fournir un large ensemble de services prenant en compte, les entreprises, les particuliers, l’internet des objets et de l’analytique. Tele2 a choisi Cisco ACI pour l’ensemble du datacenter.

Manx Telecom se situe  sur l’ile de Man. Il offre des services de télécommunication et d’informatiques sur l’ile depuis plus de 125 ans et fournit des services de continuité d’activité, d’hébergement, des plateformes de commerce en ligne pour des entreprises sur l’ile et sur le continent. En misant sur des technologies innovantes Manx Telecom a réussi à répondre aux demandes de clients exigeants des domaines de la finance et des jeux en ligne. Fin 2015, Manx Telecom a migré 50.000 clients de téléphonie fixe vers un cœur virtualisé IMS fourni par Metaswitch avec des services de « voie intelligente » dans le cloud. Ce projet a utilisé une plateforme constituée de Cisco ACI, de serveur UCS et de virtualisation VMware.

lire le cas d’usage Integra

lire le cas d’usage Hutchinson Networks

 

Mots-clefs :, , ,

Développer des applis pour le cloud avec la plateforme Cisco Shipped

Pour innover les entreprises doivent compter avec le cloud et les nouvelles méthodes de développement d’applications. Plus qu’une évolution nous sommes rentrés dans une nouvelle ère où la performance et la réactivité du business va dépendre plus que jamais de ces méthodes qui font la part belle à DevOps et aux conteneurs avec une utilisation grandissante de projets open source. Exemple avec Shipped de Cisco

Cisco Shipped V1

Les développeurs donnent le tempo au cloud. Ce sont les communautés de développeurs et les ingénieurs logiciels qui ont pris les rênes du marché du cloud. De ce fait ce sont eux qui impulsent le rythme pour amener les entreprises vers une nouvelle ère disruptive : le « Software Defined ». Pour innover et réduire le temps de mise sur le marché d’un service ou d’un produit, la question ne se pose plus, on doit utiliser un développement agile pour sa souplesse et son élasticité. L’open source joue un rôle majeur dans la transformation qui est en train de s’opérer pour les applications développées nativement pour le cloud. Pour le succès de votre entreprise il est important de comprendre comment la stratégie de votre entreprise et des départements métiers doit prendre en compte cette nouvelle rupture dans le développement logiciel. A commencer par l’automatisation du cycle de vie du développement de vos logiciels (Software Development Life Cycle SDLC) dont la forme moderne ressemble au schéma ci-dessous.

SDLC applis cloud

Cisco Shipped : Une “experience” développeur adaptée au cloud hybride. Le principe de cette plateforme est d’apporter au développeur une expérience moderne et simple pour le développement d’applications natives en phase avec un SDLC moderne. Cela s’applique aussi bien aux phases de conception (Build) et déploiement qu’aux opérations des utilisateurs dans la phase de production (Run). La plateforme Shipped s’appuie sur un autre projet open source appelé Mantl pour offrir une plateforme « full container », pour les déploiements de clouds et de datacenters, qui supporte aussi bien Kubernetes que Mesos.Pendant certe période de transition vers des modèles conteneurs, les développeurs doivent être capables de développer des applications dans un mode mixte. On peut aussi supposer qu’il y aura toujours de nouvelles générations que l’on devra intégrer à ce modèle. Nous sommes par conséquent en permanence en train d’évoluer vers une nouvelle génération qui nous place dans un modèle hybride. C’est pourquoi la plateforme Shipped a été conçue pour répondre à ce nouveau modèle hybride de développement.

Le model natif pour le cloud .Le projet open source Mantl fournit une plateforme complète pour conteneur. Cette Mantlplateforme associe du matériel et du logiciel. C’est l’infrastructure physique qui sous-tend la sécurité et la performance qui feront la différence pour l’entreprise. Cette couche d’infrastructure pour être efficace doit réaliser une totale intégration des composants physiques et logiques de sécurité. Mantl est un stack open source intégré de bout en bout pour execution de workloads en conteneur sur des cloud multiples. Mantl inclut l’automatisation du déploiement ainsi que le monitoring. Le projet a été conçu pour s’intégrer et évoluer dans une plateforme hybride afin de supporter le développement d’application et les services de données. Mantl prend également en compte les besoins de multi-orchestration. Son design est extensible et supporte Mesos/Marathon et/ou Kubernetes et/ou Docker Swarm. L’important dans un modèle multi orchestrateurs c’est l’unification sur le « service discovery » et le « load balancing » pour permettre des déploiements multi-clouds en fonction des choix client.

Cet article a été écrit en utilisant les travaux de Kenneth Owens, Cisco Chief Technical Officer, Cloud Infrastructure Services.

Mots-clefs :, ,

Adenis s’appuie sur Nimble et Cisco pour aider les PME à s’adapter au monde numérique

Dans un paysage économique traversé par la vague du numérique les PME doivent plus que jamais s’adapter, voire se réinventer, pour tirer leur épingle du jeu. Les évolutions technologiques de plus en plus fréquentes et les nouveaux entrants issus de l’univers du numérique imposent un rythme soutenu dur à suivre à moins de se tourner vers des spécialistes de l’hébergement et du cloud privé, comme Adenis, capables de mettre à disposition des environnements performants et évolutifs. C’est avec des baies flash Nimble et des serveurs UCS qu’Adenis continue de proposer les meilleurs services à ses clients.

Adenis Cisco

Les systèmes informatiques des PME à l’épreuve des soldes. C’est à la veille du lancement des soldes que j’ai rencontré Jerome BENBIHI, directeur général de la société ADENIS, accompagné d’Ahilan Thangavadivel directeur technique.  Tous deux étaient particulièrement vigilants pour garantir la disponibilité et la performance des ressources informatiques mises à disposition de leurs clients en majorité des PME. Mais le rôle de ce prestataire de services ne se limite pas à fournir de l’hébergement ou de la puissance informatique dans le cloud. Les PME comme les grandes entreprises doivent s’adapter à un monde qui change sous l’effet des innovations technologiques et  de l’économie numérique. En permanence à l’écoute de ses clients et du marché Adenis participe à la transformation de ses clients en personnalisant ses services pour répondre aux spécificités de chaque domaine d’activité.

L’exemple de la transformation du tourisme. Jerome Benhibi a suivi et participé avec Adenis à cette révolution. A l’exemple de beaucoup d’autres, ce secteur a subi de plein fouet l’impact du numérique et de nombreuses petites Adenis Jerome V2agences de voyages ont mis la clé sous la porte. Une nouvelle génération d’entrepreneurs  a réagi en adaptant leurs modèles économiques et en se focalisant sur les voyages d’affaires. Un segment de voyages pour des professionnels extrêmement exigeants qui nécessite des outils performants et un service 24h sur 24. Dans un secteur qui utilise beaucoup le télétravail, il était impératif de transposer  les accès aux plateformes de réservation des compagnies de transports (Amadeus, Sabre, Galileo) et les outils propres aux voyagistes sous forme d’un bureau virtuel. Une évidence aujourd’hui mais qui ne l’était quand en 2007 Adenis a développé la première plateforme donnant accès aux GDS (Global Distribution System) sur un poste de travail virtuel.

Proposer des solutions personnalisées qui deviendront des offres généralisées. Il devient impossible pour des PME de suivre toutes les évolutions technologiques et d’être à la fois spécialiste de leur secteur et spécialiste informatique.  Adenis met un point d’honneur d’offrir des services d’hébergement et de cloud privés qui sont personnalisés car chaque domaine d’activité possède ses particularités. Pour reprendre l’exemple des voyages d’affaires, Ahilan Thangavadivel mentionne les nombreuses statistiques que les agences de voyages doivent fournir aux entreprises clientes. Ces statistiques sont élaborées par des outils développés par des SSII qu’il faut intégrer dans les systèmes au fur et à mesure des nouveautés ou de l’introduction de nouveaux produits.  Des contraintes rencontrées par de nombreux clients d’Adenis dans d’autres secteurs d’activité

Anticiper est une nécessité pour un hébergeur.  Désormais les PME ont des modèles économiques et des services qui reposent sur des infrastructures qui exigent les mêmes caractéristiques que les grandes entreprises en termes de performances et de disponibilité. Les solutions d’hébergement et de cloud privés proposées par Adenis reposent sur des choix d’architectures qui doivent pouvoir évoluer pour répondre aux nouvelles attentes des clients. Les applications mobiles ont contribué à augmenter le nombre de consultations et les transactions sont plus gourmandes en données. Les infrastructures réclament en conséquence plus de capacité de stockage et plus d’entrées sorties. Il y a 3 ans Adenis a profité d’un déménagement de son site informatique pour moderniser ses infrastructures. Ce qui aurait pu être vécu comme une contrainte est devenu une opportunité pour Adenis qui a consolidé une grande partie de ses infrastructures sur des baies de Flash Hybride Nimble.

Cap sur le flash avec Nimble et Cisco. La mise en place de baies flash hybrides s’est traduit par une amélioration du service par les clients. Avec sa casquette d’exploitant Ahilan Thangavadivel a apprécié la simplicité duAdenis Ahilan V2 déploiement qui ne lui a nécessité que 2h de formation.  A ceci s’ajoute un monitoring et un reporting particulièrement efficace qui apporte une réelle valeur ajoutée pour un hébergeur. Nimble propose une gestion dans le cloud de ses équipements avec Infosight. De nombreux capteurs envoient des informations sur les différents composants de la solution. Il est possible ainsi d’anticiper les dysfonctionnements et d’améliorer la maintenance et par voie de conséquence la disponibilité de l’ensemble. Les baies Nimbles sont à présent utilisées avec des serveurs Cisco UCS.  Adenis veut profiter des services profiles des UCS pour automatiser et industrialiser un certains nombres de tâches systèmes et bénéficier de la simplicité de câblage de ces serveurs pour réduire la complexité des chemins de câbles et les risques associés à chaque modification. La conception de l’UCS autour des fabric interconnect permettra d’augmenter les débits et de déployer plus facilement des infrastructures réparties.

La prochaine étape pour Adenis devrait passer par une généralisation du flash. Les baisses de prix de la technologie, l’optimisation du stockage  avec une défragmentation et déduplication efficaces rendent le flash accessible à de nombreuses applications qui de ce fait verront leurs performances améliorées.

 

 

 

Mots-clefs :, ,

Cisco annonce Tetration Analytic pour analyser en temps réel le fonctionnement d’un datacenter

Contrôler finement le fonctionnement des datacenters devient un impératif dans notre monde numérique. En utilisant les dernières innovations technologiques basées sur des capteurs, du machine learning et du big data, la solution Cisco Tetration Analytics apporte la visibilité et l’analyse temps réel souhaitées.

Tetrationinfographic_1920x1080-550x309

Comment garder le contrôle d’un environnement IT de plus en plus complexe. Le CEO de Cisco Chuck Robin a lui-même pris la peine d’écrire un billet pour souligner l’importance cette annonce qu’il éclaire à la lumière de la transformation numérique qui touchera toute les entreprises. En 2018 65% des entreprises appartenant au « Global 2000 » auront mis cette transformation au centre de leur stratégie d’entreprise. Dans ce contexte le Datacenter jouera un rôle de plus en plus essentiel. Le numérique a envahi notre quotidien tout particulièrement avec les applications mobiles accessibles à tout moment sur notre smartphone. Ces nouveaux usages auxquels nous nous sommes habitués reposent sur le bon fonctionnement des Datacenters. Une tâche exigeante et complexe au vue de la prolifération des applications, de la mobilité des utilisateurs, de l’utilisation de cloud hybride et de la généralisation de la virtualisation. A titre d’exemple les nouvelles applications dites « cloud natives » sont devenues plus complexes. Chaque nouvelle application repose sur une architecture multi composants qui a pour conséquence d’augmenter le trafic Est Ouest qui représente à présent 75% du trafic d’un Datacenter.

Le Machine Learning pour analyser rapidement et avec précision. Ils existent de nombreux outils quitetration sensors proposent de répondre à ce besoin de visibilité mais rien qui permette d’avoir une approche globale cohérente, simple d’utilisation et adaptée aux nouveaux impératifs d’un datacenter moderne. La plateforme Tetration utilise une approche de machine Learning (système utilisant des algorithmes auto apprenants) qui permet de traiter des millions de flux par seconde et de fournir des informations prêtes pour déclencher une action en quelques minutes. En utilisant des capteurs matériels et logiciels, la plateforme collecte et stocke des centaines de millions d’enregistrements de mesure sans les agréger pour permettre des investigations sur du long terme. Tetration offre une visibilité complète des composants d’une application et de leurs dépendances qui facilite la mise en place d’un modèle « Zero Trust » dans le réseau. Un modèle qui part du principe que la confiance n’existe plus et qu’il faut bâtir des zones de sécurité en conséquence par des techniques de micro segmentation.

La plateforme Tetration Analytics est constituée de 3 couches fonctionnelles :Tetration platform

  • La couche de collection de données: Ces sont les yeux et les oreilles de la solution et utilise des capteurs logiciels installés sur n’importe quel serveur physique ou virtuel et des capteurs physiques dans des Nexus 9000
  • La couche analytique : La plateforme Big Data multi serveurs traite les informations provenant des capteurs en utilisant des technologies de machine learning
  • La couche de visualisation : La plateforme permet d’utiliser les données à l’aide d’une interface web GUI et d’APIs (REST).

 

Des cas d’usages attendus par les responsables opérationnels. Cette solution devrait rencontrer un vif intérêt car les responsables des datacenters pourront dorénavant avoir :

  • la visibilité applicative avec les informations sur les composants de l’architecture applicatives
  • des recommandations de règles automatisées avec une analyse des impacts
  • la conformité avec les règles et une auditabilité
  • des possibilités de visualisation des flux, d’exploration et d’investigation

Mots-clefs :, ,

En 2020 la vidéo représentera 82% du trafic IP mondial

Cisco publie une nouvelle fois son étude, le VNI IP Traffic Forecast, sur l’analyse des évolutions des trafics réseaux:. Cela nous permet de décrypter les tendances qui vont influencer les infrastructures réseaux et de prendre conscience des effets du développement des usages numériques sur ces infrastructures.

VNI 1 et 2

Les réseaux hauts débits constituent la colonne vertébrale d’Internet. Si Internet est devenue l’infrastructure essentielle au fonctionnement de notre monde moderne, les réseaux hauts débits en constituent la colonne vertébrale. Sans des infrastructures réseaux adaptées la société numérique qui évolue à grande vitesse sera bridée dans ses ambitions. Un problème sérieux qui a justifié que la France mette en place un Plan réseau très Haut débit avec un investissement de 20 milliards d’euros pour équiper les territoires d’ici 2020. Ce rapport tombe donc à point nommé pour aider les opérateurs privés, les collectivités territoriales et l’Etat à définir une stratégie efficace pour combler le retard pris avec les Etats Unis. Dans cette étude menée par Cisco les informations sont nombreuses et détaillées et j’en retiendrai quelques-unes. Je renvoie à l’étude pour plus de détails.

Le trafic sur Internet explose avec la vidéo. En 2020 le trafic sera équivalent à 95 fois ce qu’il était en 2005. CelaVNI video s’explique par un nombre grandissant de personnes utilisant plusieurs équipements connectés et consommant des contenus de plus en plus riches. En 2020 chaque seconde il y aura environ 1 million de minutes de vidéos transférées sur les réseaux. Ce trafic vidéo représentera 82 % du trafic global sur Internet en 2020. Le trafic de la vidéo à la demande aura doublé en 2020 mais d’autres usages expliquent cette part prépondérante dans le trafic Internet. La surveillance vidéo va déjà doubler en 2015 et la réalité virtuelle a quant à elle été multipliée par 4 en 2015. Les vidéos retransmises sur les écrans de télévision via Internet continuent de croitre et leur trafic sera multiplié par 3,6 en 2020. Les réseaux de fourniture de contenus (CDN) représenteront deux tiers du trafic vidéo sur internet en 2020.

 

Le Machine to Machine M2M représentera 46% des connexions et des équipements en 2020. Le nombre de connexions et d’équipements ont une progression plus rapide que la population. Cela se traduit par un nombre plus important d’équipements par utilisateur connecté. Le nombre croissant d’équipements connectés M2M (compteurs intelligents, vidéo surveillance, contrôle médical, suivi logistique) contribue à renforcer le ratio nombre d’équipements connectés versus le nombre de personnes. En 2020 les connexions M2M compteront pour 46% des connexions et des équipements. Les applications d’habitat connecté et de tracking vont peser près de la moitié (47%) des connexions M2M en 2020 et démontre que les Machines to Machines vont être très présentes dans notre quotidien. La santé connectée sera le segment à la plus forte croissance (49% par an) suivi par les applications de voitures connectées (37% par an).

La mobilité deviendra prépondérante. Les équipements mobiles prennent une place de plus en plus importante à tel point qu’en 2020 le trafic lié à cette mobilité comptera pour les deux tiers du trafic IP.

VNI usages

En 2020 90% des smartphones et des tablettes supporteront IPv6. Le trafic de données sur les mobiles va être multiplié par 8 entre 2015 et 2020 pour atteindre 30,6 Exaoctets par mois en 2020.Une croissance 3 fois plus rapide que celle du trafic IP sur des lignes fixes. Les applications se mettent à la mobilité pour suivre cette forte tendance. Parmi les services de mobilité, la géolocalisation arrive en tête avec une croissance de 38% entre 2014 et 2015, la banque mobile suit de près avec 37% de croissance et la vidéo sur mobile n’est pas en reste avec 35%.Entre 2015 et 2020 les plus fortes croissances se feront sur la géolocalisation et le commerce électronique

Les chiffres de cette étude sont une source d’informations précieuse pour élaborer des stratégies réseaux adaptées au monde numérique qui se crée sous nos yeux. Les nouveaux usages et les expériences clients ne seront possibles qu’au prix d’infrastructures réseaux efficaces pour relier les centres informatiques, les clouds, les utilisateurs et les objets connectés.

 

 

 

Mots-clefs :, , ,

IBM et Cisco: L’analytique et le cognitif pour exploiter au mieux les données de l’IOT

Pour répondre aux nouveaux enjeux de l’internet industriel, IBM et Cisco ont annoncé le 2 juin 2016 l’union de leurs forces et de leurs offres pour adresser le problème du Fog Computing. Une approche commune permettra de traiter et d’analyser les données aux plus près des équipements connectés qui génèrent des données à l’extrémité des réseaux tout particulièrement dans des contextes industriels.

Fog IBM Cisco data from

A l’ère de l’internet industriel. Avec 50 milliards d’objets connectés à l’horizon 2020 et la marée de données qu’ils vont générer il devient impératif de réfléchir à la manière de traiter ces données dissiminées. Vouloir tout transférer systématiquement vers des datacenters n’est pas nécessairement pertinent. Pour des données créées par des équipements situés aux extrémités des réseaux, la latence des réseaux est souvent incompatible avec une prise de décision rapide suite à une information, ou une alerte, reçue au niveau d’un capteur. Il faut donc être capable, dans de nombreux contextes, de collecter, de stocker et d’analyser rapidement ces données. Beaucoup de ces capteurs ont un usage industriel et joueront un rôle de plus en plus critique dans le contrôle, la surveillance et la maintenance d’équipements, de véhicules et de villes intelligences mais également dans le suivi de production pétrolière ou de chaines de logistique. Le développement des objets connectés va participer à la création d’environnements hyper distribués qui réclament de nouvelles approches. A différentes reprises j’ai évoqué les termes de « fog computing » et de « edge computing » qui font référence à ces environnements hyper distribués qui complexifient les prises de décision et le déclenchement d’actions en temps réel.  Cisco possède déjà un certain nombre de solutions pour répondre à ces nouveaux besoins mais vu l’importance du sujet Cisco et IBM ont annoncé le 2 juin qu’ils allaient unir leurs forces pour adresser cette problématique. Les deux acteurs vont pouvoir combiner les solutions d’analytique dans le réseau de Cisco avec les solutions cognitives Watson pour l’IoT d’IBM. Plutôt que de faire appel à des instructions explicitement définies dans un programme, les systèmes cognitifs apprennent par les interactions successives avec l’environnement. Cela permet de s’adapter avec le volume, la complexité et l’aspect imprévisible des informations générées par l’internet des objets .

IoT: une richesse encore sous exploitée. Prenons l’exemple de l’exploitation pétrolière. Une seule plateforme pétrolière peut contenir 30.000 capteurs qui collectent en permanence des données. On peut imaginer la valeur de ces données pour une société pétrolière, pourtant 40% des données collectées ne sont jamais stockés et seulement 1% peut être traité sur une plateforme offshore pour une analyse quotidienne. En donnant la possibilité d’exploiter davantage de données sur place avec ces nouvelles approches de edge computing on peut considérablement améliorer le fonctionnement des équipements des plateformes et aller réellement vers des maintenances efficaces qui augmentent la productivité. Cette solution analytique et cognitive pour l’IOT a de nombreux usages qui impacteront de manière conséquente les personnes, les opérations et les équipements.

Fog econonomic impact

Une société de transports pourra par exemple gagner 10 à 20 % de productivité en contrôlant en temps réel la sécurité, le déplacement des personnes et le temps de fatigue dans des environnements contraignants. Une compagnie minière pourra diminuer de 5 à 12,5% ses coûts opérationnels en analysant et en corrélant toutes les conditions environnementales qui affectent les performances des équipements. Des compagnies pétrolières et de gaz pourront économiser 10 à 40% sur la maintenance des équipements grâce une surveillance plus efficace qui favorise la maintenance préventive .

L’exemple du port de Cartagene: Le port de Cartagene en Colombie compte sur l’analytique en extrémité de réseau pour améliorer l’efficacité des équipements portuaires. Il y a quelques années le port a commencé a monitorer les conditions d’exploitations  de ses différents équipements   (température des moteurs, vitesse, nombre d’heures d’utilisation). Aujourd’hui le port a commencé à utiliser la plateforme Watson IoT d’IM avec les solutions d’analytique réseau de Cisco.  Le port réalise en particulier de l’analyse prédictive et espère ainsi réduire l’usure du matériel et le besoin de maintenance pour disposer d’équipements totalement opérationnels et éviter des indisponibilités couteuses

voir l’infographie dans sa totalité

voir les blogs sur ces sujets Cisco Analytics & Automation Blog et  IBM IoT Blog

Mots-clefs :, , , ,

Une offre d’hyper convergence pour couvrir tous les cas d’usage.

L’ère du numérique s’est accompagnée d’une prolifération des données que les entreprises vont devoir collecter et stocker pour alimenter une nouvelle génération d’applications avides de données. Pour s’y adapter les datacenters commencent à se tourner vers des infrastructures de type scale out – hyper convergentes. Annoncée récemment par Cisco la solution d’hyper convergence Hyperflex rencontre déjà un franc succès selon CRN. Pour compléter son offre sur des très hautes capacités avec une forte croissance, Cisco a également validé la solution Hedvig avec les serveurs UCS élargissant ainsi le scope des solutions Scale out.

Hyperconvergence : un marché à 5 milliards de dollars en 2019. Selon le Gartner le marché des systèmes hyperconvergés sera le segment du marché des systèmes intégrés qui progressera le plus vite au cours des trois prochaines années, pour atteindre près de 5 milliards de dollars en 2019 (lire l’article du MagIT). Le cas des très fortes volumétries à croissance rapide peuvent être désormais pris en compte avec des offres d’hyperconvergence telles que Hedvig avec les serveurs UCS. Hedvig Distributed Storage Platform est une solution unifiée de stockage scale out qui peut supporter des milliers de nœuds au sein d’un même cluster de stockage. Cette notion de scale out qu’on utilise de plus en plus souvent fait référence à la capacité d’évoluer par rajout de nœuds. Hedvig permet d’évoluer de deux manières:

  • Hyperscale : évolution indépendante du stockage et des serveurs
  • Hyper convergence: évolution commune du stockage et des serveurs

Une solution à envisager en particulier si l’on pense que l’architecture scale out sera amenée à supporter plus d’une centaine de nœuds. Il faut éviter la multiplication des clusters de stockage qui complexifie la gestion.

Une gestion unifiée quel que soit le volume de données. Un des intérêts de la solution Hedvig est de proposer une gestion unifiée quel que soit le nombre de nœuds et le protocole de stockage utilisé. En supportant les modes blocs, fichiers et objets ainsi que la majorité des hyperviseurs et des containers existants, la plateforme Hedvig rend possible cette gestion unifiée. Elle donne également la possibilité de s’étendre sur des cloud privés ou publics afin de créer un cluster de stockage hybride et élastique qui peut croitre jusqu’à des milliers de nœuds. Le logiciel Hedvig virtualise et agrège du stockage flash et /ou des disques rotatifs dans un cluster de serveurs ou dans le cloud et le présente comme un système de stockage unique et élastique. Les organisations peuvent activer n’importe quel nombre de disques virtuels en quelques secondes par l’intermédiaire d’une interface utilisateur (GUI), CLI ou des APIs RESTful API. Les opérations de provisionnement qui normalement prennent des heures, des jours voire des semaines s’effectuent avec cette solutions en quelques clics et peuvent même être réalisées à partir d’équipements mobiles

Des cas d’usage nombreux. Les cas d’usage sont déjà nombreux et on peut distinguer ceux qui relèvent des applications traditionnelles à savoir la virtualisation des serveurs, les besoins de backup, d’archivage et de reprise d’activité et la virtualisation des postes de travail de ceux qui concernent les nouvelles applications créées nativement pour le cloud, le big data, et la nouvelles génération d’environnements de test et de développement. Hedvig s’intègre simplement avec OpenStack et supporte les technologies containers comme Docker. Un ensemble complet d’APIs RESTful assure une intégration fluide avec tous les frameworks d’automatisation et d’orchestration.

La plateforme de stockage distribué Hedvig se compose de trois parties :Hedvig architecture

  • Hedvig Storage Service: Il s’installe sur des serveurs X86 et ARM ou dans des environnements cloud pour former un cluster de stockage élastique.
  • Hedvig Storage Proxy: il s’installe sur le serveur de l’application via une VM ou un container Docker pour présenter des machines virtuelles provisionnées sur le cluster de stockage.
  • Hedvig Virtual Disk: c’est la couche d’abstraction qui fournit un provisionnement granulaire des ressources et des fonctions.

Validation de la solution Hedvig avec les serveurs Cisco UCS. Hedvig et Cisco ont testé et validé le logiciel Hedvig Distributed Storage Platform dans une configuration hyperscale avec les serveurs Cisco UCS C240 M4SX. (voir l’architecture de référence)Ces tests ont permis de vérifier que la solution répondait à un ensemble d’exigences qui figure dans le document “Hedvig Distributed Storage Platform with Cisco UCS Solution Overview and Reference Architecture”. La validation permis d’établir qu’un cluster des serveurs Cisco UCS C240 fonctionnait bien comme une seule et même solution scalable, élastique et résiliente avec des fonctions avancées de protection de données, de back up et de reprise d’activité. La solution Hedvig est présente sur la “market Place” Cisco.

Cisco market place  https://marketplace.cisco.com/catalog/companies/hedvig-inc/products/hedvig-distributed-storage-platform-for-cisco-ucs

Un nouvel ASIC pour faire face à la demande de connexions des applications cloud natives

L’économie numérique a donné naissance aux applications « cloud natives reposant sur des containers, des microservices et l’usage du cloud, » la conception de ces applications, définit une approche d’infrastructure totalement différente de celle des applications traditionnelles. Elle multiplie les composants adressables et génère ainsi un besoin grandissant de connexions. La technologie d’ASIC Cloud Scale, développée par Cisco pour les commutateurs Nexus 9000, augmente les possibilités des connexions au sein des infrastructures.

CloudScale-microservices-390x230

Les applications cloud natives nécessitent une nouvelle approche des infrastructures. L’usage grandissant des mobiles depuis 2007 a accru le besoin de développement agile pour les applications de l’économie numérique. La multitude des utilisateurs et la nécessité de s’adapter rapidement et fréquemment à un environnement concurrentiel très dynamique ont conduit à l’émergence d’applications dites cloud natives. Pour permettre une intégration et un développement continu, ces applications sont découpées en éléments indépendants et autonomes appelées des microservices. L’application peut ainsi évoluer de manière extrêmement modulaire tout en maintenant un service continu. Les barrières entre production et développement sont supprimées et laissent la place à des méthodes DevOps. De part leur nature et leurs exigences ces nouvelles applications ne peuvent plus se satisfaire d’infrastructures monolithiques  rigides. Elles vont faire appel à des infrastructures granulaires qui de plus en plus souvent seront pilotées avec du code par l’application elle-même (Infrastructure as a code). Le design de ces applications sera basé généralement sur des containers et des microservices. Cette conception des applications cloud natives a des implications profondes dans le trafic des datacenters.

Les applications cloud natives augmentent les besoins de connexions. Les serveurs étant désagrégés en services de composant, chaque processus devient un endpoint et accroit de ce fait considérablement le nombre de endpoints adressables. Même sur un petit nombre de racks les serveurs vont créer une forte demande de connexions bien plus importante que celle qui avait été constatée lors de la virtualisation des serveurs physiques. Pour répondre à ces contraintes Cisco a produit une nouvelle génération d’ASIC de technologie  “Cloud Scale”. La nouvelle génération de commutateurs Nexus est conçue avec cette technologie Cloud Scale. Cela inclut la nouvelle série Nexus 9200 et la nouvelle génération Nexus 9300EX. La commutation peut grâce à la technologie Cloud Scale s’adapter à l’échelle du cloud avec une densité de endpoints multipliée par 7.

Pour des informations plus détaillées je vous renvoie à ce livre blanc technique qui compare le design de l’ASIC CloudScale à d’autres design de « silicon merchant »

A lire également : Why Network Silicon Innovation Is Critical to Next-Generation Datacenters

Cisco et MapR innovent avec une nouvelle solution pour SAP HANA

Après avoir été le premier à certifier dès 2011 des appliances HANA Scale-out avec deux fournisseurs et technologies de stockage différentes, EMC VNX en mode block et NetApp FAS en mode fichier (voir ce billet), Cisco continue à innover dans le monde HANA en annonçant récemment  la certification d’une nouvelle appliance HANA Scale-out construite entièrement avec des serveurs Cisco UCS et la technologie MapR Converged Data Platform pour le stockage.

Voyons en détails de quoi il s’agit et les caractéristiques de cette nouvelle solution HANA.

Le marché du stockage connait en ce moment de profonds changements avec plusieurs évolutions telles que le remplacement des disques HDD par les disques SSD,  l’arrivée des technologies SDS (Software Defined Storage) pour le Big Data entre autres, et les solutions d’hyperconvergence sur lesquelles Cisco vient également de se positionner (lien) avec la gamme Cisco UCS Hyperflex. Le dénominateur commun de ces évolutions et la motivation des clients qui les adoptent est de toujours rechercher la solution technologique et économique optimale pour chaque type de charge applicative. Par ailleurs, Cisco et SAP collaborent activement sur SAP HANA VORA .Dans ce contexte, Cisco souhaite donner aux utilisateurs HANA un choix plus large de technologies de stockage certifiées pour HANA.

HANA scaleout with MapR architectureComme illustré ci-contre, la nouvelle appliance HANA Scale-out certifiée par Cisco est similaire dans son architecture à toutes les solutions UCS HANA Scale-out ou HANA TDI, à savoir:

  • les serveurs HANA sont des serveurs  lames B460-M4 équipés des processeurs Intel Xeon E7-8880v3 et de 512 à 2TB  RAM sous RedHat Linux,
  • raccordés bien évidement à  une paire de Fabric Interconnect UCS qui sont le cœur réseau de l’appliance
  • sur lesquels est directement connecté le système de stockage persistent dédié à HANA.

Cette architecture est la plus simple et la plus compacte de toutes les solutions HANA Scale-out du marché. Elle est aussi la plus évolutive quand il s’agit d’augmenter la capacité de HANA en scale-out ou de mutualiser plusieurs instances HANA en mode TDI, car le rajout de serveurs et de stockage supplémentaire se fait sans ajouter de composants réseaux intermédiaires.

Les nouveautés de l’appliance UCS HANA scale-out avec MapR sont les suivantes :

  • Les Fabric Interconnects sont les nouveaux modèles UCS 6332UP qui proposent 32 ports 40G qui permettent de garantir largement les débits réseaux exigés par HANA, mais aussi par le système de stockage. Cisco est ainsi le premier fournisseur à certifier une solution HANA bâtie sur un cœur de réseau à 40Gb.
  • Le système de stockage est composé de serveurs Cisco UCS C240-M4 équipés des processeurs Intel E5-2680v3, de 256GB RAM, de 2 disques SSD 400GB et 18 disques HDD 1.8TB. Ces serveurs tournent la solution logicielle MapR Converged Data Platform sous RedHat Linux. L’accès aux données utilise l’interface standard NFS fournie par MapR. Le cluster MapR doit comporter au minimum 3 serveurs et la certification HANA a été faite avec un ratio 2 :1, c’est à dire qu’il faut 1 serveur C240-M4 pour deux serveurs HANA B460-M4.

La solution MapR Converged Data Platform est une évolution de la suite logicielle Hadoop pour y intégrer tous les services de stockage dont une entreprise peut avoir besoin. Annoncée par MapR en décembre 2015, cette solution est le premier système de stockage qui offre non seulement toutes les fonctionnalités classiques d’un cluster Hadoop (incluant Spark), mais également des fonctions de stockage pour les flux de données continus (stream), des services base de données, et surtout un service de fichiers accessible par NFS standard. Ce service NFS est celui utilisé pour HANA.

MAPR converged data platformEn outre, MapR Converged Data Platform possède nativement des fonctions de haute-disponibilité, de  compression, de déduplication, de réplication (interne au cluster), de snapshot et  de réplication entre clusters qui en font un système de stockage flexible et complet pour SAP HANA. En particulier, la fonction de snapshot permet de réaliser un backup de HANA, et la réplication inter clusters est utilisable comme solution de « HANA Storage Replication » telle que décrite et supportée par SAP ici. Cette nouvelle solution de stockage certifiée pour HANA possède donc nativement toutes les fonctions nécessaire pour le déploiement et les opérations de HANA.

Le dimensionnement actuel du cluster MapR nécessite d’avoir au minimum 3 serveurs (pour le quorum) et a été certifié avec un ratio de 2 serveurs HANA pour un serveur MapR.

Cette solution est entièrement commercialisée par Cisco et bénéficie aussi du Cisco Solution Support pour SAP HANA, par lequel Cisco assure le support complet de tous les composants d’une solution HANA appliance ou TDI.

La certification de cette nouvelle technologie de stockage dans une appliance HANA scale-out est dès à présent disponible et un Cisco Validated Design (CVD) correspondant a été publié ici. Cette première étape sera suivie de nombreuses évolutions dans les prochains mois qui permettront la conception d’architectures de solution HANA innovantes 100% Cisco et personnalisées à chaque contexte client.

Mots-clefs :, , ,

La business Intelligence dépendante de la qualité des données.

Dans un monde qui va de plus en plus vite, les entreprises ont bien compris que l’avenir appartiendrait à ceux qui savent « faire parler les données ». Les outils de business intelligence et les applications analytiques sont devenues incontournables et sont de plus en plus souvent  utilisables en libre-service.  Le logiciel Cisco Data preparation réduit le temps nécessaire pour mettre à disposition des analystes des données qualifiées. Un gain de temps utile pour prendre de meilleures décisions plus rapidement.

Data preparation

La qualité des données augmente la pertinence des outils de Business Intelligence. Pour être efficaces les analystes doivent pouvoir travailler sur toutes les données y compris les plus récentes. Un vrai défi pour les directions informatiques qui dépensent de plus en plus de temps à préparer les données avant de les mettre à disposition. Elles doivent entre autres agréger les données de sources multiples, identifier les doublons et ajouter des données contextuelles. Avec la puissance des outils de business intelligence disponibles aujourd’hui, chaque minute perdue à préparer les données est du temps perdu pour la prise de décision.

Réduire le temps de préparation des données. La solution Cisco Data Preparation avec un serveur UCS peut améliorer ce processus et donner la possibilité aux analystes de travailler sur des données de plus en plus nombreuses et obtenir des analyses plus abouties. Ce logiciel est une application pour l’utilisateur final qui permet à des analystes business sans connaissance technique de facilement collecter, nettoyer, associer et enrichir les données brutes qui vont alimenter les analyses. Avec cette solution, les analystes peuvent :

  • Ajouter: Inclure des données sans se soucier de leur localisation que ce soient des données provenant de Data preparation architectureHadoop Distributed File System (HDFS), de bases de données relationnelles, de tableaux ou de fichiers plats.
  • Explorer: Identifier les problèmes de qualité des données en utilisant des outils de recherche full-text, des filtres et des histogrammes. La qualité des données est visualisée pour souligner les types de problèmes rencontrés avec les données (erreurs, doublons, manquantes etc..)
  • Nettoyer. Utiliser des algorithmes sophistiqués qui travaillent sur les données sans avoir besoin de coder ou de développer des scripts. Les analyses voient les incohérences et peuvent remplir les blancs, supprimer des données, renommer les duplications ou réaliser tous types d’action pour améliorer la qualité des données.
  • Formater. D’un simple clic il est possible de mettre les fichiers dans un format mieux adapté à l’analyse.
  • Enrichir. Ajouter des données contextuelles qui rendront les analyses plus précieuses.
  • Associer: Le logiciel Cisco Data Preparation détecte les attributs communs à de multiples fichiers et accélère ainsi la fusion de données.
  • Publier: Rendre les réponses directement disponibles à partir de to QlikView, Tableau, Microsoft Excel, et toutes autres applications compatibles avec Open DataBase Connectivity (ODBC)

 

Le logiciel Cisco Data Preparation fonctionne avec Apache Spark et utilise une architecture à quatre niveaux conçue pour l’interactivité, la préparation des données en libre-service et la scalabilité. Le logiciel Cisco est installé sur un serveur UCS . La configuration recommandée est basée sur des serveurs Cisco UCS C220-M4/C240 M4 avec deux processeurs Intel Xeon E5-2680 v3, 256GB de RAM

Mots-clefs :,

Une nouvelle architecture logicielle pour un monde hyper connecté

Poussée par les vagues d’innovations technologiques l’économie est en train de devenir numérique et impose aux entreprises de se transformer pour tirer parti de cette révolution. Pour s’y préparer Cisco a publié un document qui explique que dans ce contexte il faut repenser les architectures applicatives pour tenir compte d’un environnement hyper connecté et hyper distribué qui donne naissance à de nombreuses interactions et à une multitude de données et d’applications hors des centres informatiques..

Ecosystème airline

L’expérience client est devenue une préoccupation majeure. Le rôle des technologies dans l’activité des entreprises a évolué. A l’efficacité, qui a été longtemps la préoccupation majeure, est venue s’ajouter l’innovation et la création d’expériences utilisateur pour séduire et fidéliser des clients qui ont gagné en maturité et autonomie particulièrement en adoptant les applications mobiles. Les innovations, et les résultats économiques qui s’en suivent, découlent d’une série de tendances technologiques telles que le cloud, l’analytique, l’IoT, le machine learning . La convergence de ces technologies  a permis d’étendre les interactions entre l’entreprise et ses clients au-delà de ses applications traditionnelles. L’informatisation a contribué à automatiser le fonctionnement des entreprises en les structurant autour de grandes applications hébergées dans les datacenters. Le numérique quant à lui a sorti la technologie des murs du datacenter et de l’entreprise en les plaçant au plus près de l’utilisateur et du consommateur. Il a provoqué le développement d’une multitude de nouveaux usages et de nouveaux modèles d’affaires qui transforment profondément nos entreprises, notre société et notre mode de vie. Les applications qui auparavant reposaient totalement sur des données contenues dans des bases de données historiques doivent aujourd’hui tenir compte des interactions contextuelles en temps réel. Le business est devenu digital ou est en train de le devenir. Il y a urgence à repenser la manière de construire les architectures logicielles.

Hyper connexion et multitude applicative. Cette vague de nouvelles technologies représente une incroyable opportunité pour ceux qui sauront la saisir mais Gartner Pricipes Business digitalnécessite la mise en place de nouveaux modèles opérationnels pour réaliser cette transformation numérique.  Nous avions connu l’informatique distribuée, le numérique va plus loin et engendre une prolifération d’intelligence de traitement hyper distribué.  Le numérique en favorisant de nouveaux usages a donné naissance à une multitude d’applications et a mis à l’honneur les APIs (Application Programming Interface), pour faciliter l’intégration et l’évolution des applications, à tel point que certains n’hésitent plus à parler de « l’économie des APIs ». Dans ce contexte , les entreprises ne peuvent plus se limiter à des applications internes pour fournir de nouveaux service business , elles doivent intégrer des logiciels de partenaires ou des logiciels as a service dans leur écosystème pour tenir compte de la multitude d’équipements et de personnes qui interagissent dans ce monde hyper connecté.

Des principes d’architecture pour le business numérique. Gartner Virtualize Application servicesLe Gartner a publié « 12 principles of applications architecture for digital business and IoT » Sur ces 12 principes 7 traitent du design applicatifs.  L’ensemble de ces principes est détaillé dans la deuxième partie du document intitulé a « new software architecture for an Hyperconnected world ». Dans ce document   Cisco explique également comment appliquer ces principes et donne quelques cas d’usages utiles pour la compréhension. Cisco cite par exemple le cas d’un écosystème aérien qui illustre les interactions des systèmes connectés qui contribuent ensemble à la fourniture de services aériens. Nous ne sommes plus dans la prospectives mais dans la réalité. Les systèmes sont décloisonnés et interagissent ensemble pour fournir des services de plus en plus riches. Loin d’être un cas isolé cet exemple se retrouve de plus en plus fréquemment dans tous les domaines et souligne l’importance des nouveaux designs logiciels.

Le paradoxe de l’ouverture et de la protection. La convergence d’un écosystème en prise avec l’activité de l’entreprise, des architectures applicatives et des équipements à connecter pour supporter l’économie numérique constitue un paradoxe : celui d’offrir d’avantage d’ouverture en renforçant la protection. C’est à ce paradoxe que Cisco entend répondre en proposant des designs, des architectures et des logiciels d’automatisation et d’analytique. Pour aller plus loin sur ce sujet je vous invite à lire en détail le document « new software architecture for an Hyperconnected world ».

Big data : Il est temps de passer des PoC à la production

Le Big Data est passé dans le langage courant comme le cloud l’avait fait quelques années auparavant. Reste maintenant aux entreprises à le mettre en pratique pour se positionner dans l’ère du numérique et de l’économie de la donnée. Pour les engager à aller plus loin que le « Proof of Concept » la société JEMS group organise une journée dédiée à cette problématique à laquelle Cisco s’associera ainsi que d’autres partenaires technologiques. Le marché a considérablement évolué et les exemples d’usage ne manquent pas. Il est temps de s’y mettre..

JEMS

La guerre économique se mène sur le terrain de la donnée. Selon le contexte, l’utilisation des termes big data (données massives en français) peut évoquer soit le problème de la maitrise d’un déluge annoncé de données, soit l’opportunité de créer de la valeur à partir des données ou bien encore la solution pour résoudre le problème et saisir l’opportunité.  Le Big Data est à la fois un défi technique et un levier économique pour l’entreprise, c’est sans doute pour cela que beaucoup d’entreprises françaises en sont encore à l’étape de la découverte d’un cas d’usage qui se concrétise en maquette technique (ou Proof of Concept PoC). Passer de la maquette technique (PoC) à la production, c’est tout l’enjeu aujourd’hui. La guerre économique que se livre aujourd’hui les entreprises se mène sur le terrain de la donnée. Rester au niveau d’un PoC c’est prendre le risque de se voir distancer par ses concurrents ou par de nouveaux acteurs innovants qui auront bâti leur modèle d’affaire sur des plateformes de données. Les barbares du web ont déjà pris de l’avance et sont passés maitres dans la valorisation et la monétisation des données. Pour autant rien n’est perdu et aujourd’hui toute entreprise peut prétendre à l’utilisation de solutions Big Data. Le développement des données générées hors de l’entreprise, que ce soit par les réseaux sociaux, l’open data ou les objets connectés, constitue un gisement énorme de données qui vient enrichir les données internes de l’entreprise. Tout le monde est concerné par le Big Data

Le big data bénéficie d’un écosystème riche et complexe. Savoir que les données recèlent  une mine d’or est inutile si les cas d’usages et les nouveaux services n’ont pas été identifiés. Aujourd’hui les exemples ne manquent pas dans tous les secteurs d’activités.  Impossible de repousser l’échéance, peu importe que le projet prenne le nom de Big Data ou pas il est grand temps d’accélérer. On doit donc rentrer dans le domaine de la « science des données » (datascience) qui requiert un spectre de compétences allant du métier aux mathématiques en passant par l’infrastructure technique.  Entre la collecte des données provenant de sources multiples et la création d’un service ou d’un usage basés sur l’exploitation de ces données les étapes sont nombreuses et font appel à un écosystème de plus en plus riche qui peut paraitre complexe.  Peu à peu Big Data s’est structuré autour de grandes fonctions qui répondent aux impératifs du Big Data.

  • Acquisition de données
  • Intégration de données
  • Base de données
  • Analyse des données
  • Transformation des données
  • Visualisation des données
  • Création d’un service

Les acteurs de cet écosystème ont appris à positionner leurs solutions et reconnu le besoin de collaborer pour obtenir une intégration plus fluide entre les composants d’une architecture Big Data voire pour offrir des ponts entre des solutions qui auparavant se présentaient comme concurrentes. Si aujourd’hui toutes les entreprises, quelle que soit leur taille, peuvent bénéficier d’une solution Big Data on se doute bien que la notion de « big » sera sensiblement différente entre un « Google » et une PME. Le Big Data se démocratise et on trouve de nombreuses offres dans le cloud tant pour la partie infrastructure matérielle que pour des logiciels de machine learning par exemple.

Partageons les meilleures pratiques Big Data. Sur ce blog j’ai récemment faire part de la stratégie de Cisco dans le Big Data, de l’offre de Cisco Data virtualisation et des partenariats avec MAPR et SAP HANA. Pour aller plus loin et aborder toutes les facettes du Big data Cisco vous invite à participer le 2 juin à la journée JEMS Dataconnect. Le JEMS data connect est un événement dédié aux utilisateurs Big Data. Il aura lieu à la Grande Arche le 2 juin 2016 et sera l’opportunité de découvrir les dernières innovations et les meilleures pratiques Big Data pour enfin passer les projets en production ! Quatre conférences seront animées conjointement avec Cisco, Information Builders, MapR, Outscale et Talend. Fini les POC, bienvenue dans l’ère du Big Data industrialisé. L’inscription est gratuite

Mots-clefs :

Cisco et T-Systems publient un livre blanc sur SAP HANA

livre_blancLe groupe  T-Systems, filiale de Deutsche Telekom, est la troisième entreprise de services numériques en Europe et un partenaire historique de SAP. T-Systems a choisi les technologies de Cisco (réseaux Nexus  et serveurs UCS)  pour bâtir son offre Cloud, basée sur Dynamic Cloud Platform. Cette plate-forme héberge une gamme complète de services cloud de type IaaS, Paas ou Saas. Parmi ces services, on trouve une offre Dynamic SAP & HANA qui a déjà convaincu un certain nombre de clients internationaux et français.

Dans ce contexte, j’ai eu le plaisir de travailler avec Samuel Grevillot, consultant SAP HANA chez T-Systems et Le Monde Informatique, sur la rédaction d’un livre blanc consacré à la question « Votre infrastructure est-elle prête pour SAP HANA ? » Dans ce livre blanc,  nous aidons les décideurs informatiques à se poser les bonnes questions avant une migration vers SAP HANA. Nous y développons des sujets tels que :

  • Quels sont les impacts de SAP HANA sur les infrastructures existantes ?
  • Quels sont les critères à prendre en compte dans le choix des serveurs pour HANA ?
  • En quoi l’architecture et les serveurs Cisco UCS répondent-ils aux besoins spécifiques de SAP HANA ?

Ce livre blanc est dès à présent disponible ici sur CIO Practice, le site de T-Systems qui accompagne les directions informatiques dans leur transformation numérique.

Mots-clefs :, , , ,

Une appliance CISCO certifiée SAP HANA avec MapR Converged Data Platform

Chaque entreprise essaye de trouver ou de garder sa place dans une économie devenue numérique. Dans ce contexte il est impératif, pour rester compétitif, de savoir accéder et d’analyser rapidement des données qu’elles soient internes ou externes à l’entreprise. Dans de nombreux cas ces données dites « hot » sont déjà dans des environnements SAP. De nouvelles solutions Cisco pour SAP profitent des débits 40 G offerts par une nouvelle génération de Fabric Interconnect pour améliorer l’efficacité des environnements SAP

HANA stratégique pour SAP. SAP a clairement annoncé la couleur, HANA et S/4HANA sont les fondations sur lesquelles SAP va construire ses futures solutions.  Bien que les autres bases de données (Oracle, IBM DB2 et MicrIDCosoft SQL server) soient encore supportées jusqu’en 2025, les investissements en R&D de SAP seront consacrés principalement aux innovations autour de sa propre base de données SAP HANA. Les infrastructures nécessaires pour supporter efficacement les environnements SAP HANA utilisent soient des appliances SAP HANA (tous les composants matériels sont certifiés par SAP et le logiciel préchargé) ou le Tailored Datacenter Integration (TDI) qui permet d’intégrer des composants matériels déjà installés chez le client (le logiciel est installé par un prestataire de services).

Des appliances SAP HANA qui se différentient par leur conception. Tous les fournisseurs d’appliances SAP HANA suivent à la lettre les préconisations de SAP mais ce n’est pas pour autant qu’elles sont interchangeables. Les plateformes se distinguent les unes des autres que ce soit au niveau du design d’architecture, du choix des composants ou bien encore de la simplicité  de l’administration. Une étude réalisée par le cabinet IDC, à la demande de Cisco,  analyse la valeur ajoutée de l’infrastructure intégrée UCS pour SAP et HANA.

IDC UCS horizontal

Hadoop et HANA les meilleurs amis du monde. L’année dernière Cisco avait annoncé un partenariat et son engagement avec SAP HANA Vora qui est un Framework basé sur Spark Apache pour de l’analyse interactive en mémoire sur Hadoop. SAP Vora sur les serveurs UCS et ACI offrent une administration unifiée sur l’ensemble SAP HANA et les distributions Hadoop. En début d’année 2016 Cisco a annoncé la disponibilité d’un Cisco Validated Design (CVD) , Cisco UCS Integrated Infrastructure for Big Data and Cisco ACI with SAP HANA Vora for In-memory Analytics , qui fournit étape par étape les recommandations d’architectures qui ont été testées et documentées pour faciliter et accélérer des déploiements d’architectures fiables.

Des performances améliorées avec la nouvelle génération de Fabric Interconnect FI.  La solution UCS Integrated Infrastructure for SAP HANA a été conçue pour optimiser les performances des environnements SAP HANA en tirant partie de la troisième génération de Fabric Interconnect (UCS 6332) certifiée par SAP et de son débit 40 G pour éliminer les goulets d’étranglement réseau. Ces améliorations de débits ont des impacts évidents sur les applications SAP. On peut charger plus rapidement les données dans les nœuds HANA que ce soit au démarrage ou pour des raisons de restauration. Les communications entre nœuds sont également considérablement accélérées et améliorent les temps de réponses lors de requêtes. Le fabric interconnect 40 G améliore les environnements TDI et permet de mieux intégrer SAP HANA avec des applications analytiques et de chargement de données. Cela complémente les solutions  de TDI shared storage réalisées avec des partenaires comme EMC et NetApp.

 Une appliance certifiée SAP HANA avec MapR Converged Data Platform. Pour des applications SAP HANA telles que Business Warehouse, Cisco a créé une nouvelle appliance certifiée SAP HANA basée sur l’infrastructure intégrée UCS  et qui incorpore la plateforme «MapR Converged Data Platform ».

MAPR converged data platform

Cette appliance inclut le système de fichier de MapR qui supporte les préconisations du stockage persistent de SAP HANA. La plateforme Converged Data de MapR intègre Hadoop et Spark avec des fonctionnalités de base de données temps réel to supporter les nouvelles générations d’applications big data comme SAP HANA. Des serveurs MapR Hadoop hébergeront SPArk et SAP HANA Vora par exemple.

Mots-clefs :, , ,

Cisco et Apprenda veulent accélérer l’usage du PaaS avec le Cloud Hybride

Poussées par la frénésie du numérique, les entreprises deviennent des fabricants d’applications. Les nouveaux usages et les nouveaux services dépendent de leur capacité à mettre rapidement sur le marché des applications. Dans le même temps les entreprises doivent continuer à faire évoluer les applications historiques qui forment la colonne vertébrale de l’entreprise. A l’occasion du « EMEAR Data Center Partner Connection 2016” qui se tenait à Rome la société Apprenda est revenue sur l’accord signé avec Cisco pour revendre sa solution PaaS adaptée au Cloud Hybride et aux exigences des grandes entreprises.

Apprenda Cisco top benefices

Pour être efficace les développeurs doivent se concentrer sur leur mission : écrire du code. Selon une étude IDG 60 % du temps des développeurs est utilisé à d’autre taches que la programmation Les développeurs doivent se délester de ces taches et ne pas avoir à se soucier de l’infrastructure matérielle sur laquelle tournera l’application. L’utilisation d’une Plateform as a Service (PaaS) va dans ce sens. Les développeurs peuvent développer plus rapidement et les équipes de production obtiennent de meilleur rendement de leurs infrastructures (Lire 5 Ways Private PaaS Boosts Developer Productivity). On peut ainsi standardiser les interactions entre utilisateurs, développeurs et l’équipe de production sans faire de compromis. Malheureusement les offres PaaS sont généralement dans le cloud public et délaissent  ainsi un large pan d’applications. Certaines applications sont jugées trop critiques pour bénéficier d’un cloud public pour des raisons de sécurité ou de conformité, d’autres ne sont pas supportées car développées avant le cloud.

Une seule et unique plateforme pour les applications existantes et nouvelles. Pour élargir l’intérêt du PaaS à toutes les applications existantes ou nouvelles, que ce soit en cloud privé ou public, la société Apprenda propose une solution de PaaS privé.  Cette notion de «PaaS privé», ou de PaaS entreprise, souligne le fait que la solution PaaS d’Apprenda est gérée par la direction informatique mais qu’elle peut être installée sur des infrastructures résidant dans un data center/cloud privé ou dans un cloud public (IaaS). Cette solution permet de transformer n’importe quelle infrastructure en une plateforme de cloud hybride régie par des règles applicatives

Simplifier la migration des applications entre cloud public et informatique interne. Ceci est possible grâce à l’abstraction des applications vis-à-vis des infrastructures. Le temps de mise en production est également réduit par l’utilisation de paternes d’architectures communes à la plupart des applications et des clouds. Ces paternes sont construites dans le PaaS en tant que middleware pour réduire le temps de codage. La console en libre-service du PaaS permet aux développeurs de charger du code compilé et d’un click de bouton publier ce code sur l’infrastructure selon des règles automatisées.

Etendre l’usage du PaaS avec l’accord Cisco- Apprenda. En début d’année  Cisco a signé un accord avec Apprenda pour revendre la solution seule ou intégrée avec Application Centric Infrastructure ACI ( la solution SDN de Cisco), Metapod (une solution cloud prête à l’emploi, basée sur OpenStack) et les serveurs UCS.

Apprenda Cisco architectures

Le document « Use Cases for Apprenda with Cisco Application Centric Infrastructure » revient en détail sur les différents cas d’usage permis par cet accord et tout particulièrement dans des contextes de :

  • Isolation. En permettant l’abstraction des politiques réseau, ACI donne la possibilité à la plateforme Apprenda d’incorporer ces règles automatiquement dans son propre modèle de règles. L’intégration dynamique des politiques réseaux permet de répondre aux besoins d’isolation entre applications et de se conformer ainsi aux impératifs de réglementation et de sécurité. L’utilisation des ressources est également améliorée grâce à une densité applicative plus forte.
  • Cloud hybride sécurisé. Tout le monde s’accorde pour dire qu’aujourd’hui le cloud est hybride. Concrètement cela signifie qu’en ce qui concerne les applications de nombreux cas de figure sont possibles. Infrastructure dans le cloud public ou non, environnement virtualisé ou bare metal etc… La solution Apprenda donne la possibilité de gérer les ressources d’infrastructure comme une unique fabrique logique. Des politiques de déploiement permettent également de mapper de manière précise et fine les applications ou les composants d’infrastructure selon des propriétés spécifiques et configurables.

Supporter la transformation numérique avec ACI. Dès l’annonce d’ACI, l’ouverture de la solution était clairement mise en avant. La rapidité avec laquelle le numérique se développe impose des collaborations techniques pour offrir des fondations solides et sures.

ACI Apprenda strategie V2

Tous les aspects doivent être couverts. L’accord avec Apprenda illustre le cas du PaaS privé et s’inscrit dans cette stratégie de complémentarité par le partenariat ou l’acquisition.

 

Les serveurs UCS Mini et la série M gagnent en performance avec les nouveaux processeurs Intel

Les prouesses technologiques réalisées dans le domaine des performances ont contribué à la révolution numérique que nous vivons. Les performances atteintes dans des dimensions réduites, à des coûts inimaginables il y a encore quelques années, ont étendu incroyablement le champ des possibles. Les progrès récents accomplis dans l’intelligence artificielle en témoignent. Cette incroyable puissance informatique n’est plus le seul fait des grands data centers. L’exemple des serveurs UCS Mini et des UCS-M alliés aux nouveaux processeurs Intel démontre qu’un petit centre peut se doter d’infrastructures performantes.

9 benchmarcks remportés par les serveurs UCS. UCS Mini est un serveur optimisé pour les petits environments informatiques tels que des petits centres distants, des magasins, ou bien encore des centres informatiques qui souhaitent isoler physiquement de serveurs. Cette solution est particulièrement adaptée aux clients qui ont besoin de quelques serveurs mais qui veulent également bénéficier des possibilités d’administration offertes par le logiciel UCS manager. Le serveur UCS Mini supporte les lames B200 M4 et les racks C220 M4 et C240 M4. Récemment Intel a annoncé la famille de processeurs Xeon E5-2600 v4. Le jour même Cisco remportait 9 records mondiaux de benchmark avec le serveur UCS.

Intel V4

Un effet indéniable sur les performances comme on peut le remarquer sur le graphe. Pour plus de détails je vous renvoie sur le « performance brief ».  Les serveurs UCS Mini ont été mis à jour pour supporter cette nouvelle famille de processeurs et bénéficient ainsi de plus grandes performances grâce aux améliorations d’architectures qui ont augmenté le nombre de cœurs et de threads par processeur.

L’infrastructure à la carte. Les serveurs modulaires M2814 M-Series ont également été mis à jour. Ces serveurs UCS Mfont partie de la ligne de produits composable infrastructure. Cette M-Series désagrège les composants CPU et mémoire du reste des composants des serveurs. Cela permet de tirer avantage des améliorations des processeurs et de mémoire comme ceux de la série Intel Xeon E5-2600 v4 tout en préservant l’investissement sur les autres composants. Ce principe de modularité apporté dans la série M permet d’optimiser les performances applicatives en composant (d’où son nom de composable architecture) et en faisant évoluer les sous-systèmes pour atteindre le meilleur ratio de traitement, d’entrées sorties et de stockage par incrément. Le design autorise de faibles incréments, les applications peuvent ainsi avoir le nombre de nœuds de traitement necessaires pour atteindre les performances et la disponibilité souhaitées.

Après 7 ans sur le marché la gamme des serveurs, la famille UCS montre sa grande polyvalence et le souci d’apporter le même niveau d’innovation et de performance aux grands centre comme aux petits.

Lire également: « Software Defined Infrastructure : Composer son infrastructure dynamiquement par logiciel « 

Recentrer l’entreprise sur les données avec SAP HANA et SAP S/4HANA

A l’initiative de Dimension Data et itelligence,  le cabinet IDC a réalisé un livre blanc sur SAP HANA et la business suite SAP S/4HANA. Cette analyse permet de comprendre les évolutions de SAP HANA depuis son annonce en 2011. J’en reprends l’essentiel dans ce billet et vous invite à le télécharger.

DiData

Les leaders seront ceux qui sauront traiter le plus de données en temps réel. Le succès des GAFA et de certaines startups nous a fait prendre conscience de l’importance de la donnée. Tout le monde est à peu près convaincu aujourd’hui que la donnée est devenue le moteur ou tout du moins le pétrole de la nouvelle économie. La maitrise des données revêt un enjeu critique pour les entreprises et les oblige à résoudre l’équation volume, performance et variété des données. C’est dans cette perspective que SAP HANA avait annoncé en 2011 la plateforme logicielle SAP HANA pour rendre possible l’analyse en temps réel d’importants volumes de données structurées et non structurées. Depuis de nombreuses évolutions ont eu lieu portant notamment sur les modèles de déploiement et sur les applications supportées que le livre blanc d’IDC détaille.

 

Le déploiement de SAP HANA : A l’origine le déploiement n’était possible que sous la forme d’une appliance batie sur du matériel de différents constructeurs (dont Cisco) qui avait été validés par SAP. Le logiciel était préinstallé et l’appliance était dédiée uniquement à SAP HANA.  Depuis deux nouveaux modèles de déploiement sont venus s’ajouter à l’appliance. Il est désormais possible d’utiliser certains composants matériels qui seront partagés avec d’autres applications, c’est le modèle HANA Tailored Data Center Integration (TDI). Dans ce cas le logiciel est installé par un prestataire de services comme Dimension Data et itelligence.  Dernier cas possible on peut exploiter des équipements dédiés ou mutualisés dans le cloud avec HANA as a Service.

La nouvelle génération de Business Suite : SAP S/4HANA.  Les applications de la Business Suite sont les applications ERP de SAP, le CRM, les applications de Supply Chain ou de gestion de la relation fournisseur qui tournent sur les bases de données SAP. SAP Business Suite est disponible sur SAP HANA depuis 2013. Annoncée en février 2015 cette quatrième génération de SAP Business Suite a été conçue pour exploiter tout le potentiel de la base de données HANA. Le déploiement est simplifié, il est le même que l’on soit dans un contexte on premise ou dans le cloud. Simplification également pour les traitements : Transactionnels (OLTP) et analytiques tourneront dans un même environnement. SAP HANA adopte FIORI comme nouvel interface utilisateur et propose une solution générique SAP S/4HANA EM (Entreprise Management) ainsi qu’un ensemble de solutions métiers préconfigurées. Un modèle de données a également été intégré pour optimiser les performances des applications.

L’enjeu de la migration : transformer l’entreprise. SAP HANA est une base de donnée in Memory, migrer vers SAP S/4HANA impose donc une migration des bases de données existantes. Au-delà de ces aspects techniques et de l’existant du client il est nécessaire de se projeter dans les nouveaux usages. Si l’optimisation d’une situation existante peut être une première étape il devient aujourd’hui impératif de se projeter dans de nouveaux usages ou l’agilité de l’entreprise dépend grandement de sa capacité à traiter en temps réel une multitude de données.

Une soirée pour comprendre au-delà de la solution technique : Dimension Data et itelligence ont développéIDC SAP WP une proposition de valeur qui permet d’intervenir tant sur un modèle de développement du data centre que sur du consulting métier, afin de limiter les risques de migration vers SAP S4/HANA. Pour comprendre les enjeux, bâtir les business cases et accélérer le déploiement Dimension Data et Itelligence se sont associés à IDC pour une soirée d’échanges et d’informations qui se déroulera le mardi 13 avril à Paris. Pour s’inscrire cliquer ici.

Mots-clefs :,

Pfizer optimise l’intégration des données avec Cisco Data Virtualization

L’information est plus que jamais le nerf de la guerre. Elles doivent être de qualité et accessibles rapidement. L’élaboration des stratégies d’entreprises et leur bonne exécution en dépendent. L’exemple de Pfizer illustre parfaitement cet impératif appliqué à l’industrie pharmaceutique. Dans ce contexte le choix de la solution Cisco Data Virtualization s’est révélée efficace pour améliorer le processus de développement de médicament.

Cisco datvirtualization benefices

La recherche médicamenteuse fait appel à de multiples sources de données. La mise sur le marché d’un nouveau médicament prend une quinzaine d’année. Chaque année l’industrie pharmaceutique dépense des milliards d’euros dans la recherche et les tests. Il est donc crucial de pouvoir parier longtemps à l’avance avec le minimum de risques sur les médicaments les plus prometteurs. Dans la division informatiques de Pfizer des scientifiques et des responsables de gammes de médicaments doivent accéder et analyser des données provenant de sources diverses et variées. Elles peuvent provenir des bases de données scientifiques (diagrammes de structures moléculaires, résultats de tests de recherches antérieurs, détail sur les composants entrant en ligne de compte à différentes étapes du développement) mais également  d’informations business  qui portent sur le nombre de chercheurs impliqués dans un projet et le coût des ressources engagées.

La complexité de l’intégration des données. L’intégration des données provenant de multiples sources représente le plus gros goulet d’étranglement  durant le processus de découverte de médicaments. Pour réaliser cette intégration des données Pfizer utilisait différentes approches. De l’intégration maison entre l’application et les la source de données, de la réplication de fichier ou bien un processus ETL (Extract, Transform, Load) pour créer des datamarts et un entrepôt de données. Ces modes d’intégration de données ont eu pour conséquences d’augmenter le nombre de silos de données et de complexifier la tâche des équipes informatiques pour maintenir la qualité et la cohérence des données. Le processus ETL rajoutait un temps supplémentaires qui pouvait se compter en semaines et rendre parfois la donnée obsolète.

Unifier la vue de toutes les sources de données avec Cisco Data Virtualization. Pour simplifier cette intégration de données et raccourcir le temps d’accès aux informations, Pfizer s’est orienté sur la solution Cisco Datavirtualization (voir la courte video en français sur la data Virtualization).

Cisco datavirtualization vue unifiée

Grâce à une couche d’abstraction Pfizer a obtenu une vue unifiée de l’ensemble des sources de données tout en évitant d’avoir à dupliquer des données et à créer de nouveaux silos. Les temps d’accès ont été ainsi réduit et les infrastructures réduites :

  • Temps pour développer un projet réduit de 50%
  • Amélioration de la qualité des données de 5%
  • Réduction des coûts d’infrastrcuture 10%

Cisco accentue l’hyperconvergence avec HyperFlex

L’économie numérique a mis les applications à l’honneur. D’elles dépende la capacité des entreprises à innover et offrir de nouveaux services. Tous les efforts sont donc faits pour accélérer le développement et la mise en production des applications sous peine d’être rapidement devancé par la concurrence ou de nouveaux entrants. On s’attache à fluidifier toutes les étapes de production d’applications avec le mouvement DevOps et dans le même temps on simplifie la conception, la mise en place et l’évolution des infrastructures. Les architectures convergentes simplifient ces étapes. L’annonce du système hyperconvergent HyperFlex par Cisco s’inscrit dans ce souci d’agilité à apporter aux infrastructures.

Les data centers adoptent les systèmes intégrés. Gartner a observé cette évolution vers des systèmes de plus en plus intégrés qu’il a classés en 3 catégories :

  • Integrated stack system (ISS)  l’infrastructure matérielle est intégrée au logiciel applicatif fournissant ainsi une solution spécialisée pour une application.
  • Integrated infrastructure system (IIS) : les composants matériels (serveur, stockage et réseau) sont intégrés pour un usage généraliste (Vblock, Flexpod)
  • Hyperconverged integrated system (HCIS) : l’intégration réunit réseau, serveur et stockage. Le stockage réside dans chaque serveur et est mutualisé. Ces solutions sont centrées sur la virtualisation. Le logiciel qui gère l’ensemble se trouve soit nativement dans l’hyperviseur, soit dans une VM. Le logiciel assure des fonctions de gestion du stockage comme le recovery, la réplication, la déduplication et la compression.

L’intérêt se confirme pour les solutions hyperconvergentes. Sur un marché du stockage qui croit globalement faiblement en termes de revenu, les solutions intégrées s’attendent à une croissance de 24 % par an jusqu’en 2018. SI cette croissance est encore largement portée par les infrastructures convergentes  comme Vblock ou Flexpod , les systèmes hyperconvergées HCI font une  percée remarquée. Gartner estime qu’en 2018 plus d’un tiers des solutions intégrées seront des infrastructures hyperconvergentes. Une prévision qui pourrait être dépassée puisque beaucoup considèrent que 75 % du marché des systèmes intégrés pourraient être adressés par des infrastructures hyperconvergées. Cet intérêt pour l’hyperconvergence est dû à la possibilité de gérer de manière logicielle le stockage et les serveurs comme un pool de ressources virtuelles présenté aux applications.  Les premiers utilisateurs ont vite perçu les avantages :

  • Optimisation de l’utilisation des ressources
  • Evolution (scalabilité) particulièrement modulaire
  • Utilisation de stockage interne mutualisé qui évite la gestion complexe de SAN externe. IDC tendance stockage

Dans son analyse du marché du stockage du 11 mars , IDC constate le déclin du stockage externe au profit du stockage interne dans les serveurs et des solutions software Defined .

L’hyperconvergence va tirer profit de la forte intégration du réseau dans les serveurs UCS. En lançant les serveurs UCS en 2009 Cisco avait permis de gérer l’infrastructure matérielle comme du code grâce au logiciel UCS manager, en d’autres termes faire de « l’infrastructure as a code ». Les définitions des identités et des configurations étaient déjà réalisées par le logiciel. Une approche de type « Software Defined » combinée à une intégration forte avec le réseau puisque l’équipement « Fabric Interconnect » contient le logiciel de gestion des UCS (UCS manager).

Hyperflex architecture

Les premières générations de plateformes d’hyperconvergence ont fait revenir le stockage au sein des serveurs en utilisant des logiciels de Software Defined Storage. Ces logiciels mutualisent le stockage de différents serveurs et apportent des fonctions avancées de gestion de stockage qui ont progressivement limité l’intérêt de SAN externe. En combinant les serveurs UCS avec le logiciel Springpath Cisco crée une nouvelle génération de plateforme d’hyperconvergence qui bénéficie d’une forte intégration réseau.

Cisco accentue l’hyperconvergence. C’est sans doute une des grandes différences avec des systèmes d’hyperconvergence existants. La totale intégration de la fabrique réseau est inhérente à la solution HyperFlex de par la conception des serveurs UCS autour de la notion de fabrique unifiée. Le système Cisco HyperFlex  doit être considéré comme une software-defined infrastructure qui combine:

  • Software-defined computing avec les serveurs Cisco UCS
  • software-defined storage avec le logiciel Cisco HyperFlex HX Data Platform
  • software-defined networking (SDN) avec Cisco unified fabric

Ce qu’il faut retenir de Cisco HyperFlex HX Data Platform. La solution Cisco HX Data Platform dispose d’un contrôleur  qui s’exécute dans une machine virtuelle sur chaque nœud du cluster. C’est ce contrôleur qui va gérer le système de fichier distribué et prendre en compte les entrées sorties (I/O) des machines virtuelles hébergées. La solution peut utiliser trois types de nœud en fonction de l’usage ciblé.

Hyperflex solutions

Hyperfelex est riche en fonctionnalités et je vous invite à lire le white paper « next generation data platform for hyperconvergence  » pour vous en rendre compte.  En attendant voici quelques points à retenir:

  • Gestion de données de classe entreprise. On y trouve tout ce qui est nécessaire à un environnement de stockage distribué (réplication, déduplication, compression, thin provisonning , cloning, snapshot etc..)
  • Evolution simple et modulaire. Le cache et la capacité peuvent au sein d’un nœud ou bien par rajout d’autres nœuds. Les nouveau nœuds d’un cluster sont automatiquement reconnus et ajoutés en quelques clics de souris
  • Optimisation continue des données avec déduplication et compression des données inline
  • Placement dynamique des données dans les différents supports de stockage pour optiiser les performances et la résilience. Le placement de la donnée est réajusté lors des évolutions d’un cluster.
  • Support de données « cloud natives » par l’intermédiaire d’APIs

Convergence ou Hyperconvergence ? Deux approches complémentaires qui coexisteront encore  longtemps et qui militent ensemble pour réduire le temps consacré à la conception et à la gestion des infrastructures. La priorité est à la réactivité et à la productivité. L’époque qui enfermait le stockage, les serveurs et le réseau dans des silos séparés est en train de s’éteindre. L’efficacité est à ce prix et les organisations vont devoir en tenir compte.

Lire également :

Cisco HyperFlex Availability powered by Veeam: What you need to know

 

Mots-clefs :,