Cisco France Blog – Data Center

Cisco et T-Systems publient un livre blanc sur SAP HANA

livre_blancLe groupe  T-Systems, filiale de Deutsche Telekom, est la troisième entreprise de services numériques en Europe et un partenaire historique de SAP. T-Systems a choisi les technologies de Cisco (réseaux Nexus  et serveurs UCS)  pour bâtir son offre Cloud, basée sur Dynamic Cloud Platform. Cette plate-forme héberge une gamme complète de services cloud de type IaaS, Paas ou Saas. Parmi ces services, on trouve une offre Dynamic SAP & HANA qui a déjà convaincu un certain nombre de clients internationaux et français.

Dans ce contexte, j’ai eu le plaisir de travailler avec Samuel Grevillot, consultant SAP HANA chez T-Systems et Le Monde Informatique, sur la rédaction d’un livre blanc consacré à la question « Votre infrastructure est-elle prête pour SAP HANA ? » Dans ce livre blanc,  nous aidons les décideurs informatiques à se poser les bonnes questions avant une migration vers SAP HANA. Nous y développons des sujets tels que :

  • Quels sont les impacts de SAP HANA sur les infrastructures existantes ?
  • Quels sont les critères à prendre en compte dans le choix des serveurs pour HANA ?
  • En quoi l’architecture et les serveurs Cisco UCS répondent-ils aux besoins spécifiques de SAP HANA ?

Ce livre blanc est dès à présent disponible ici sur CIO Practice, le site de T-Systems qui accompagne les directions informatiques dans leur transformation numérique.

Mots-clefs :, , , ,

Une appliance CISCO certifiée SAP HANA avec MapR Converged Data Platform

Chaque entreprise essaye de trouver ou de garder sa place dans une économie devenue numérique. Dans ce contexte il est impératif, pour rester compétitif, de savoir accéder et d’analyser rapidement des données qu’elles soient internes ou externes à l’entreprise. Dans de nombreux cas ces données dites « hot » sont déjà dans des environnements SAP. De nouvelles solutions Cisco pour SAP profitent des débits 40 G offerts par une nouvelle génération de Fabric Interconnect pour améliorer l’efficacité des environnements SAP

HANA stratégique pour SAP. SAP a clairement annoncé la couleur, HANA et S/4HANA sont les fondations sur lesquelles SAP va construire ses futures solutions.  Bien que les autres bases de données (Oracle, IBM DB2 et MicrIDCosoft SQL server) soient encore supportées jusqu’en 2025, les investissements en R&D de SAP seront consacrés principalement aux innovations autour de sa propre base de données SAP HANA. Les infrastructures nécessaires pour supporter efficacement les environnements SAP HANA utilisent soient des appliances SAP HANA (tous les composants matériels sont certifiés par SAP et le logiciel préchargé) ou le Tailored Datacenter Integration (TDI) qui permet d’intégrer des composants matériels déjà installés chez le client (le logiciel est installé par un prestataire de services).

Des appliances SAP HANA qui se différentient par leur conception. Tous les fournisseurs d’appliances SAP HANA suivent à la lettre les préconisations de SAP mais ce n’est pas pour autant qu’elles sont interchangeables. Les plateformes se distinguent les unes des autres que ce soit au niveau du design d’architecture, du choix des composants ou bien encore de la simplicité  de l’administration. Une étude réalisée par le cabinet IDC, à la demande de Cisco,  analyse la valeur ajoutée de l’infrastructure intégrée UCS pour SAP et HANA.

IDC UCS horizontal

Hadoop et HANA les meilleurs amis du monde. L’année dernière Cisco avait annoncé un partenariat et son engagement avec SAP HANA Vora qui est un Framework basé sur Spark Apache pour de l’analyse interactive en mémoire sur Hadoop. SAP Vora sur les serveurs UCS et ACI offrent une administration unifiée sur l’ensemble SAP HANA et les distributions Hadoop. En début d’année 2016 Cisco a annoncé la disponibilité d’un Cisco Validated Design (CVD) , Cisco UCS Integrated Infrastructure for Big Data and Cisco ACI with SAP HANA Vora for In-memory Analytics , qui fournit étape par étape les recommandations d’architectures qui ont été testées et documentées pour faciliter et accélérer des déploiements d’architectures fiables.

Des performances améliorées avec la nouvelle génération de Fabric Interconnect FI.  La solution UCS Integrated Infrastructure for SAP HANA a été conçue pour optimiser les performances des environnements SAP HANA en tirant partie de la troisième génération de Fabric Interconnect (UCS 6332) certifiée par SAP et de son débit 40 G pour éliminer les goulets d’étranglement réseau. Ces améliorations de débits ont des impacts évidents sur les applications SAP. On peut charger plus rapidement les données dans les nœuds HANA que ce soit au démarrage ou pour des raisons de restauration. Les communications entre nœuds sont également considérablement accélérées et améliorent les temps de réponses lors de requêtes. Le fabric interconnect 40 G améliore les environnements TDI et permet de mieux intégrer SAP HANA avec des applications analytiques et de chargement de données. Cela complémente les solutions  de TDI shared storage réalisées avec des partenaires comme EMC et NetApp.

 Une appliance certifiée SAP HANA avec MapR Converged Data Platform. Pour des applications SAP HANA telles que Business Warehouse, Cisco a créé une nouvelle appliance certifiée SAP HANA basée sur l’infrastructure intégrée UCS  et qui incorpore la plateforme «MapR Converged Data Platform ».

MAPR converged data platform

Cette appliance inclut le système de fichier de MapR qui supporte les préconisations du stockage persistent de SAP HANA. La plateforme Converged Data de MapR intègre Hadoop et Spark avec des fonctionnalités de base de données temps réel to supporter les nouvelles générations d’applications big data comme SAP HANA. Des serveurs MapR Hadoop hébergeront SPArk et SAP HANA Vora par exemple.

Mots-clefs :, , ,

Cisco et Apprenda veulent accélérer l’usage du PaaS avec le Cloud Hybride

Poussées par la frénésie du numérique, les entreprises deviennent des fabricants d’applications. Les nouveaux usages et les nouveaux services dépendent de leur capacité à mettre rapidement sur le marché des applications. Dans le même temps les entreprises doivent continuer à faire évoluer les applications historiques qui forment la colonne vertébrale de l’entreprise. A l’occasion du « EMEAR Data Center Partner Connection 2016” qui se tenait à Rome la société Apprenda est revenue sur l’accord signé avec Cisco pour revendre sa solution PaaS adaptée au Cloud Hybride et aux exigences des grandes entreprises.

Apprenda Cisco top benefices

Pour être efficace les développeurs doivent se concentrer sur leur mission : écrire du code. Selon une étude IDG 60 % du temps des développeurs est utilisé à d’autre taches que la programmation Les développeurs doivent se délester de ces taches et ne pas avoir à se soucier de l’infrastructure matérielle sur laquelle tournera l’application. L’utilisation d’une Plateform as a Service (PaaS) va dans ce sens. Les développeurs peuvent développer plus rapidement et les équipes de production obtiennent de meilleur rendement de leurs infrastructures (Lire 5 Ways Private PaaS Boosts Developer Productivity). On peut ainsi standardiser les interactions entre utilisateurs, développeurs et l’équipe de production sans faire de compromis. Malheureusement les offres PaaS sont généralement dans le cloud public et délaissent  ainsi un large pan d’applications. Certaines applications sont jugées trop critiques pour bénéficier d’un cloud public pour des raisons de sécurité ou de conformité, d’autres ne sont pas supportées car développées avant le cloud.

Une seule et unique plateforme pour les applications existantes et nouvelles. Pour élargir l’intérêt du PaaS à toutes les applications existantes ou nouvelles, que ce soit en cloud privé ou public, la société Apprenda propose une solution de PaaS privé.  Cette notion de «PaaS privé», ou de PaaS entreprise, souligne le fait que la solution PaaS d’Apprenda est gérée par la direction informatique mais qu’elle peut être installée sur des infrastructures résidant dans un data center/cloud privé ou dans un cloud public (IaaS). Cette solution permet de transformer n’importe quelle infrastructure en une plateforme de cloud hybride régie par des règles applicatives

Simplifier la migration des applications entre cloud public et informatique interne. Ceci est possible grâce à l’abstraction des applications vis-à-vis des infrastructures. Le temps de mise en production est également réduit par l’utilisation de paternes d’architectures communes à la plupart des applications et des clouds. Ces paternes sont construites dans le PaaS en tant que middleware pour réduire le temps de codage. La console en libre-service du PaaS permet aux développeurs de charger du code compilé et d’un click de bouton publier ce code sur l’infrastructure selon des règles automatisées.

Etendre l’usage du PaaS avec l’accord Cisco- Apprenda. En début d’année  Cisco a signé un accord avec Apprenda pour revendre la solution seule ou intégrée avec Application Centric Infrastructure ACI ( la solution SDN de Cisco), Metapod (une solution cloud prête à l’emploi, basée sur OpenStack) et les serveurs UCS.

Apprenda Cisco architectures

Le document « Use Cases for Apprenda with Cisco Application Centric Infrastructure » revient en détail sur les différents cas d’usage permis par cet accord et tout particulièrement dans des contextes de :

  • Isolation. En permettant l’abstraction des politiques réseau, ACI donne la possibilité à la plateforme Apprenda d’incorporer ces règles automatiquement dans son propre modèle de règles. L’intégration dynamique des politiques réseaux permet de répondre aux besoins d’isolation entre applications et de se conformer ainsi aux impératifs de réglementation et de sécurité. L’utilisation des ressources est également améliorée grâce à une densité applicative plus forte.
  • Cloud hybride sécurisé. Tout le monde s’accorde pour dire qu’aujourd’hui le cloud est hybride. Concrètement cela signifie qu’en ce qui concerne les applications de nombreux cas de figure sont possibles. Infrastructure dans le cloud public ou non, environnement virtualisé ou bare metal etc… La solution Apprenda donne la possibilité de gérer les ressources d’infrastructure comme une unique fabrique logique. Des politiques de déploiement permettent également de mapper de manière précise et fine les applications ou les composants d’infrastructure selon des propriétés spécifiques et configurables.

Supporter la transformation numérique avec ACI. Dès l’annonce d’ACI, l’ouverture de la solution était clairement mise en avant. La rapidité avec laquelle le numérique se développe impose des collaborations techniques pour offrir des fondations solides et sures.

ACI Apprenda strategie V2

Tous les aspects doivent être couverts. L’accord avec Apprenda illustre le cas du PaaS privé et s’inscrit dans cette stratégie de complémentarité par le partenariat ou l’acquisition.

 

Les serveurs UCS Mini et la série M gagnent en performance avec les nouveaux processeurs Intel

Les prouesses technologiques réalisées dans le domaine des performances ont contribué à la révolution numérique que nous vivons. Les performances atteintes dans des dimensions réduites, à des coûts inimaginables il y a encore quelques années, ont étendu incroyablement le champ des possibles. Les progrès récents accomplis dans l’intelligence artificielle en témoignent. Cette incroyable puissance informatique n’est plus le seul fait des grands data centers. L’exemple des serveurs UCS Mini et des UCS-M alliés aux nouveaux processeurs Intel démontre qu’un petit centre peut se doter d’infrastructures performantes.

9 benchmarcks remportés par les serveurs UCS. UCS Mini est un serveur optimisé pour les petits environments informatiques tels que des petits centres distants, des magasins, ou bien encore des centres informatiques qui souhaitent isoler physiquement de serveurs. Cette solution est particulièrement adaptée aux clients qui ont besoin de quelques serveurs mais qui veulent également bénéficier des possibilités d’administration offertes par le logiciel UCS manager. Le serveur UCS Mini supporte les lames B200 M4 et les racks C220 M4 et C240 M4. Récemment Intel a annoncé la famille de processeurs Xeon E5-2600 v4. Le jour même Cisco remportait 9 records mondiaux de benchmark avec le serveur UCS.

Intel V4

Un effet indéniable sur les performances comme on peut le remarquer sur le graphe. Pour plus de détails je vous renvoie sur le « performance brief ».  Les serveurs UCS Mini ont été mis à jour pour supporter cette nouvelle famille de processeurs et bénéficient ainsi de plus grandes performances grâce aux améliorations d’architectures qui ont augmenté le nombre de cœurs et de threads par processeur.

L’infrastructure à la carte. Les serveurs modulaires M2814 M-Series ont également été mis à jour. Ces serveurs UCS Mfont partie de la ligne de produits composable infrastructure. Cette M-Series désagrège les composants CPU et mémoire du reste des composants des serveurs. Cela permet de tirer avantage des améliorations des processeurs et de mémoire comme ceux de la série Intel Xeon E5-2600 v4 tout en préservant l’investissement sur les autres composants. Ce principe de modularité apporté dans la série M permet d’optimiser les performances applicatives en composant (d’où son nom de composable architecture) et en faisant évoluer les sous-systèmes pour atteindre le meilleur ratio de traitement, d’entrées sorties et de stockage par incrément. Le design autorise de faibles incréments, les applications peuvent ainsi avoir le nombre de nœuds de traitement necessaires pour atteindre les performances et la disponibilité souhaitées.

Après 7 ans sur le marché la gamme des serveurs, la famille UCS montre sa grande polyvalence et le souci d’apporter le même niveau d’innovation et de performance aux grands centre comme aux petits.

Lire également: « Software Defined Infrastructure : Composer son infrastructure dynamiquement par logiciel « 

Recentrer l’entreprise sur les données avec SAP HANA et SAP S/4HANA

A l’initiative de Dimension Data et itelligence,  le cabinet IDC a réalisé un livre blanc sur SAP HANA et la business suite SAP S/4HANA. Cette analyse permet de comprendre les évolutions de SAP HANA depuis son annonce en 2011. J’en reprends l’essentiel dans ce billet et vous invite à le télécharger.

DiData

Les leaders seront ceux qui sauront traiter le plus de données en temps réel. Le succès des GAFA et de certaines startups nous a fait prendre conscience de l’importance de la donnée. Tout le monde est à peu près convaincu aujourd’hui que la donnée est devenue le moteur ou tout du moins le pétrole de la nouvelle économie. La maitrise des données revêt un enjeu critique pour les entreprises et les oblige à résoudre l’équation volume, performance et variété des données. C’est dans cette perspective que SAP HANA avait annoncé en 2011 la plateforme logicielle SAP HANA pour rendre possible l’analyse en temps réel d’importants volumes de données structurées et non structurées. Depuis de nombreuses évolutions ont eu lieu portant notamment sur les modèles de déploiement et sur les applications supportées que le livre blanc d’IDC détaille.

 

Le déploiement de SAP HANA : A l’origine le déploiement n’était possible que sous la forme d’une appliance batie sur du matériel de différents constructeurs (dont Cisco) qui avait été validés par SAP. Le logiciel était préinstallé et l’appliance était dédiée uniquement à SAP HANA.  Depuis deux nouveaux modèles de déploiement sont venus s’ajouter à l’appliance. Il est désormais possible d’utiliser certains composants matériels qui seront partagés avec d’autres applications, c’est le modèle HANA Tailored Data Center Integration (TDI). Dans ce cas le logiciel est installé par un prestataire de services comme Dimension Data et itelligence.  Dernier cas possible on peut exploiter des équipements dédiés ou mutualisés dans le cloud avec HANA as a Service.

La nouvelle génération de Business Suite : SAP S/4HANA.  Les applications de la Business Suite sont les applications ERP de SAP, le CRM, les applications de Supply Chain ou de gestion de la relation fournisseur qui tournent sur les bases de données SAP. SAP Business Suite est disponible sur SAP HANA depuis 2013. Annoncée en février 2015 cette quatrième génération de SAP Business Suite a été conçue pour exploiter tout le potentiel de la base de données HANA. Le déploiement est simplifié, il est le même que l’on soit dans un contexte on premise ou dans le cloud. Simplification également pour les traitements : Transactionnels (OLTP) et analytiques tourneront dans un même environnement. SAP HANA adopte FIORI comme nouvel interface utilisateur et propose une solution générique SAP S/4HANA EM (Entreprise Management) ainsi qu’un ensemble de solutions métiers préconfigurées. Un modèle de données a également été intégré pour optimiser les performances des applications.

L’enjeu de la migration : transformer l’entreprise. SAP HANA est une base de donnée in Memory, migrer vers SAP S/4HANA impose donc une migration des bases de données existantes. Au-delà de ces aspects techniques et de l’existant du client il est nécessaire de se projeter dans les nouveaux usages. Si l’optimisation d’une situation existante peut être une première étape il devient aujourd’hui impératif de se projeter dans de nouveaux usages ou l’agilité de l’entreprise dépend grandement de sa capacité à traiter en temps réel une multitude de données.

Une soirée pour comprendre au-delà de la solution technique : Dimension Data et itelligence ont développéIDC SAP WP une proposition de valeur qui permet d’intervenir tant sur un modèle de développement du data centre que sur du consulting métier, afin de limiter les risques de migration vers SAP S4/HANA. Pour comprendre les enjeux, bâtir les business cases et accélérer le déploiement Dimension Data et Itelligence se sont associés à IDC pour une soirée d’échanges et d’informations qui se déroulera le mardi 13 avril à Paris. Pour s’inscrire cliquer ici.

Mots-clefs :,

Pfizer optimise l’intégration des données avec Cisco Data Virtualization

L’information est plus que jamais le nerf de la guerre. Elles doivent être de qualité et accessibles rapidement. L’élaboration des stratégies d’entreprises et leur bonne exécution en dépendent. L’exemple de Pfizer illustre parfaitement cet impératif appliqué à l’industrie pharmaceutique. Dans ce contexte le choix de la solution Cisco Data Virtualization s’est révélée efficace pour améliorer le processus de développement de médicament.

Cisco datvirtualization benefices

La recherche médicamenteuse fait appel à de multiples sources de données. La mise sur le marché d’un nouveau médicament prend une quinzaine d’année. Chaque année l’industrie pharmaceutique dépense des milliards d’euros dans la recherche et les tests. Il est donc crucial de pouvoir parier longtemps à l’avance avec le minimum de risques sur les médicaments les plus prometteurs. Dans la division informatiques de Pfizer des scientifiques et des responsables de gammes de médicaments doivent accéder et analyser des données provenant de sources diverses et variées. Elles peuvent provenir des bases de données scientifiques (diagrammes de structures moléculaires, résultats de tests de recherches antérieurs, détail sur les composants entrant en ligne de compte à différentes étapes du développement) mais également  d’informations business  qui portent sur le nombre de chercheurs impliqués dans un projet et le coût des ressources engagées.

La complexité de l’intégration des données. L’intégration des données provenant de multiples sources représente le plus gros goulet d’étranglement  durant le processus de découverte de médicaments. Pour réaliser cette intégration des données Pfizer utilisait différentes approches. De l’intégration maison entre l’application et les la source de données, de la réplication de fichier ou bien un processus ETL (Extract, Transform, Load) pour créer des datamarts et un entrepôt de données. Ces modes d’intégration de données ont eu pour conséquences d’augmenter le nombre de silos de données et de complexifier la tâche des équipes informatiques pour maintenir la qualité et la cohérence des données. Le processus ETL rajoutait un temps supplémentaires qui pouvait se compter en semaines et rendre parfois la donnée obsolète.

Unifier la vue de toutes les sources de données avec Cisco Data Virtualization. Pour simplifier cette intégration de données et raccourcir le temps d’accès aux informations, Pfizer s’est orienté sur la solution Cisco Datavirtualization (voir la courte video en français sur la data Virtualization).

Cisco datavirtualization vue unifiée

Grâce à une couche d’abstraction Pfizer a obtenu une vue unifiée de l’ensemble des sources de données tout en évitant d’avoir à dupliquer des données et à créer de nouveaux silos. Les temps d’accès ont été ainsi réduit et les infrastructures réduites :

  • Temps pour développer un projet réduit de 50%
  • Amélioration de la qualité des données de 5%
  • Réduction des coûts d’infrastrcuture 10%

Cisco accentue l’hyperconvergence avec HyperFlex

L’économie numérique a mis les applications à l’honneur. D’elles dépende la capacité des entreprises à innover et offrir de nouveaux services. Tous les efforts sont donc faits pour accélérer le développement et la mise en production des applications sous peine d’être rapidement devancé par la concurrence ou de nouveaux entrants. On s’attache à fluidifier toutes les étapes de production d’applications avec le mouvement DevOps et dans le même temps on simplifie la conception, la mise en place et l’évolution des infrastructures. Les architectures convergentes simplifient ces étapes. L’annonce du système hyperconvergent HyperFlex par Cisco s’inscrit dans ce souci d’agilité à apporter aux infrastructures.

Les data centers adoptent les systèmes intégrés. Gartner a observé cette évolution vers des systèmes de plus en plus intégrés qu’il a classés en 3 catégories :

  • Integrated stack system (ISS)  l’infrastructure matérielle est intégrée au logiciel applicatif fournissant ainsi une solution spécialisée pour une application.
  • Integrated infrastructure system (IIS) : les composants matériels (serveur, stockage et réseau) sont intégrés pour un usage généraliste (Vblock, Flexpod)
  • Hyperconverged integrated system (HCIS) : l’intégration réunit réseau, serveur et stockage. Le stockage réside dans chaque serveur et est mutualisé. Ces solutions sont centrées sur la virtualisation. Le logiciel qui gère l’ensemble se trouve soit nativement dans l’hyperviseur, soit dans une VM. Le logiciel assure des fonctions de gestion du stockage comme le recovery, la réplication, la déduplication et la compression.

L’intérêt se confirme pour les solutions hyperconvergentes. Sur un marché du stockage qui croit globalement faiblement en termes de revenu, les solutions intégrées s’attendent à une croissance de 24 % par an jusqu’en 2018. SI cette croissance est encore largement portée par les infrastructures convergentes  comme Vblock ou Flexpod , les systèmes hyperconvergées HCI font une  percée remarquée. Gartner estime qu’en 2018 plus d’un tiers des solutions intégrées seront des infrastructures hyperconvergentes. Une prévision qui pourrait être dépassée puisque beaucoup considèrent que 75 % du marché des systèmes intégrés pourraient être adressés par des infrastructures hyperconvergées. Cet intérêt pour l’hyperconvergence est dû à la possibilité de gérer de manière logicielle le stockage et les serveurs comme un pool de ressources virtuelles présenté aux applications.  Les premiers utilisateurs ont vite perçu les avantages :

  • Optimisation de l’utilisation des ressources
  • Evolution (scalabilité) particulièrement modulaire
  • Utilisation de stockage interne mutualisé qui évite la gestion complexe de SAN externe. IDC tendance stockage

Dans son analyse du marché du stockage du 11 mars , IDC constate le déclin du stockage externe au profit du stockage interne dans les serveurs et des solutions software Defined .

L’hyperconvergence va tirer profit de la forte intégration du réseau dans les serveurs UCS. En lançant les serveurs UCS en 2009 Cisco avait permis de gérer l’infrastructure matérielle comme du code grâce au logiciel UCS manager, en d’autres termes faire de « l’infrastructure as a code ». Les définitions des identités et des configurations étaient déjà réalisées par le logiciel. Une approche de type « Software Defined » combinée à une intégration forte avec le réseau puisque l’équipement « Fabric Interconnect » contient le logiciel de gestion des UCS (UCS manager).

Hyperflex architecture

Les premières générations de plateformes d’hyperconvergence ont fait revenir le stockage au sein des serveurs en utilisant des logiciels de Software Defined Storage. Ces logiciels mutualisent le stockage de différents serveurs et apportent des fonctions avancées de gestion de stockage qui ont progressivement limité l’intérêt de SAN externe. En combinant les serveurs UCS avec le logiciel Springpath Cisco crée une nouvelle génération de plateforme d’hyperconvergence qui bénéficie d’une forte intégration réseau.

Cisco accentue l’hyperconvergence. C’est sans doute une des grandes différences avec des systèmes d’hyperconvergence existants. La totale intégration de la fabrique réseau est inhérente à la solution HyperFlex de par la conception des serveurs UCS autour de la notion de fabrique unifiée. Le système Cisco HyperFlex  doit être considéré comme une software-defined infrastructure qui combine:

  • Software-defined computing avec les serveurs Cisco UCS
  • software-defined storage avec le logiciel Cisco HyperFlex HX Data Platform
  • software-defined networking (SDN) avec Cisco unified fabric

Ce qu’il faut retenir de Cisco HyperFlex HX Data Platform. La solution Cisco HX Data Platform dispose d’un contrôleur  qui s’exécute dans une machine virtuelle sur chaque nœud du cluster. C’est ce contrôleur qui va gérer le système de fichier distribué et prendre en compte les entrées sorties (I/O) des machines virtuelles hébergées. La solution peut utiliser trois types de nœud en fonction de l’usage ciblé.

Hyperflex solutions

Hyperfelex est riche en fonctionnalités et je vous invite à lire le white paper « next generation data platform for hyperconvergence  » pour vous en rendre compte.  En attendant voici quelques points à retenir:

  • Gestion de données de classe entreprise. On y trouve tout ce qui est nécessaire à un environnement de stockage distribué (réplication, déduplication, compression, thin provisonning , cloning, snapshot etc..)
  • Evolution simple et modulaire. Le cache et la capacité peuvent au sein d’un nœud ou bien par rajout d’autres nœuds. Les nouveau nœuds d’un cluster sont automatiquement reconnus et ajoutés en quelques clics de souris
  • Optimisation continue des données avec déduplication et compression des données inline
  • Placement dynamique des données dans les différents supports de stockage pour optiiser les performances et la résilience. Le placement de la donnée est réajusté lors des évolutions d’un cluster.
  • Support de données « cloud natives » par l’intermédiaire d’APIs

Convergence ou Hyperconvergence ? Deux approches complémentaires qui coexisteront encore  longtemps et qui militent ensemble pour réduire le temps consacré à la conception et à la gestion des infrastructures. La priorité est à la réactivité et à la productivité. L’époque qui enfermait le stockage, les serveurs et le réseau dans des silos séparés est en train de s’éteindre. L’efficacité est à ce prix et les organisations vont devoir en tenir compte.

Lire également :

Cisco HyperFlex Availability powered by Veeam: What you need to know

 

Mots-clefs :,

Cisco étoffe son offre de logiciels pour le Cloud avec l’acquisition de CliQr

Cisco continue d’enrichir son offre de logiciels pour le Cloud avec l’annonce le 3 mars dernier de son intention d’acquérir la société CliQr. L’opération devrait être finalisée avant mai 2016 pour un montant de 260 millions de dollars

 

CliQr propose CloudCenter, une plateforme d’orchestration d’applications dans cloud.

CLiQr integration

CloudCenter modélise, déploie et gère les applications dans des environnements bare metal , virtualisés ou en containers. L’objectif de Cisco avec cette acquisition est de simplifier et d’accélérer le déploiement de cloud par ses clients, que ces clouds soient privés, publics ou hybrides. La plateforme CloudCenter de CliQr s’intègre déjà avec de nombreux commutateurs datacenter  de Cisco (Application Centric Infrastructure ACI inclue) et avec les serveurs UCS

 

La force de CloudCenter réside dans sa technologie « Application Defined ».

CliQr composants

Cette solution combine un profile d’application agnostique avec un orchestrateur spécifique pour le cloud. Le profile d’application définit les besoins en termes de déploiement et d’administration pour la pile applicative. L’orchestrateur déploie à la fois l’infrastructure et l’application en utilisant les meilleures pratiques pour chaque environnement.

Gérer le cycle de vie des applications. Grace à cette plateforme qui se veut intuitive, les clients peuvent gérer la totalité du cycle de vie de leurs applications dans des environnements hybrides simples ou complexes. La plateforme CloudCenter de CliQr se prête parfaitement à des organisations informatiques modernes qu’elles soient en train de migrer leurs premières applications dans le cloud, de déployer des services informatique en libre service ou désireuses d’obtenir une meilleure visibilité et un meilleur control sur un portefeuille important d’utilisateurs, d’applications et de clouds.

La solution CloudCenter de CliQr présente de nombreux intérêts :

  • Un profile unique pour un déploiement multiple.  Le client peut créer un seul profile applicatif qui est simple à sécuriser et à déployer dans le datacenter et dans le cloud privé ou public
  • Garantir des politiques cohérentes. La solution applique automatiquement des contrôles d’accès et des politiques de sécurité par application. Il s’assure que ces politiques se déplacent avec l’application.
  • Optimiser les applications dans des environnements de cloud hybrides. CliQr mesure à la fois le prix et la performance des applications dans n’importe quel environnement cloud. L’utilisateur est aidé dans ses décisions pour trouver la meilleure place pour l’application dans le datacenter ou le cloud
  • Offrir une interface unique de gestion. Le client obtient une complète visibilité et le contrôle sur les applications, les environnements cloud et les utilisateurs.

 

En attendant la finalisation de l’acquisition vous pouvez trouver plus d’informations sur la solution CloudCenter sur le site CliQr

Mots-clefs :

L’analytique à la rencontre des objets connectés

En novembre 2015 dans un billet intitulé « Acquisition de ParStream : Cisco renforce ses solutions pour le Fog Computing » je vous avais expliqué comment cette offre allait pouvoir répondre aux nouveaux besoins de traitements de données liés au développement des objets connectés. Pour mieux comprendre l’intérêt de cette solution j’ai demandé à Olivier Neraut ,sous forme d’une courte vidéo, de nous donner un exemple concret d’utilisation.

  Nous avons choisi un sujet d’actualité avec la COP21 et le changement climatique : les éoliennes.  Cet exemple peut être appliqué à tout environnement d’équipements connectés hyper distribués. Pas besoin de compétence technique pour regarder la vidéo et comprendre que ParStream est un composant clé de la stratégie IoT de Cisco.

Pour ceux qui veulent en savoir plus vous pourrez retrouver Olivier Neraut sur le stand Cisco au salon big data les 7 et 8 mars 2016salon big data

 

Simplifier l’accès aux données du Big Data avec Cisco Data Virtualization

Quelques minutes pour en savoir plus sur Cisco Data Virtualization. C’est ce que je vous propose sous forme d’une vidéo sur ce logiciel qui fait partie de l’offre Big Data de Cisco.

 

salon big dataTout le monde s’accorde à dire que la donnée est au cœur de la nouvelle économie, reste à comprendre comment les exploiter. Les solutions sont nombreuses. Elles sont quelques fois concurrentes mais souvent elles adressent des aspects différents du Big Data. De la concurrence à la complémentarité il n’est pas toujours simple de s’y retrouver au début. Il faut revenir aux questions de base : quelles types données pour quels usages. Dans le billet « le Big Data et l’IoT ouvrent de nouvelles perspectives pour l’analytique » je dressai les grandes lignes de l’offre de Cisco dans ce domaine. Cette fois ci je vous propose un focus sur le produit Cisco Data Virtualization, et pour vous simplifier la tâche nous avons réalisé avec Olivier Neraut une courte vidéo en français pour connaître l’essentiel.

 Vous pourrez retrouver Olivier Neraut sur le stand Cisco au salon du Big Data Paris les 7 et 8 mars 2016 et lui poser vos questions sur le Big Data.

Mots-clefs :,

Des APIs ouvertes augmentent la valeur pour le client.

Les fournisseurs de l’IT doivent ouvrir leur produits en offrant des APIs pour simplifier l’intégration de leurs solutions dans un data center ou un cloud. L’efficacité, l’agilité et l’évolutivité des data centers et des clouds en dépendent. Cette intégration nécessaire et l’utilisation d’APIs sont illustrées par Cisco Application Centric Infrastructure ACI dans un environnement virtualisé VMware.

Un modèle de règles cohérent pour le cloud et la production. Les architectes cloud et les responsables de production ont besoin d’un modèle de règles cohérent pour l’ensemble des applications et pour les infrastructures physiques et virtuelles qui les hébergent. La cohérence du modèle de règles, nécessaire pour contrôler et suivre l’activité efficacement, contribue à rassembler des équipes opérationnelles, aujourd’hui organisées en silos, et leur donne la possibilité d’intégrer leurs workflows en utilisant les mêmes outils automatisés. La virtualisation des serveurs étant réalisée majoritairement par VMware il est fréquent que les utilisateurs d’Application Centric Infrastructure disposent d’infrastructures virtuelles VMware. L’efficacité opérationnelle du data center et du cloud dépend donc de la bonne intégration entre VMware et ACI.

L’intégration entre VMware et Cisco ACI concourent à l’efficacité opérationnelle. Le document « Cisco Application Centric Infrastructure and VMware Integration » explique en détail les modes d’intégration et on peut distinguer trois aspects de l’intégration entre Cisco ACI et VMware.

  1. Intégration des ports groups des machines virtuelles. Les règles sont renforcées  dynamiquement dans l’infrastructure avec une totale visibilité des charges applicatives et de leur localisation avec le choix des méthodes d’encapsulation. On automatise et on simplifie tout le travail de connexion nécessaire en arrière-plan  de la part des administrateurs réseaux pour supporter l’administration de l’infrastructure virtualisée.
  2. Intégration entre vCenter et Cisco  APIC  (Application Policy Infrastructure Controller).ACI vCenter integration Les APIs ouvertes de vCenter permettent à ACI d’accéder à des informations telles que les attributs des VMs et les statistiques réseaux pour gérer la configuration et fournir la visibilité des end points virtuels corrélés avec la topologie physique. Les administrateurs du réseau et de l’infrastructure virtuelle peuvent définir des règles basées sur les attributs des VMs et vérifier le comportement des infrastructures physiques et virtuelles supportant les applications.
  3. Intégration entre vRealize automation et APIC. ACI expose nativement les services réseau au logiciel vRealize API APIC VMwareautomation de VMware. Avec cette intégration les administrateurs vRealize peuvent concevoir des applications multi-tiers qui utilisent des services réseaux partagés ou des clouds virtuels privés dédiés dans un environnement multi-tenants. Les administrateurs du cloud et des tenants peuvent par exemple facilement inclure des load balancing et des pare feux de nouvelle génération pour leurs applications.

 

Les fournisseurs de l’IT ont tout intérêt à offrir des APIs ouvertes. Cette intégration a plusieurs niveaux illustre l’importance du rôle des API ouvertes. Les infrastructures matérielles et logicielles des data centers sont composées de multiples produits provenant de fournisseurs variés. Ces produits se complètent, interagissent et s’enrichissent si l’intégration est optimisée. Au-delà de la compétition, les fournisseurs doivent faciliter cette intégration avec des APIs ouvertes pour renforcer la valeur de leurs offres et répondre aux attentes de leurs clients.

Mots-clefs :, ,

le Big Data et l’IoT ouvrent de nouvelles perspectives pour l’analytique

« La donnée est la nouvelle ressource de l’économie numérique ». Le ministre de l’économie l’a rappelé le 9 novembre 2015 en présentant le projet de loi NOE (Nouvelles opportunités économiques). La donnée représente un capital stratégique et un levier économique pour les entreprises. Pour concrétiser ce potentiel cela impose de développer des approches d’infrastructures et d’analytiques adaptées à la diversité des sources de données. Une approche qui sera présentée par Cisco lors du salon « Big Data Paris » les 7 et 8 mars 2016.Bigdata analytique

En 2020, 40% des données proviendront de capteurs de toutes sortes.  Il y a quelques années la quasi-totalité des données étaient des données structurées stockées dans les bases de données de centres informatiques. Avec l’avènement du numérique une multitude de données de tous types se sont créées hors du cadre de l’entreprise et conduit les solutions analytiques à s’adapter selon trois étapes :

  • Analytique 1.0: Les données structurées proviennent des bases de données et sont analysées après avoir été préalablement copiées dans un entrepôt de données centralisé.
  • Analytique 2.0: Les données non structurées s’amplifient et doivent être prises en compte par de nouvelles architectures comme Hadoop et les bases de données NoSQL pour les rendre accessibles aux outils analytiques.
  • Analytique 3.0: Le développement des objets connectés (IoT) engendre une multitude de sources de données situées hors des centres informatiques. Ces nouvelles données représenteront 40% du total des données en 2020. Leur  exploitation ouvre de nouvelles perspectives d’optimisation de processus industriels et de création de nouveaux services.

 Les défis des nouvelles solutions analytiques. Le déluge des données, évoqué en 2010 dans la revue The Economist, a mis en évidence une formidable opportunité pour les entreprises. Le contexte économique et compétitif oblige les entreprises à plus d’agilité. Analyser, anticiper, optimiser et innover sont des objectifs qui seront d’autant plus facilement atteints que l’on sera capable d’exploiter facilement et rapidement les données. Pour cela les outils analytiques et les infrastructures qu’elles exploitent doivent :

  • Exploiter les données en temps réel dès leur création. L’utilisation d’un entrepôt de données nécessite des opérations ETL (Extract, Transfert, Load) pour extraire les données des bases de données et les charger dans le datawarehouse. Le décalage entre le moment ou la donnée est produite et celui où elle est exploitée peut pénaliser la pertinence du résultat et la rapidité de la prise de décision. Les nouvelles solutions doivent exploiter en temps réel, et sans passer par des opérations intermédiaires, les informations contenues dans l’ensemble des bases de données (y compris le « data lake » si il existe) de toute l’entreprise.
  • Faciliter l’accès aux données par des directions métier. Les utilisateurs des directions métiers ont besoin d’analyser rapidement et simplement des données appartenant à différentes bases de données. Cela devient possible si on leur offre le moyen de réaliser une vue logique de toutes les données nécessaires sans déplacement ou copie de données.
  • Rapprocher les processus analytiques des sources de données. De plus en plus de données sont générées par des centres d’appels, des bornes wi-fi, des smarphones, des compteurs intelligents et plus globalement par tout objet ou équipement communicant. Transférer systématiquement toutes ces données vers un centre informatique centralisé peut s’avérer contre-productif. Certaines données sont rapidement obsolètes et d’autres ne supportent pas de temps de latence pour déclencher une action. Les outils d’analyse doivent pouvoir s’installer au plus près des sources de données.

S’adapter aux enjeux des entreprises et à la typologie des sources de données. Pour répondre à ces enjeux Cisco a développé un ensemble de solutions qui couvre :

  • Les besoins d’infrastructure : Cisco dispose d’une large gamme qui adresse les besoins des centres informatiques et du cloud en termes de serveurs, de réseaux, d’administration et de sécurité.
  • La gestion des données: Dans le cadre du Big data, la gestion des données prend des formes différentes et souvent complémentaires comme le « In Memory », Hadoop, le MPP (massively parallel processing) ou le NoSQL. Pour chacune d’entre elles Cisco a noué des partenariats pour interfacer ses équipements. Fin 2015 Cisco a également procédé à l’acquisition de la société Parstream pour fournir des solutions MPP dans des environnements comportant des sources de données extrêmement distribuées.
  • L’intégration de données : Pour améliorer l’efficacité des outils analytiques et simplifier la tâche de ceux qui les utilisent, la solution Cisco Data Virtualization permet de construire une vue logique et centralisée des données accessible simplement par un « portail business ».
  • Les outils analytiques et de business intelligences.  La gamme  « Cisco Connected Data and Analytic » permet d’obtenir des informations pertinentes en temps réel sur l’ensemble de l’entreprise. L’offre recouvre des logiciels qui prennent en compte différents types d’architecture (réseaux, centres d’appels, collaboration) et des solutions analytiques pour adresser divers domaines tels que la grande distribution, les opérateurs telecom, l’industrie et d’autres encore.

salon big dataSalon du Big Data Paris : Des experts seront à votre disposition sur le stand Cisco pour  discuter de vos projets spécifiques dans les domaines du Big Data et de l’analytique. Vous pourrez également assister à des démonstrations et vous rendre compte par vous-même de l’intérêt des offres dans votre contexte. Vous pouvez vous inscrire dès aujourd’hui.

Mots-clefs :, , , ,

La valorisation des données comptera pour 30% des dépenses de transformation numérique en 2019

En entrant dans l’économie de la donnée toutes les entreprises vont devoir se montrer vigilantes pour se conformer à la réglementation sur la protection des données personnelles. Dans un entretien vidéo, Maitre Betty Sfez nous rappelle quelques points essentiels.

protection donnée personnelle reglementtion

30 % des dépenses de transformation numérique consacrées à l’exploitation des données. A en croire IDC avec la parution de son dernier Worldwide Digital Transformation Spending Guide les dépenses au niveau mondial dans la transformation numérique devraient croitre de 16,8% par an. Il est intéressant de constater que près d’un tiers de ces dépenses seront consacrées aux technologies qui permettent d’extraire et de valoriser les données. La confirmation que nous sommes bien dans une économie où la donnée ne sert plus seulement à prendre des décisions mais aussi à créer des produits et des services. IDC évalue l’économie de la donnée en France en 2015 à 34,5 milliards € soit 1,6% du PIB et 716.000 emplois

Veiller à la protection des données personnelles. Dans un article intitulé Les contresens de la souveraineté numérique, les Echos expliquent que « Le centre de gravité des industries technologiques s’est déplacé depuis les ordinateurs vers les données échangées  » . Ce rôle prépondérant que la donnée va continuer à prendre doit attirer notre attention sur les aspects légales qui touchent la protection des données personnelles. La réglementation est en train d’évoluer au niveau européen et en octobre 2015 l’invalidation de Safe Harbor a mis en lumière les questions de transferts de données. Les solutions de Big Data et d’analytiques sont de jour en jour plus performantes il est donc important pour les entreprises et en particulier les « Responsable de traitement » de connaitre leurs obligations vis-à-vis de ces données personnelles. J’ai donc demandé à Maitre Betty Sfez de nous éclairer sur ce que l’on appelle les données personnelles, obligations légales et Safe Habor. Vous pouvez dans cette vidéo de 10 minutes avoir un aperçu de la problématique liée aux données personnelles.

Pour aller plus loin sur les aspects légaux je vous invite à consulter le blog du cabinet Deleporte Wentz Avocat. 

En savoir davantage sur les solutions de big data et d’analytique de Cisco: Rencontrez des experts du sujet à l’occasion du salon Big Data Paris les 7 et 8 mars 2016.

 

Mots-clefs :, , ,

Maîtriser le shadow IT impose de connaître les réelles utilisations du Cloud

La généralisation du cloud a permis aux entreprises de gagner en agilité mais dans le même temps elle a contribué à augmenter l’utilisation d’une informatique de l’ombre (shadow IT) qui comporte des risques de sécurité pour l’entreprise et nuit à la maitrise des coûts. Pour aider les entreprises à prendre conscience de ce phénomène et le mesurer Cisco a créé l’offre de service Cisco Consumption Professional Services

Le cloud public a banalisé l’accès aux applications. Le cloud continue de modifier considérablement le paysage informatique. Face à un environnement économique et technologique en constante évolution les entreprises trouvent dans le cloud le moyen d’optimiser leurs dépenses informatiques tout en gagnant en agilité. Les éditeurs de logiciels et des startups ont vu également le moyen de démocratiser l’accès à leurs applications et leurs logiciels. A titre individuel et privé le cloud nous a habitué à disposer rapidement d’outils et de services gratuits ou à bon marché dans de nombreux domaines tels que l’échange de fichiers, le partage d’album de photos ou la sauvegarde de nos ordinateurs personnels pour ne citer que les exemples les plus connus.

L’utilisateur est devenu un professionnel des technologies numériques. Cette apparente simplicité et la richesse des applications disponibles dans le cloud a donné un coup de vieux à l’informatique. Les utilisateurs et les directions métiers ont du mal a comprendre qu’il faille si longtemps pour développer une application alors qu’il parait si simple d’en trouver des similaires dans le cloud et quelques fois gratuites. Télécharger une nouvelle application sur sa tablette ou son smartphone est devenu un geste quotidien qui rend l’utilisateur plus exigeant et moins patient. . Peu à peu s’est développée une informatique de l’ombre (le shadow IT). Une informatique qui échappe à la direction informatique d’un point de vue technique et budgétaire. Le phénomène existait avec le cloud mais c’est amplifié avec lui. Les employés utilisent les mêmes outils que chez eux et certaines directions métiers n’hésitent plus à négocier directement un logiciel dans le cloud.

La DSI souvent désarmée face au shadow IT. Des mesures chez des clients ont révélé que les services clouds de fournisseurs autorisés pouvaient représenter seulement 20% de l’utilisation du cloud et qu’il y 5 à 10 fois plus de services cloud utilisé que ce qu’imagine la direction informatique.

Shadox IT control

Selon les cas l’entreprise peut se trouver dans l’illégalité pour des logiciels sans contrat, mettre à risque la sécurité et l’intégrité des données et globalement créer une incohérence dans les investissements en perdant la maitrise des budgets. Pour lutter contre le phénomène de l’informatique de l’ombre on peut mettre en place deux initiatives complémentaires:

  • Faire jouer à la DSI le rôle de courtier de services (Cloud broker). Vouloir répondre à toutes les demandes des utilisateurs par les seuls moyens de l’informatique interne devient une gageure à l’heure actuelle. Le temps s’est raccourci sous la pression d’internet et de la mondialisation. Seule manière de faire face à la demande: sélectionner des applications existantes dans le cloud, valider celles qui répondent aux exigences de l’entreprise et les proposer dans un catalogue de services accessibles au travers d’un portail d’entreprise.
  • Contrôler l’utilisation des clouds. Beaucoup d’entreprises ont conscience d’une informatique de l’ombre mais peu sont capables de quantifier le phénomène. C’est pourquoi Cisco a créé une offre de services sur la consommation du cloud ( Cisco Consumption Professional Services) pour aider les clients à avoir une meilleure visibilité des services cloud utilisés dans leur entreprises et ainsi pouvoir mettre en œuvre des pratiques renforcés de gestion du cloud.Ce service permet aux clients de devenir plus agile mais en réduisant les risques et en gardant la maitrise des dépenses dans le cloud public. Il utilise le réseau le réseau pour déterminer quels sont les fournisseurs de services cloud qui sont accédés par les employés de toute l’entreprise. On obtient ainsi une visibilité complète de l’utilisation de clouds publics autorisés et non autorisés. C’est en réalisant ce type d’analyse que Cisco a pu se rendre compte que chez certains clients on utilisait 5 à 10 fois plus de services cloud que ceux qui étaient autorisés.

Renforcer  le rôle du Directeur informatique. Comme le souligne l’article « DSI de nouvelle génération : des leaders IT en pleine mutation » publié par leMagIT la fonction de DSI évolue en partie sous l’effet du cloud. L’article rappelle que de nombreux utilisateurs font « du shadow IT, en s’abonnant à bas prix à des services Cloud qui leur conviennent. Aujourd’hui, l’omniprésence des technologies dans la vie quotidienne des employés fait qu’ils ont de fortes chances d’être en avance sur l’entreprise » Pour assurer ses missions le DSI doit donc disposer d’outils efficaces pour mesurer et maitriser l’utilisation du Cloud dans son entreprise.

 

Mots-clefs :

Renforcer la sécurité des Data Centers avec la micro- segmentation

Les data centers sont soumis quotidiennement à de nombreuses tentatives d’attaques. Selon des études Cisco, pour 75% de ces attaques il suffit de quelques minutes pour commencer à voler des données mais les détecter prend bien plus de temps. Une fois découverte, il peut s’écouler plusieurs semaines avant d’avoir isolé l’attaque et d’y avoir remédié. Les attaques de plus en plus sophistiquées imposent aux data centers d’utiliser de nouvelles approches et de disposer d’un spectre d’outils plus large. La segmentation du réseau fait partie des outils éprouvés dans les datacenters qui peut être renforcée par une granularité plus fine: la micro-segmentation.

La sécurisation des Datacenter conduit à la « micro-segmentation ». Les applications d’aujourd’hui et les besoins croissants de sécurité militent pour des méthodes granulaires qui sont plus sures et plus simples d’utilisation. Cisco définit la micro segmentation comme étant la possibilité de définir des règles associées à la granularité offerte par les « endpoints ». En utilisant la notion de Endpoint Cisco propose une micro-segmentation qui ne se limite pas à la machine virtuelle puisqu’un endpoint peut être un serveur physique, une machine virtuelle, un conteneur Linux ou bien encore des mainframes. Le type de endpoint est normalisé et offre de ce fait une grande simplicité et une grande souplesse dans son traitement. La micro-segmentation apporte des fonctions plus évoluées qui permettent de :

  • Définir des segments très granulaires par programme afin d’obtenir une plus grande souplesse dans l’utilisation d’attributs
  • Programmer automatiquement un segment et la gestion des politiques sur la totalité du cycle de vie de l’application (déploiement et dé-commissionnement)
  • Mettre en quarantaine les endpoints compromis et limiter une propagation latérale des menaces.
  • Améliorer la sécurité et évoluer en permettant une approche « zero trust » pour des workload applicatifs physiques, virtuels ou en conteneurs.

Une mise en œuvre élégante de la micro-segmentation. Application Centric Infrastructure (ACI) utilise une approche particulièrement élégante pour réaliser la micro-segmentation avec des définitions de politiques séparant les segments des domaines de broadcast. Les endpoint sont regroupés dans des  « End-Point Group » (EPG) . Les développeurs d’applications peuvent  définir un ensemble de endpoints correspondant à un EPG indépendamment de leur adresse IP ou du subnet auxquels ils appartiennent.

microsegmentation V2

ACI fournit le support de micro-segmentation pour VMware VDS, Microsoft Hyper-V virtual switch, KVM, les endpoints bare-metal et les conteneurs. Les clients peuvent dynamiquement appliquer des politiques de sécurité et de fowarding, mettre en quarantaine des endpoints compromis ou douteux sur la base des attributs des machines virtuelles ( Name, Guest OS, Indentifieur VM par exemple) et /ou des attributs réseaux (Adresse IP par exemple).

Créer des micro-segments en maintenant la cohérence des policies. La micro-segmentation avec ACI donne la possibilité aux utilisateurs de créer des micro-segments sur de multiple VMM et domaines physiques tout en maintenant la cohérence des politiques. Les clients gagnent en souplesse opérationnelle et disposent de nombreux choix :

  • Micro-segmentation pour n’importe quelle application multi-tiers avec des workload physiques ou virtuels sur tous types d’hyperviseurs
  • Utilisation du même modèle de politique d’isolation des workloads pour vSphere,Hyper-V, OpenStack, Conteneurs et serveurs bare metal.
  • Classification de micro-segmentation qui peut utiliser des attributs de workloads tels que les attributs de machines virtuelles et réseau (IP,MAC) fournissant un contrôle plus fin et plus granulaire au niveau de la machine virtuelle individuelle.
  • Politique d’isolation Intra EPG agnostique vis-à-vis des hyperviseurs
  • Création simple et automatique de zone de quarantaine pour applications multi-tiers quand un end point douteux ou une menace est identifiée. Remédiation automatisée.

microsegmentation use cases

La micro-segmentation effectuée avec ACI améliore la sécurité du traffic « east-west » du data center. Sa réelle valeur ajoutée réside dans son intégration avec le design applicatif et l’ensemble des politiques réseau ainsi que dans l’interopérabilité avec une large variété d’hyperviseurs, de serveurs bare metal, d’équipements de niveau 4 à 7 et de plateformes d’orchestration.

Pour plus d’informations lire : Cisco Application Centric Infrastructure Microsegmentation Solution

 

Mots-clefs :, ,

Le cloud se généralise, mais peu d’entreprises ont mis en place des stratégies cloud avancées

L’adoption du Cloud fait apparaitre des gains d’autant plus importants que l’adoption est poussée dans l’entreprise. En janvier 2015 Cisco, IDC et Sungard AS donnent la possibilité aux entreprises françaises de mesurer leur niveau d’adoption selon une classification établie par IDC après avoir interrogé 3500 entreprises.

Les entreprises peuvent gagner en agilité en adoptant le Cloud. En adoptant le cloud de manière plus poussée, les entreprises peuvent améliorer l’allocation stratégique des budgets informatiques, réduire les coûts informatiques, raccourcir le délai de mise en service des services informatiques, augmenter leur chiffre d’affaires et mieux respecter les niveaux de services SLA. Les entreprises adoptent plus facilement un cloud privé que public, reste à définir une véritable stratégie d’adoption du Cloud pensée en fonction des objectifs de l’entreprise et de son évolution.

Le niveau d’adoption varie d’une entreprise à l’autre. Désormais un grand nombre d’entreprises utilise un cloud ou entend le faire très bientôt. Il y a cependant des différences notables d’une entreprise à l’autre et d’un pays à l’autre dans le niveau d’adoption. Pour s’en rendre compte le cabinet d’analyse IDC avait interrogé en 2014 près de 3500 entreprises utilisant le cloud dans 17 pays. Cette analyse a permis à IDC de définir l’adoption du Cloud selon 5 niveaux.

IDC Cloud -  5 niveaux d'adoption

Il existe aujourd’hui tellement de solutions et de logiciels qui fonctionnent dans le cloud que chaque entreprise peut revendiquer d’utiliser le cloud. Est-ce que cela relève réellement d’une stratégie volontariste ? Rien n’est moins sûr. Il y a près d’un tiers des entreprises qui n’ont encore aucune stratégie Cloud. Cette classification présente l’avantage pour une entreprise de pouvoir se situer sur une courbe d’adoption de manière objective et concrète en tenant compte de la répartition entre cloud privé et publique puisque le cloud devient hybride et que la direction informatique, pense pour 64% des personnes interrogées , devoir jouer à terme un rôle de courtier de services (« cloud broker »)

Augmenter son chiffre d’affaire de 10% en améliorant son niveau d’adoption du cloud. L’étude IDC a montré qu’en passant d’un niveau d’adoption « Ad hoc » à « optimisée» on pouvait augmenter son chiffre d’affaire de plus de 10% et réduire ses coûts informatiques de 77%. Des chiffres qui devraient inciter les entreprises à accélérer l’adoption du Cloud. Pour les y aider Cisco et IDC ont élaboré un outil « Cisco Business Cloud Advisor ». Cet outil repose sur l’enquête réalisée par IDC. L’entreprise qui souhaite avoir une idée rapide sur son niveau d’adoption peut répondre à un questionnaire en ligne de 14 questions. L’outil génère automatiquement un rapport d’adoption et de comparaison par rapport à d’autres entreprises de son secteur d’activité et de son pays.

Opération adoption du Cloud en France avec Cisco, Sungard AS et IDC. Pour aider les entreprises à définir leur stratégie d’évolution vers le Cloud en toute connaissance de causes Cisco, avec son partenaire Cloud Sungard AS et IDC, vont leur proposer courant janvier d’utiliser l’outil Cisco Business Cloud Advisor  en répondant à un questionnaire.

banniere IDC Cisco sungard AS

Le questionnaire sera envoyé par email mais est également accessible sur ce billet en cliquant ici ou bien encore dans ZDnet.

 

 

 

 

Mots-clefs :

Les éditeurs de logiciels faces aux défis du cloud et de l’IoT

Le cloud continue imperturbablement à façonner de manière profonde le paysage informatique. Comme toute transition importante c’est à la fois un risque et une opportunité selon la manière de s’y prendre. Certains éditeurs de logiciels ont entrepris cette transformation vers le Software as a Service mais beaucoup reste à faire. Pour les y aider Cisco a développé des initiatives reposant sur des programmes et des partenariats avec des fournisseurs de Cloud. Pour s’assurer de l’efficacité de ces initiatives Cisco collabore avec Lemon Operations. Entretien avec  laurent Glaenzer de Lemon Operations et Valérie Poulain en charge des éditeurs logiciels chez Cisco.

OLYMPUS DIGITAL CAMERA

laurent Glaenzer Lemon Operations-Valerie Poulain Cisco

Le Cloud modifie la manière de vendre des logiciels. Traditionnellement la manière de vendre du logiciel se distingue très nettement de celle du matériel. D’où la difficulté pour les constructeurs de réussir leur transition vers le logiciel ou pour un éditeur d’aller vers le matériel. Le cloud est en train de réconcilier ces deux domaines à la fois si complémentaires et si différents. Le Cloud en bénéficie d’ailleurs car l’essentiel des grands fournisseurs de cloud tire leur revenu du logiciel. Le cloud avance déguisé derrière les applications. Qui sait par exemple qu’en utilisant DropBox on se retrouve dans le cloud d’Amazon. Avec le cloud on s’oriente vers un système complet (une solution) qui comprend l’application, l’infra et les données. Ce que Lemon operation appelle le « big Ap ». Le phénomène du cloud explique l’appétence des constructeurs de matériels pour aller vers le logiciel. Le trait d’union réalisé par le cloud entre le matériel et le logiciel bouleverse le marché des acteurs de l’IT. Le choix de l’utilisateur se porte d’abord sur la réponse à son besoin applicatif, donc sur le logiciel. Avec des offres qui vont engober le logiciel et le matériel, le vendeur de logiciel est donc avantagé. Si le cloud modifie le modèle de vente des logiciels, il oblige également les constructeurs de matériels à travailler plus étroitement avec les éditeurs et les fournisseurs de cloud.

Le cloud et l’IoT créent de nouveaux challenges pour les éditeurs. Le métier et la responsabilité des éditeurs évoluent. La responsabilité porte désormais sur l’ensemble des moyens nécessaires au bon fonctionnement du logiciel. Le code du logiciel bien sûr mais également l’infrastructure qui le supporte. Les éditeurs doivent prendre conscience qu’ils prennent des responsabilités nouvelles vis-à-vis du client en allant vers le cloud. Cela nécessite d’établir une relation de confiance entre l’éditeur et le fournisseur de cloud. Un besoin de confiance qui pousse certains éditeurs à privilégier des opérateurs de cloud de proximité pour la fourniture de l’infrastructure. Le Cloud n’est pas l’unique défi à relever. Les objets connectés créent de nouvelles données que les éditeurs doivent intégrer dans leurs logiciels pour apporter de nouvelles fonctionnalités. En plaçant par exemple un capteur sur chaque colis dans un entrepôt, un logiciel pourra automatiser l’inventaire et s’assurer de la cohérence entre l’entrepôt physique et l’ERP sans avoir à réaliser de fastidieux inventaires physique. L’application devra de plus en plus faire le lien avec des objets connecté. Cela donne une nouvelle dimension aux applications.

Adapter l’approche à la typologie des éditeurs. Avec près de 25.0000 sociétés qui produisent des logiciels au niveau européen ce serait une grave erreur de considérer qu’il existe un modèle unique même si chacun d’entre eux peuvent tirer parti du cloud. On peut les classer en 3 grandes typologies :

  • Les grands éditeurs (Truffle 100). Le logiciel est leur cœur de metiers et ils évoluent vers le « big Ap » Un système complet
  • Les start-up. Elles démarrent sur une idée forte à base de technologie souvent disruptive. Elles cherchent ensuite un client qui servira de référence et définit ensuite son business model et son go to market. La start-up évolue naturellement vers les fondamentaux de la vente de logiciel et s’appuie rapidement sur le cloud pour se développer.
  • Les IP (Intelligence Property) integrator. Ils ont développé une solution pour un client, cherchent à en faire un produit logiciel et à le commercialiser ensuite. L’IP integrator évolue de la stratégie de la demande à la stratégie de l’offre.

Chacune de ces 3 catégories nécessite des adaptations différentes aux tendances du marché

OLYMPUS DIGITAL CAMERA

.

Bien connaitre les éditeurs pour mieux les accompagner. C’est la raison du partenariat entre Lemon Operations et Cisco. Lemon Operation est un spécialiste de la distribution qui opère dans 35 pays. Il aide un grand nombre d’acteurs de l’IT à développer leurs activités en créant, en animant et en adaptant leur réseau de partenaires à leur stratégie. Les grandes tendances du moment comme le cloud, le big data et l’IoT amènent de nouvelles approches, de nouveaux business models et de nouveaux écosystèmes. Lemon Operation ne se présente pas comme une société de conseil mais comme une société de développement de business. Son approche est concrète basée sur son expérience opérationnelle, sa connaissance du marché, de ses évolutions et de ses acteurs.

Cisco et Outscale lancent leurs programmes pour les éditeurs. Cela se passait le jour de la sortie de Starwars. starwarsC’est donc vêtus comme les protagonistes de la Saga que Cisco et le fournisseur de cloud Outscale ont présenté aux éditeurs de logiciels français leur approche d’évolution vers le cloud et les programmes respectifs pour les accompagner dans leur développement. Des sujets sérieux traités dans une ambiance détendue suivis par une projection  privée du dernier épisode de Starwars. Un résumé des présentations est disponible sur le blog d’Outscale.

Lire également :

 

Mots-clefs :, ,

Application Centric Infrastructure : Un an déjà ……

Voici un peu plus d’un an que les premières solutions ACI (Application Centric Infrastructure) ont commencé à être livrées chez les clients. Depuis, 1000 clients ont adopté ACI. L’objectif de Cisco était simple : automatiser le réseau en supprimant le gap entre les demandes des responsables d’applications et les contraintes des responsables réseaux. Une réflexion qui a conduit à définir l’architecture ACI.

Les différents principes de l’ACI. Il ne suffisait pas d’innover sur des architectures existantes, il fallait être capable de redessiner une architecture en tenant compte du bouleversement technologique qui conduit les entreprises à développer de nouveaux usages et de nouveaux services. Dans le contexte de l’entreprise numérique les infrastructures sont non seulement extrêmement sollicitées mais elles doivent pouvoir s’adapter simplement et rapidement à des contextes opérationnels différents. Cisco a donc conçu l’ACI sur les principes suivants.

ACI principles anniversary

Virtualisation du réseau. Héberger de multiples « tenants » indépendants sur une même infrastructure tout en garantissant une isolation et une sécurité complètes était un objectif majeur lors de la conception d’ACI. Les tenants peuvent être des entreprises indépendantes, des directions métiers d’une même société ou n’importe quelle entité qui nécessite une isolation et une adresse IP privée. Dans des réseaux classiques la mobilité des workloads est limitée à la couche de niveau 2 ou de niveau 3 (VLAN ou subnet). ACI élimine cette contrainte et permet le placement de n’importe quel workload n’importe où dans l’infrastructure.

Réseau unifié. L’architecture ACI repose sur un réseau unifié indépendant du type de workload (bare metal, machine virtuelle ou containeur). Les workloads se résument à des points IP de terminaison qui doivent se connecter et qui ont besoin de services comme l’équilibrage de charge ou la sécurité. Les services de niveau 4 à 7 sont impératifs pour le déploiement de n’importe quel workload applicatif. Dans ce domaine l’offre est pléthorique et les clients font le choix du fournisseur en fonction de leurs besoins. Cisco en a tenu compte pour ACI et a choisi une approche ouverte permettant d’intégrer les offres du marché en termes de fourniture de services réseaux quel que soit leur format (physique, appliance ou VM).

Architecture centrée sur l’application. Le réseau doit être capable de comprendre ce que l’équipe en charge des applications veut déployer. Pour une application Web par exemple structurée en 3 tiers (Web, App et base de données), chaque tiers aura des besoins différents. Le traffic du tiers web devra être équilibré par des load balancers et les autres tiers devront avoir une isolation et une sécurité renforcées. Le contrôleur de l’ACI (APIC) récupère ces informations sur les besoins de l’application et provisionne les commutateurs physiques, les commutateurs virtuels des différents hyperviseurs utilisés et les services L4-L7 des vendeurs en place. Le contrôleur APIC peut fournir ainsi un déploiement cohérent, le monitoring approprié et la visibilité sur l’ensemble de l’infrastructure.

Evolution prévue par conception. Avec un contrôleur centralisé une panne ou un dysfonctionnement peut avoir de graves conséquences sur les performances, la sécurité et la disponibilité. L’équipe de développement d’ACI en était particulièrement conscient et en a tenu compte pour définir le contrôleur APIC. Le trafic client est commuté par l’infrastructure elle-même tandis que l’APIC s’occupe du contrôle et de l’application des règles (policies). L’APIC est conçue sur des principes de traitement distribué et de data sharding (partitionnement horizontal) qui offre une des meilleures scalabilité de l’industrie. Pour répondre à la demande des clients, Cisco a déjà livré des architectures de 220 leafs avec 5 contrôleurs APIC dans une seule fabrique ACI. En comptant 48 ports par leaf cela représente 9600 ports serveurs. Il n’y a pas de limite d’architecture pour évoluer c’est juste une question de temps de qualification des configurations. Dans la version ACI 1.1(3f) on dispose de la fonction « show usage » qui permet aux administrateurs de voir ce qui seraient impactés préalablement à un changement. On évite ainsi des interruptions dues à des erreurs grossières.

Alignement avec les exigences de la production. Pouvoir configurer des équipements n’est pas suffisant s’ils ne permettent pas de soulager les équipes opérationnelles au quotidien. Aujourd’hui elles doivent faire face à de nombreuses opérations qui prennent du temps du fait du manque d’intégration de bout en bout de l’infrastructure avec les applications et de la difficulté d’identifier et d’isoler des problèmes. Le contrôleur APIC donne la visibilité sur l’ensemble des workloads, services L4-L7 inclus, et permet ainsi de gérer de manière pro-active la fabrique. Cette visibilité native au niveau de l’application et ces capacités de troubleshooting sont de réels atouts dans une production au jour le jour.

Des APIs Northbound unifiés. Tous les aspects du système,  spécifications applicatives ou détails des commutateurs de la fabrique, sont exposés par l’intermédiaire des APIs de l’APIC (northbound RESTful APIs). L’interface graphique (GUI) de l’APIC est lui-même conçu en utilisant ces APIs ouvertes. C’est ce qui permet aux clients et aux partenaires d’intégrer facilement l’ACI dans leur écosystème.

 

Les nombreuses innovations technologiques et les nouveaux usages soumettent les infrastructures traditionnelles à de nouveaux défis. Le réseau ne devait pas être un frein à ce besoin d’agilité exigée par l’économie numérique. En développant l’architecture ACI, Cisco a voulu accompagner la transformation des entreprises et leur permettre d’atteindre leurs objectifs.

Mots-clefs :, ,

Automatiser le data center et le cloud au rythme de l’entreprise

Mettre rapidement en service une application est devenu critique pour une entreprise. S’assurer que cette application dispose de l’infrastructure adaptée à son cycle de vie est tout autant vital. Pour y réussir l’IT doit faire preuve d’agilité et industrialiser les processus. Cela nécessite d’automatiser toutes les opérations : de l’administration des infrastructures à la fourniture des applications. Si les offres d’automatisation existent, elles sont bien souvent complexes et monolithiques et requièrent des compétences spécialisées. Avec « One Enterprise Cloud suite », Cisco propose une manière plus simple d’administrer et d’automatiser les infrastructures et les applications dans un data center ou dans une stratégie de Cloud hybrid.

Cisco One enterprise suite architecture

Simplifier avant d’automatiser. L’évolution des infrastructures s’est souvent accompagnée d’une grande complexité que l’on a masquée par l’ajout de couches de logiciels. Agilité et complexité sont rarement compatibles dans un contexte où la qualité du service est différentiante. On serait tenté de tout remettre en cause et de repartir d’une page complètement blanche. Il faut être réaliste on ne chamboule pas sans risque tout un système informatique en place sur lequel repose le fonctionnement et l’activité de l’entreprise. Cisco a donc développer une approche pour qu’une entreprise puisse évoluer à son rythme vers une IT industrielle orientée services .Cette approche repose sur deux principes :

  • Simplification de l’architecture physique et de son administration
  • Automatisation modulaire et progressive (administration, orchestration, fourniture de services)

Pour apporter cette nécessaire simplification et optimiser leur automatisation, Cisco a repensé la manière de concevoir les infrastructures. La conception innovante des serveurs UCS et leur interface d’administration unique ont permis d’automatiser la configuration des serveurs avec leur connectivité réseau/stockage. Plus récemment avec ACI (Application Centric infrastructure) Cisco a fourni l’automatisation de la chaine réseau globale. Le réseau devient programmable depuis les couches basses jusqu’au cœur de réseau. Il prend en compte l’ensemble des services réseau virtuels ou non (load balancing, firewalls, ..). On retrouve des similitudes dans la conception de l’UCS et de l’ACI. Tous deux utilisent des templates (services profiles pour UCS et Application profile pour ACI) qui permettent de programmer à la demande la personnalité des serveurs et du réseau.

Automatiser la gestion globale des services IT et leur infrastructure. Après avoir simplifié l’administration et l’automatisation des composants réseaux et serveurs de l’infrastructure on peut s’attaquer à l’automatisation globale des services IT. C’est le rôle de l’offre One Entreprise Cloud Suite qui est une famille de produits logiciels dédiée pour assurer la gestion globale (incluant l’automatisation et l’orchestration) des services IT et de leur infrastructure pendant leur cycle de vie. Cette suite logicielle est modulaire, chaque composant peut être déployé en fonction du rythme et de la stratégie de l’entreprise. One Entreprise cloud suite est composée des outils suivants :

  •  Cisco UCS Director: Automatisation du provisionnement complet de l’infrastructure, couche de virtualisation comprise, avec un seul outil de management quel que soit l’hyperviseur. De nombreux systèmes serveurs et de stockage sont pris en charge nativement, et des APIs permettent d’intégrer d’autres systèmes. Il fournit cette visibilité globale et intègre des workflows (personnalisables) de provisionnement.
  • Cisco Prime Service Catalog: Automatisation de la chaine de services et intégration d’un catalogue de Services complets, jusqu’aux templates d’application avec un portail de services complètement personnalisables et évolutifs. Prime Service Catalog se caractérise son ouverture. Il offre différents niveaux d’intégration avec les autres systèmes IT, des intégrations natives (UCS Director, Openstack, Puppet, Chef, ..) ou par le biais de connecteurs ou d’APIs très riches.
  • Cisco Intercloud Fabric for Business: Ce composant de la suite relie les Clouds privés et publics. Il assure la connectivité dans un un environnement de cloud hybride, la sécurité et le déplacement de workloads multi-formats. .
  • Cisco Virtual Application Cloud Segmentation Il provisionne rapidement les services de réseaux virtuels fournis par les containeurs d’infrastructure de UCS Director infrastructure containers

Une intégration fluide des composants d’Enterprise Cloud suite. Par exemple les Services d’infrastructure (workflows) que l’on crée dans UCS Director sont directement aspirés dans Prime Service Catalog. Ce dernier bâtit ainsi des Services de plus haut niveau, les organise (Catalogue de Services) et les met en forme (Portail de Services). Cisco Enterprise Cloud Suite Inclut un « Stack Designer » dynamique pour simplifier le déploiement du stack applicatif. Le Stack Designer de Prime Service Catalog permet aux architectes applicatifs de définir et provisionner automatiquement des templates de framework applicatifs. Ainsi dans un contexte d’amélioration de la chaine entre applications et infrastructures (type Devops), Prime Service Catalog permet de déployer automatiquement des instances de ces templates. (lire IT as a Service with Cisco Prime Service Catalog and UCS Director)

Innovation, Ouverture, intégration …. Cisco n’a de cesse d’améliorer l’efficacité des Data Centers et du Cloud. La suite logicielle Open Enterprise Cloud Suite s’inscrit dans cette logique et fournit les outils nécessaires à la mise en œuvre d’un plan de route de services IT industrialisé dans un cloud hybrid.

lire également Cisco prend le virage du logiciel à l’occasion de l’évenement européen CiscoLive 2015

 

 

Mots-clefs :, ,

Software Defined Infrastructure : Composer son infrastructure dynamiquement par logiciel

La nouvelle génération d’application née avec le Cloud , le Big Data, la mobilité et l’IoT ne se satisfont plus des infrastructures traditionnelles. Face à des profils applicatifs extrêmement dynamiques et variables, l’infrastructure doit pouvoir s’adapter de manière quasi instantanée. C’est ce contexte qui a amené Cisco à s’intéresser aux « composables infrastructures » et de proposer deux offres avec les serveurs UCS-M et UCS C3260

La nouvelle génération d’applications réclame des infrastructures plus agiles. L’accélération des innovations technologiques nous a fait rentrer dans un monde numérique qui exerce une énorme pression sur les directions informatiques. Les architectures traditionnelles organisées en silo sont inadaptées à la nouvelle génération d’applications drainée par le big data, le cloud, la mobilité et les objets connectés. Ces nouvelles applications se caractérisent par une activité qui peut varier considérablement d’un instant à l’autre et qui obligent à reconsidérer la manière d’utiliser les infrastructures. Contrairement aux applications entreprises traditionnelles, cette nouvelle génération est sujette à de fréquentes modifications pour s’adapter à un contexte numérique sans cesse en évolution. Cela conduit de nombreuses entreprises à adopter une approche DevOps afin de permettre une intégration continue et automatisée des changements, entre l’équipe de développement et celle de production, durant la vie de l’application. DevOps réclame lui aussi une infrastructure plus agile, pilotée par le code ,pour rester en phase avec l’évolution des demandes applicatives. Dans ce contexte où l’on doit faire face à des workloads applicatifs extrêmement dynamiques on voit apparaitre une nouvelle catégorie d’infrastructure : la « composable infrastructure ». Le principe de cette « composable infrastructure » est d’être capable de fournir de manière la plus fluide possible des pools de ressources qui peuvent être configurés dynamiquement via le logiciel et l’utilisation de règles pour optimiser la performance des application et l’utilisation de l’infrastructure.

Composer l’infrastructure idéale avec la plus grande souplesse. L’idée est simple, on « désagrège » l’infrastructure un peu comme si on la démontait virtuellement pièce par pièce. L’infrastructure est pour ainsi dire réduite à la somme de tous ses composants (alimentation et refroidissement, réseau, stockage et traitement) indépendamment de leur appartenance à un serveur.

Composable infra UCS

Toutes ces ressources sont regroupées dans un pool partagé par l’ensemble des applications. On peut alors composer dynamiquement par logiciel l’infrastructure appropriée à un workload en puisant dans le pool de ressources. On peut composer une infrastructure en quelques secondes ou bien laisser l’application la composer automatiquement.

composable infra allocation

Deux offres Cisco pour réaliser une composable Infrastructure : Pour mettre en œuvre une « composable infrastructure » ou « Infrastructure as a code » définie par logiciel (Software Defined Infrastructure SDI), Cisco a pu s’appuyer sur les innovations apportées dans les serveurs UCS et tout particulièrement sur UCS manager :

  • Dans un serveur UCS les serveurs sont nativement sans état (stateless). Leur personnalité est définie en appliquant un template appelé UCS profile
  • Avec la Virtual Interface Card (VIC) le nombre et le type de devices I/O peuvent être configurés à la demande sur l’ensemeble de serveurs physiques et virtuels
  • Le VM-FEX (Virtual Machine Fabric Extender) bypasse la commutation logiciel du traffic des VMs de l’hyperviseur au profit d’une commutation matériel dans le fabric interconnect. La charge du serveur est réduite et la commutation est plus rapide.

A ce jour Cisco propose deux offres de « composable infrastructure », utilisant une évolution du logiciel UCS manager, pour répondre à la variété des nouvelles applications.

  • Le serveur UCS M : il cible des traitements intensifs (Grid, jeu en ligne, application génomique, web serving, memcached et MaaS Metal as a Service).
  • Le serveur UCS C3260 : il adresse des workload ccentrés sur les données comme les solutions anlaytiques de Big Data (MapR, Cloudera etc…), content delivery , Microsoft Storage Spaces et des environnement de Software Defibed (CEPH, SCality etc..)

A lire également :Orchestrating Efficiency with Composable Infrastructure

Page web sur la « composable infrastructure »

 

 

Mots-clefs :,