Cisco France Blog – Data Center

Un nouvel ASIC pour faire face à la demande de connexions des applications cloud natives

L’économie numérique a donné naissance aux applications « cloud natives reposant sur des containers, des microservices et l’usage du cloud, » la conception de ces applications, définit une approche d’infrastructure totalement différente de celle des applications traditionnelles. Elle multiplie les composants adressables et génère ainsi un besoin grandissant de connexions. La technologie d’ASIC Cloud Scale, développée par Cisco pour les commutateurs Nexus 9000, augmente les possibilités des connexions au sein des infrastructures.

CloudScale-microservices-390x230

Les applications cloud natives nécessitent une nouvelle approche des infrastructures. L’usage grandissant des mobiles depuis 2007 a accru le besoin de développement agile pour les applications de l’économie numérique. La multitude des utilisateurs et la nécessité de s’adapter rapidement et fréquemment à un environnement concurrentiel très dynamique ont conduit à l’émergence d’applications dites cloud natives. Pour permettre une intégration et un développement continu, ces applications sont découpées en éléments indépendants et autonomes appelées des microservices. L’application peut ainsi évoluer de manière extrêmement modulaire tout en maintenant un service continu. Les barrières entre production et développement sont supprimées et laissent la place à des méthodes DevOps. De part leur nature et leurs exigences ces nouvelles applications ne peuvent plus se satisfaire d’infrastructures monolithiques  rigides. Elles vont faire appel à des infrastructures granulaires qui de plus en plus souvent seront pilotées avec du code par l’application elle-même (Infrastructure as a code). Le design de ces applications sera basé généralement sur des containers et des microservices. Cette conception des applications cloud natives a des implications profondes dans le trafic des datacenters.

Les applications cloud natives augmentent les besoins de connexions. Les serveurs étant désagrégés en services de composant, chaque processus devient un endpoint et accroit de ce fait considérablement le nombre de endpoints adressables. Même sur un petit nombre de racks les serveurs vont créer une forte demande de connexions bien plus importante que celle qui avait été constatée lors de la virtualisation des serveurs physiques. Pour répondre à ces contraintes Cisco a produit une nouvelle génération d’ASIC de technologie  “Cloud Scale”. La nouvelle génération de commutateurs Nexus est conçue avec cette technologie Cloud Scale. Cela inclut la nouvelle série Nexus 9200 et la nouvelle génération Nexus 9300EX. La commutation peut grâce à la technologie Cloud Scale s’adapter à l’échelle du cloud avec une densité de endpoints multipliée par 7.

Pour des informations plus détaillées je vous renvoie à ce livre blanc technique qui compare le design de l’ASIC CloudScale à d’autres design de « silicon merchant »

A lire également : Why Network Silicon Innovation Is Critical to Next-Generation Datacenters

Cisco et MapR innovent avec une nouvelle solution pour SAP HANA

Après avoir été le premier à certifier dès 2011 des appliances HANA Scale-out avec deux fournisseurs et technologies de stockage différentes, EMC VNX en mode block et NetApp FAS en mode fichier (voir ce billet), Cisco continue à innover dans le monde HANA en annonçant récemment  la certification d’une nouvelle appliance HANA Scale-out construite entièrement avec des serveurs Cisco UCS et la technologie MapR Converged Data Platform pour le stockage.

Voyons en détails de quoi il s’agit et les caractéristiques de cette nouvelle solution HANA.

Le marché du stockage connait en ce moment de profonds changements avec plusieurs évolutions telles que le remplacement des disques HDD par les disques SSD,  l’arrivée des technologies SDS (Software Defined Storage) pour le Big Data entre autres, et les solutions d’hyperconvergence sur lesquelles Cisco vient également de se positionner (lien) avec la gamme Cisco UCS Hyperflex. Le dénominateur commun de ces évolutions et la motivation des clients qui les adoptent est de toujours rechercher la solution technologique et économique optimale pour chaque type de charge applicative. Par ailleurs, Cisco et SAP collaborent activement sur SAP HANA VORA .Dans ce contexte, Cisco souhaite donner aux utilisateurs HANA un choix plus large de technologies de stockage certifiées pour HANA.

HANA scaleout with MapR architectureComme illustré ci-contre, la nouvelle appliance HANA Scale-out certifiée par Cisco est similaire dans son architecture à toutes les solutions UCS HANA Scale-out ou HANA TDI, à savoir:

  • les serveurs HANA sont des serveurs  lames B460-M4 équipés des processeurs Intel Xeon E7-8880v3 et de 512 à 2TB  RAM sous RedHat Linux,
  • raccordés bien évidement à  une paire de Fabric Interconnect UCS qui sont le cœur réseau de l’appliance
  • sur lesquels est directement connecté le système de stockage persistent dédié à HANA.

Cette architecture est la plus simple et la plus compacte de toutes les solutions HANA Scale-out du marché. Elle est aussi la plus évolutive quand il s’agit d’augmenter la capacité de HANA en scale-out ou de mutualiser plusieurs instances HANA en mode TDI, car le rajout de serveurs et de stockage supplémentaire se fait sans ajouter de composants réseaux intermédiaires.

Les nouveautés de l’appliance UCS HANA scale-out avec MapR sont les suivantes :

  • Les Fabric Interconnects sont les nouveaux modèles UCS 6332UP qui proposent 32 ports 40G qui permettent de garantir largement les débits réseaux exigés par HANA, mais aussi par le système de stockage. Cisco est ainsi le premier fournisseur à certifier une solution HANA bâtie sur un cœur de réseau à 40Gb.
  • Le système de stockage est composé de serveurs Cisco UCS C240-M4 équipés des processeurs Intel E5-2680v3, de 256GB RAM, de 2 disques SSD 400GB et 18 disques HDD 1.8TB. Ces serveurs tournent la solution logicielle MapR Converged Data Platform sous RedHat Linux. L’accès aux données utilise l’interface standard NFS fournie par MapR. Le cluster MapR doit comporter au minimum 3 serveurs et la certification HANA a été faite avec un ratio 2 :1, c’est à dire qu’il faut 1 serveur C240-M4 pour deux serveurs HANA B460-M4.

La solution MapR Converged Data Platform est une évolution de la suite logicielle Hadoop pour y intégrer tous les services de stockage dont une entreprise peut avoir besoin. Annoncée par MapR en décembre 2015, cette solution est le premier système de stockage qui offre non seulement toutes les fonctionnalités classiques d’un cluster Hadoop (incluant Spark), mais également des fonctions de stockage pour les flux de données continus (stream), des services base de données, et surtout un service de fichiers accessible par NFS standard. Ce service NFS est celui utilisé pour HANA.

MAPR converged data platformEn outre, MapR Converged Data Platform possède nativement des fonctions de haute-disponibilité, de  compression, de déduplication, de réplication (interne au cluster), de snapshot et  de réplication entre clusters qui en font un système de stockage flexible et complet pour SAP HANA. En particulier, la fonction de snapshot permet de réaliser un backup de HANA, et la réplication inter clusters est utilisable comme solution de « HANA Storage Replication » telle que décrite et supportée par SAP ici. Cette nouvelle solution de stockage certifiée pour HANA possède donc nativement toutes les fonctions nécessaire pour le déploiement et les opérations de HANA.

Le dimensionnement actuel du cluster MapR nécessite d’avoir au minimum 3 serveurs (pour le quorum) et a été certifié avec un ratio de 2 serveurs HANA pour un serveur MapR.

Cette solution est entièrement commercialisée par Cisco et bénéficie aussi du Cisco Solution Support pour SAP HANA, par lequel Cisco assure le support complet de tous les composants d’une solution HANA appliance ou TDI.

La certification de cette nouvelle technologie de stockage dans une appliance HANA scale-out est dès à présent disponible et un Cisco Validated Design (CVD) correspondant a été publié ici. Cette première étape sera suivie de nombreuses évolutions dans les prochains mois qui permettront la conception d’architectures de solution HANA innovantes 100% Cisco et personnalisées à chaque contexte client.

Mots-clefs :, , ,

La business Intelligence dépendante de la qualité des données.

Dans un monde qui va de plus en plus vite, les entreprises ont bien compris que l’avenir appartiendrait à ceux qui savent « faire parler les données ». Les outils de business intelligence et les applications analytiques sont devenues incontournables et sont de plus en plus souvent  utilisables en libre-service.  Le logiciel Cisco Data preparation réduit le temps nécessaire pour mettre à disposition des analystes des données qualifiées. Un gain de temps utile pour prendre de meilleures décisions plus rapidement.

Data preparation

La qualité des données augmente la pertinence des outils de Business Intelligence. Pour être efficaces les analystes doivent pouvoir travailler sur toutes les données y compris les plus récentes. Un vrai défi pour les directions informatiques qui dépensent de plus en plus de temps à préparer les données avant de les mettre à disposition. Elles doivent entre autres agréger les données de sources multiples, identifier les doublons et ajouter des données contextuelles. Avec la puissance des outils de business intelligence disponibles aujourd’hui, chaque minute perdue à préparer les données est du temps perdu pour la prise de décision.

Réduire le temps de préparation des données. La solution Cisco Data Preparation avec un serveur UCS peut améliorer ce processus et donner la possibilité aux analystes de travailler sur des données de plus en plus nombreuses et obtenir des analyses plus abouties. Ce logiciel est une application pour l’utilisateur final qui permet à des analystes business sans connaissance technique de facilement collecter, nettoyer, associer et enrichir les données brutes qui vont alimenter les analyses. Avec cette solution, les analystes peuvent :

  • Ajouter: Inclure des données sans se soucier de leur localisation que ce soient des données provenant de Data preparation architectureHadoop Distributed File System (HDFS), de bases de données relationnelles, de tableaux ou de fichiers plats.
  • Explorer: Identifier les problèmes de qualité des données en utilisant des outils de recherche full-text, des filtres et des histogrammes. La qualité des données est visualisée pour souligner les types de problèmes rencontrés avec les données (erreurs, doublons, manquantes etc..)
  • Nettoyer. Utiliser des algorithmes sophistiqués qui travaillent sur les données sans avoir besoin de coder ou de développer des scripts. Les analyses voient les incohérences et peuvent remplir les blancs, supprimer des données, renommer les duplications ou réaliser tous types d’action pour améliorer la qualité des données.
  • Formater. D’un simple clic il est possible de mettre les fichiers dans un format mieux adapté à l’analyse.
  • Enrichir. Ajouter des données contextuelles qui rendront les analyses plus précieuses.
  • Associer: Le logiciel Cisco Data Preparation détecte les attributs communs à de multiples fichiers et accélère ainsi la fusion de données.
  • Publier: Rendre les réponses directement disponibles à partir de to QlikView, Tableau, Microsoft Excel, et toutes autres applications compatibles avec Open DataBase Connectivity (ODBC)

 

Le logiciel Cisco Data Preparation fonctionne avec Apache Spark et utilise une architecture à quatre niveaux conçue pour l’interactivité, la préparation des données en libre-service et la scalabilité. Le logiciel Cisco est installé sur un serveur UCS . La configuration recommandée est basée sur des serveurs Cisco UCS C220-M4/C240 M4 avec deux processeurs Intel Xeon E5-2680 v3, 256GB de RAM

Mots-clefs :,

Une nouvelle architecture logicielle pour un monde hyper connecté

Poussée par les vagues d’innovations technologiques l’économie est en train de devenir numérique et impose aux entreprises de se transformer pour tirer parti de cette révolution. Pour s’y préparer Cisco a publié un document qui explique que dans ce contexte il faut repenser les architectures applicatives pour tenir compte d’un environnement hyper connecté et hyper distribué qui donne naissance à de nombreuses interactions et à une multitude de données et d’applications hors des centres informatiques..

Ecosystème airline

L’expérience client est devenue une préoccupation majeure. Le rôle des technologies dans l’activité des entreprises a évolué. A l’efficacité, qui a été longtemps la préoccupation majeure, est venue s’ajouter l’innovation et la création d’expériences utilisateur pour séduire et fidéliser des clients qui ont gagné en maturité et autonomie particulièrement en adoptant les applications mobiles. Les innovations, et les résultats économiques qui s’en suivent, découlent d’une série de tendances technologiques telles que le cloud, l’analytique, l’IoT, le machine learning . La convergence de ces technologies  a permis d’étendre les interactions entre l’entreprise et ses clients au-delà de ses applications traditionnelles. L’informatisation a contribué à automatiser le fonctionnement des entreprises en les structurant autour de grandes applications hébergées dans les datacenters. Le numérique quant à lui a sorti la technologie des murs du datacenter et de l’entreprise en les plaçant au plus près de l’utilisateur et du consommateur. Il a provoqué le développement d’une multitude de nouveaux usages et de nouveaux modèles d’affaires qui transforment profondément nos entreprises, notre société et notre mode de vie. Les applications qui auparavant reposaient totalement sur des données contenues dans des bases de données historiques doivent aujourd’hui tenir compte des interactions contextuelles en temps réel. Le business est devenu digital ou est en train de le devenir. Il y a urgence à repenser la manière de construire les architectures logicielles.

Hyper connexion et multitude applicative. Cette vague de nouvelles technologies représente une incroyable opportunité pour ceux qui sauront la saisir mais Gartner Pricipes Business digitalnécessite la mise en place de nouveaux modèles opérationnels pour réaliser cette transformation numérique.  Nous avions connu l’informatique distribuée, le numérique va plus loin et engendre une prolifération d’intelligence de traitement hyper distribué.  Le numérique en favorisant de nouveaux usages a donné naissance à une multitude d’applications et a mis à l’honneur les APIs (Application Programming Interface), pour faciliter l’intégration et l’évolution des applications, à tel point que certains n’hésitent plus à parler de « l’économie des APIs ». Dans ce contexte , les entreprises ne peuvent plus se limiter à des applications internes pour fournir de nouveaux service business , elles doivent intégrer des logiciels de partenaires ou des logiciels as a service dans leur écosystème pour tenir compte de la multitude d’équipements et de personnes qui interagissent dans ce monde hyper connecté.

Des principes d’architecture pour le business numérique. Gartner Virtualize Application servicesLe Gartner a publié « 12 principles of applications architecture for digital business and IoT » Sur ces 12 principes 7 traitent du design applicatifs.  L’ensemble de ces principes est détaillé dans la deuxième partie du document intitulé a « new software architecture for an Hyperconnected world ». Dans ce document   Cisco explique également comment appliquer ces principes et donne quelques cas d’usages utiles pour la compréhension. Cisco cite par exemple le cas d’un écosystème aérien qui illustre les interactions des systèmes connectés qui contribuent ensemble à la fourniture de services aériens. Nous ne sommes plus dans la prospectives mais dans la réalité. Les systèmes sont décloisonnés et interagissent ensemble pour fournir des services de plus en plus riches. Loin d’être un cas isolé cet exemple se retrouve de plus en plus fréquemment dans tous les domaines et souligne l’importance des nouveaux designs logiciels.

Le paradoxe de l’ouverture et de la protection. La convergence d’un écosystème en prise avec l’activité de l’entreprise, des architectures applicatives et des équipements à connecter pour supporter l’économie numérique constitue un paradoxe : celui d’offrir d’avantage d’ouverture en renforçant la protection. C’est à ce paradoxe que Cisco entend répondre en proposant des designs, des architectures et des logiciels d’automatisation et d’analytique. Pour aller plus loin sur ce sujet je vous invite à lire en détail le document « new software architecture for an Hyperconnected world ».

Big data : Il est temps de passer des PoC à la production

Le Big Data est passé dans le langage courant comme le cloud l’avait fait quelques années auparavant. Reste maintenant aux entreprises à le mettre en pratique pour se positionner dans l’ère du numérique et de l’économie de la donnée. Pour les engager à aller plus loin que le « Proof of Concept » la société JEMS group organise une journée dédiée à cette problématique à laquelle Cisco s’associera ainsi que d’autres partenaires technologiques. Le marché a considérablement évolué et les exemples d’usage ne manquent pas. Il est temps de s’y mettre..

JEMS

La guerre économique se mène sur le terrain de la donnée. Selon le contexte, l’utilisation des termes big data (données massives en français) peut évoquer soit le problème de la maitrise d’un déluge annoncé de données, soit l’opportunité de créer de la valeur à partir des données ou bien encore la solution pour résoudre le problème et saisir l’opportunité.  Le Big Data est à la fois un défi technique et un levier économique pour l’entreprise, c’est sans doute pour cela que beaucoup d’entreprises françaises en sont encore à l’étape de la découverte d’un cas d’usage qui se concrétise en maquette technique (ou Proof of Concept PoC). Passer de la maquette technique (PoC) à la production, c’est tout l’enjeu aujourd’hui. La guerre économique que se livre aujourd’hui les entreprises se mène sur le terrain de la donnée. Rester au niveau d’un PoC c’est prendre le risque de se voir distancer par ses concurrents ou par de nouveaux acteurs innovants qui auront bâti leur modèle d’affaire sur des plateformes de données. Les barbares du web ont déjà pris de l’avance et sont passés maitres dans la valorisation et la monétisation des données. Pour autant rien n’est perdu et aujourd’hui toute entreprise peut prétendre à l’utilisation de solutions Big Data. Le développement des données générées hors de l’entreprise, que ce soit par les réseaux sociaux, l’open data ou les objets connectés, constitue un gisement énorme de données qui vient enrichir les données internes de l’entreprise. Tout le monde est concerné par le Big Data

Le big data bénéficie d’un écosystème riche et complexe. Savoir que les données recèlent  une mine d’or est inutile si les cas d’usages et les nouveaux services n’ont pas été identifiés. Aujourd’hui les exemples ne manquent pas dans tous les secteurs d’activités.  Impossible de repousser l’échéance, peu importe que le projet prenne le nom de Big Data ou pas il est grand temps d’accélérer. On doit donc rentrer dans le domaine de la « science des données » (datascience) qui requiert un spectre de compétences allant du métier aux mathématiques en passant par l’infrastructure technique.  Entre la collecte des données provenant de sources multiples et la création d’un service ou d’un usage basés sur l’exploitation de ces données les étapes sont nombreuses et font appel à un écosystème de plus en plus riche qui peut paraitre complexe.  Peu à peu Big Data s’est structuré autour de grandes fonctions qui répondent aux impératifs du Big Data.

  • Acquisition de données
  • Intégration de données
  • Base de données
  • Analyse des données
  • Transformation des données
  • Visualisation des données
  • Création d’un service

Les acteurs de cet écosystème ont appris à positionner leurs solutions et reconnu le besoin de collaborer pour obtenir une intégration plus fluide entre les composants d’une architecture Big Data voire pour offrir des ponts entre des solutions qui auparavant se présentaient comme concurrentes. Si aujourd’hui toutes les entreprises, quelle que soit leur taille, peuvent bénéficier d’une solution Big Data on se doute bien que la notion de « big » sera sensiblement différente entre un « Google » et une PME. Le Big Data se démocratise et on trouve de nombreuses offres dans le cloud tant pour la partie infrastructure matérielle que pour des logiciels de machine learning par exemple.

Partageons les meilleures pratiques Big Data. Sur ce blog j’ai récemment faire part de la stratégie de Cisco dans le Big Data, de l’offre de Cisco Data virtualisation et des partenariats avec MAPR et SAP HANA. Pour aller plus loin et aborder toutes les facettes du Big data Cisco vous invite à participer le 2 juin à la journée JEMS Dataconnect. Le JEMS data connect est un événement dédié aux utilisateurs Big Data. Il aura lieu à la Grande Arche le 2 juin 2016 et sera l’opportunité de découvrir les dernières innovations et les meilleures pratiques Big Data pour enfin passer les projets en production ! Quatre conférences seront animées conjointement avec Cisco, Information Builders, MapR, Outscale et Talend. Fini les POC, bienvenue dans l’ère du Big Data industrialisé. L’inscription est gratuite

Mots-clefs :

Cisco et T-Systems publient un livre blanc sur SAP HANA

livre_blancLe groupe  T-Systems, filiale de Deutsche Telekom, est la troisième entreprise de services numériques en Europe et un partenaire historique de SAP. T-Systems a choisi les technologies de Cisco (réseaux Nexus  et serveurs UCS)  pour bâtir son offre Cloud, basée sur Dynamic Cloud Platform. Cette plate-forme héberge une gamme complète de services cloud de type IaaS, Paas ou Saas. Parmi ces services, on trouve une offre Dynamic SAP & HANA qui a déjà convaincu un certain nombre de clients internationaux et français.

Dans ce contexte, j’ai eu le plaisir de travailler avec Samuel Grevillot, consultant SAP HANA chez T-Systems et Le Monde Informatique, sur la rédaction d’un livre blanc consacré à la question « Votre infrastructure est-elle prête pour SAP HANA ? » Dans ce livre blanc,  nous aidons les décideurs informatiques à se poser les bonnes questions avant une migration vers SAP HANA. Nous y développons des sujets tels que :

  • Quels sont les impacts de SAP HANA sur les infrastructures existantes ?
  • Quels sont les critères à prendre en compte dans le choix des serveurs pour HANA ?
  • En quoi l’architecture et les serveurs Cisco UCS répondent-ils aux besoins spécifiques de SAP HANA ?

Ce livre blanc est dès à présent disponible ici sur CIO Practice, le site de T-Systems qui accompagne les directions informatiques dans leur transformation numérique.

Mots-clefs :, , , ,

Une appliance CISCO certifiée SAP HANA avec MapR Converged Data Platform

Chaque entreprise essaye de trouver ou de garder sa place dans une économie devenue numérique. Dans ce contexte il est impératif, pour rester compétitif, de savoir accéder et d’analyser rapidement des données qu’elles soient internes ou externes à l’entreprise. Dans de nombreux cas ces données dites « hot » sont déjà dans des environnements SAP. De nouvelles solutions Cisco pour SAP profitent des débits 40 G offerts par une nouvelle génération de Fabric Interconnect pour améliorer l’efficacité des environnements SAP

HANA stratégique pour SAP. SAP a clairement annoncé la couleur, HANA et S/4HANA sont les fondations sur lesquelles SAP va construire ses futures solutions.  Bien que les autres bases de données (Oracle, IBM DB2 et MicrIDCosoft SQL server) soient encore supportées jusqu’en 2025, les investissements en R&D de SAP seront consacrés principalement aux innovations autour de sa propre base de données SAP HANA. Les infrastructures nécessaires pour supporter efficacement les environnements SAP HANA utilisent soient des appliances SAP HANA (tous les composants matériels sont certifiés par SAP et le logiciel préchargé) ou le Tailored Datacenter Integration (TDI) qui permet d’intégrer des composants matériels déjà installés chez le client (le logiciel est installé par un prestataire de services).

Des appliances SAP HANA qui se différentient par leur conception. Tous les fournisseurs d’appliances SAP HANA suivent à la lettre les préconisations de SAP mais ce n’est pas pour autant qu’elles sont interchangeables. Les plateformes se distinguent les unes des autres que ce soit au niveau du design d’architecture, du choix des composants ou bien encore de la simplicité  de l’administration. Une étude réalisée par le cabinet IDC, à la demande de Cisco,  analyse la valeur ajoutée de l’infrastructure intégrée UCS pour SAP et HANA.

IDC UCS horizontal

Hadoop et HANA les meilleurs amis du monde. L’année dernière Cisco avait annoncé un partenariat et son engagement avec SAP HANA Vora qui est un Framework basé sur Spark Apache pour de l’analyse interactive en mémoire sur Hadoop. SAP Vora sur les serveurs UCS et ACI offrent une administration unifiée sur l’ensemble SAP HANA et les distributions Hadoop. En début d’année 2016 Cisco a annoncé la disponibilité d’un Cisco Validated Design (CVD) , Cisco UCS Integrated Infrastructure for Big Data and Cisco ACI with SAP HANA Vora for In-memory Analytics , qui fournit étape par étape les recommandations d’architectures qui ont été testées et documentées pour faciliter et accélérer des déploiements d’architectures fiables.

Des performances améliorées avec la nouvelle génération de Fabric Interconnect FI.  La solution UCS Integrated Infrastructure for SAP HANA a été conçue pour optimiser les performances des environnements SAP HANA en tirant partie de la troisième génération de Fabric Interconnect (UCS 6332) certifiée par SAP et de son débit 40 G pour éliminer les goulets d’étranglement réseau. Ces améliorations de débits ont des impacts évidents sur les applications SAP. On peut charger plus rapidement les données dans les nœuds HANA que ce soit au démarrage ou pour des raisons de restauration. Les communications entre nœuds sont également considérablement accélérées et améliorent les temps de réponses lors de requêtes. Le fabric interconnect 40 G améliore les environnements TDI et permet de mieux intégrer SAP HANA avec des applications analytiques et de chargement de données. Cela complémente les solutions  de TDI shared storage réalisées avec des partenaires comme EMC et NetApp.

 Une appliance certifiée SAP HANA avec MapR Converged Data Platform. Pour des applications SAP HANA telles que Business Warehouse, Cisco a créé une nouvelle appliance certifiée SAP HANA basée sur l’infrastructure intégrée UCS  et qui incorpore la plateforme «MapR Converged Data Platform ».

MAPR converged data platform

Cette appliance inclut le système de fichier de MapR qui supporte les préconisations du stockage persistent de SAP HANA. La plateforme Converged Data de MapR intègre Hadoop et Spark avec des fonctionnalités de base de données temps réel to supporter les nouvelles générations d’applications big data comme SAP HANA. Des serveurs MapR Hadoop hébergeront SPArk et SAP HANA Vora par exemple.

Mots-clefs :, , ,

Cisco et Apprenda veulent accélérer l’usage du PaaS avec le Cloud Hybride

Poussées par la frénésie du numérique, les entreprises deviennent des fabricants d’applications. Les nouveaux usages et les nouveaux services dépendent de leur capacité à mettre rapidement sur le marché des applications. Dans le même temps les entreprises doivent continuer à faire évoluer les applications historiques qui forment la colonne vertébrale de l’entreprise. A l’occasion du « EMEAR Data Center Partner Connection 2016” qui se tenait à Rome la société Apprenda est revenue sur l’accord signé avec Cisco pour revendre sa solution PaaS adaptée au Cloud Hybride et aux exigences des grandes entreprises.

Apprenda Cisco top benefices

Pour être efficace les développeurs doivent se concentrer sur leur mission : écrire du code. Selon une étude IDG 60 % du temps des développeurs est utilisé à d’autre taches que la programmation Les développeurs doivent se délester de ces taches et ne pas avoir à se soucier de l’infrastructure matérielle sur laquelle tournera l’application. L’utilisation d’une Plateform as a Service (PaaS) va dans ce sens. Les développeurs peuvent développer plus rapidement et les équipes de production obtiennent de meilleur rendement de leurs infrastructures (Lire 5 Ways Private PaaS Boosts Developer Productivity). On peut ainsi standardiser les interactions entre utilisateurs, développeurs et l’équipe de production sans faire de compromis. Malheureusement les offres PaaS sont généralement dans le cloud public et délaissent  ainsi un large pan d’applications. Certaines applications sont jugées trop critiques pour bénéficier d’un cloud public pour des raisons de sécurité ou de conformité, d’autres ne sont pas supportées car développées avant le cloud.

Une seule et unique plateforme pour les applications existantes et nouvelles. Pour élargir l’intérêt du PaaS à toutes les applications existantes ou nouvelles, que ce soit en cloud privé ou public, la société Apprenda propose une solution de PaaS privé.  Cette notion de «PaaS privé», ou de PaaS entreprise, souligne le fait que la solution PaaS d’Apprenda est gérée par la direction informatique mais qu’elle peut être installée sur des infrastructures résidant dans un data center/cloud privé ou dans un cloud public (IaaS). Cette solution permet de transformer n’importe quelle infrastructure en une plateforme de cloud hybride régie par des règles applicatives

Simplifier la migration des applications entre cloud public et informatique interne. Ceci est possible grâce à l’abstraction des applications vis-à-vis des infrastructures. Le temps de mise en production est également réduit par l’utilisation de paternes d’architectures communes à la plupart des applications et des clouds. Ces paternes sont construites dans le PaaS en tant que middleware pour réduire le temps de codage. La console en libre-service du PaaS permet aux développeurs de charger du code compilé et d’un click de bouton publier ce code sur l’infrastructure selon des règles automatisées.

Etendre l’usage du PaaS avec l’accord Cisco- Apprenda. En début d’année  Cisco a signé un accord avec Apprenda pour revendre la solution seule ou intégrée avec Application Centric Infrastructure ACI ( la solution SDN de Cisco), Metapod (une solution cloud prête à l’emploi, basée sur OpenStack) et les serveurs UCS.

Apprenda Cisco architectures

Le document « Use Cases for Apprenda with Cisco Application Centric Infrastructure » revient en détail sur les différents cas d’usage permis par cet accord et tout particulièrement dans des contextes de :

  • Isolation. En permettant l’abstraction des politiques réseau, ACI donne la possibilité à la plateforme Apprenda d’incorporer ces règles automatiquement dans son propre modèle de règles. L’intégration dynamique des politiques réseaux permet de répondre aux besoins d’isolation entre applications et de se conformer ainsi aux impératifs de réglementation et de sécurité. L’utilisation des ressources est également améliorée grâce à une densité applicative plus forte.
  • Cloud hybride sécurisé. Tout le monde s’accorde pour dire qu’aujourd’hui le cloud est hybride. Concrètement cela signifie qu’en ce qui concerne les applications de nombreux cas de figure sont possibles. Infrastructure dans le cloud public ou non, environnement virtualisé ou bare metal etc… La solution Apprenda donne la possibilité de gérer les ressources d’infrastructure comme une unique fabrique logique. Des politiques de déploiement permettent également de mapper de manière précise et fine les applications ou les composants d’infrastructure selon des propriétés spécifiques et configurables.

Supporter la transformation numérique avec ACI. Dès l’annonce d’ACI, l’ouverture de la solution était clairement mise en avant. La rapidité avec laquelle le numérique se développe impose des collaborations techniques pour offrir des fondations solides et sures.

ACI Apprenda strategie V2

Tous les aspects doivent être couverts. L’accord avec Apprenda illustre le cas du PaaS privé et s’inscrit dans cette stratégie de complémentarité par le partenariat ou l’acquisition.

 

Les serveurs UCS Mini et la série M gagnent en performance avec les nouveaux processeurs Intel

Les prouesses technologiques réalisées dans le domaine des performances ont contribué à la révolution numérique que nous vivons. Les performances atteintes dans des dimensions réduites, à des coûts inimaginables il y a encore quelques années, ont étendu incroyablement le champ des possibles. Les progrès récents accomplis dans l’intelligence artificielle en témoignent. Cette incroyable puissance informatique n’est plus le seul fait des grands data centers. L’exemple des serveurs UCS Mini et des UCS-M alliés aux nouveaux processeurs Intel démontre qu’un petit centre peut se doter d’infrastructures performantes.

9 benchmarcks remportés par les serveurs UCS. UCS Mini est un serveur optimisé pour les petits environments informatiques tels que des petits centres distants, des magasins, ou bien encore des centres informatiques qui souhaitent isoler physiquement de serveurs. Cette solution est particulièrement adaptée aux clients qui ont besoin de quelques serveurs mais qui veulent également bénéficier des possibilités d’administration offertes par le logiciel UCS manager. Le serveur UCS Mini supporte les lames B200 M4 et les racks C220 M4 et C240 M4. Récemment Intel a annoncé la famille de processeurs Xeon E5-2600 v4. Le jour même Cisco remportait 9 records mondiaux de benchmark avec le serveur UCS.

Intel V4

Un effet indéniable sur les performances comme on peut le remarquer sur le graphe. Pour plus de détails je vous renvoie sur le « performance brief ».  Les serveurs UCS Mini ont été mis à jour pour supporter cette nouvelle famille de processeurs et bénéficient ainsi de plus grandes performances grâce aux améliorations d’architectures qui ont augmenté le nombre de cœurs et de threads par processeur.

L’infrastructure à la carte. Les serveurs modulaires M2814 M-Series ont également été mis à jour. Ces serveurs UCS Mfont partie de la ligne de produits composable infrastructure. Cette M-Series désagrège les composants CPU et mémoire du reste des composants des serveurs. Cela permet de tirer avantage des améliorations des processeurs et de mémoire comme ceux de la série Intel Xeon E5-2600 v4 tout en préservant l’investissement sur les autres composants. Ce principe de modularité apporté dans la série M permet d’optimiser les performances applicatives en composant (d’où son nom de composable architecture) et en faisant évoluer les sous-systèmes pour atteindre le meilleur ratio de traitement, d’entrées sorties et de stockage par incrément. Le design autorise de faibles incréments, les applications peuvent ainsi avoir le nombre de nœuds de traitement necessaires pour atteindre les performances et la disponibilité souhaitées.

Après 7 ans sur le marché la gamme des serveurs, la famille UCS montre sa grande polyvalence et le souci d’apporter le même niveau d’innovation et de performance aux grands centre comme aux petits.

Lire également: « Software Defined Infrastructure : Composer son infrastructure dynamiquement par logiciel « 

Recentrer l’entreprise sur les données avec SAP HANA et SAP S/4HANA

A l’initiative de Dimension Data et itelligence,  le cabinet IDC a réalisé un livre blanc sur SAP HANA et la business suite SAP S/4HANA. Cette analyse permet de comprendre les évolutions de SAP HANA depuis son annonce en 2011. J’en reprends l’essentiel dans ce billet et vous invite à le télécharger.

DiData

Les leaders seront ceux qui sauront traiter le plus de données en temps réel. Le succès des GAFA et de certaines startups nous a fait prendre conscience de l’importance de la donnée. Tout le monde est à peu près convaincu aujourd’hui que la donnée est devenue le moteur ou tout du moins le pétrole de la nouvelle économie. La maitrise des données revêt un enjeu critique pour les entreprises et les oblige à résoudre l’équation volume, performance et variété des données. C’est dans cette perspective que SAP HANA avait annoncé en 2011 la plateforme logicielle SAP HANA pour rendre possible l’analyse en temps réel d’importants volumes de données structurées et non structurées. Depuis de nombreuses évolutions ont eu lieu portant notamment sur les modèles de déploiement et sur les applications supportées que le livre blanc d’IDC détaille.

 

Le déploiement de SAP HANA : A l’origine le déploiement n’était possible que sous la forme d’une appliance batie sur du matériel de différents constructeurs (dont Cisco) qui avait été validés par SAP. Le logiciel était préinstallé et l’appliance était dédiée uniquement à SAP HANA.  Depuis deux nouveaux modèles de déploiement sont venus s’ajouter à l’appliance. Il est désormais possible d’utiliser certains composants matériels qui seront partagés avec d’autres applications, c’est le modèle HANA Tailored Data Center Integration (TDI). Dans ce cas le logiciel est installé par un prestataire de services comme Dimension Data et itelligence.  Dernier cas possible on peut exploiter des équipements dédiés ou mutualisés dans le cloud avec HANA as a Service.

La nouvelle génération de Business Suite : SAP S/4HANA.  Les applications de la Business Suite sont les applications ERP de SAP, le CRM, les applications de Supply Chain ou de gestion de la relation fournisseur qui tournent sur les bases de données SAP. SAP Business Suite est disponible sur SAP HANA depuis 2013. Annoncée en février 2015 cette quatrième génération de SAP Business Suite a été conçue pour exploiter tout le potentiel de la base de données HANA. Le déploiement est simplifié, il est le même que l’on soit dans un contexte on premise ou dans le cloud. Simplification également pour les traitements : Transactionnels (OLTP) et analytiques tourneront dans un même environnement. SAP HANA adopte FIORI comme nouvel interface utilisateur et propose une solution générique SAP S/4HANA EM (Entreprise Management) ainsi qu’un ensemble de solutions métiers préconfigurées. Un modèle de données a également été intégré pour optimiser les performances des applications.

L’enjeu de la migration : transformer l’entreprise. SAP HANA est une base de donnée in Memory, migrer vers SAP S/4HANA impose donc une migration des bases de données existantes. Au-delà de ces aspects techniques et de l’existant du client il est nécessaire de se projeter dans les nouveaux usages. Si l’optimisation d’une situation existante peut être une première étape il devient aujourd’hui impératif de se projeter dans de nouveaux usages ou l’agilité de l’entreprise dépend grandement de sa capacité à traiter en temps réel une multitude de données.

Une soirée pour comprendre au-delà de la solution technique : Dimension Data et itelligence ont développéIDC SAP WP une proposition de valeur qui permet d’intervenir tant sur un modèle de développement du data centre que sur du consulting métier, afin de limiter les risques de migration vers SAP S4/HANA. Pour comprendre les enjeux, bâtir les business cases et accélérer le déploiement Dimension Data et Itelligence se sont associés à IDC pour une soirée d’échanges et d’informations qui se déroulera le mardi 13 avril à Paris. Pour s’inscrire cliquer ici.

Mots-clefs :,

Pfizer optimise l’intégration des données avec Cisco Data Virtualization

L’information est plus que jamais le nerf de la guerre. Elles doivent être de qualité et accessibles rapidement. L’élaboration des stratégies d’entreprises et leur bonne exécution en dépendent. L’exemple de Pfizer illustre parfaitement cet impératif appliqué à l’industrie pharmaceutique. Dans ce contexte le choix de la solution Cisco Data Virtualization s’est révélée efficace pour améliorer le processus de développement de médicament.

Cisco datvirtualization benefices

La recherche médicamenteuse fait appel à de multiples sources de données. La mise sur le marché d’un nouveau médicament prend une quinzaine d’année. Chaque année l’industrie pharmaceutique dépense des milliards d’euros dans la recherche et les tests. Il est donc crucial de pouvoir parier longtemps à l’avance avec le minimum de risques sur les médicaments les plus prometteurs. Dans la division informatiques de Pfizer des scientifiques et des responsables de gammes de médicaments doivent accéder et analyser des données provenant de sources diverses et variées. Elles peuvent provenir des bases de données scientifiques (diagrammes de structures moléculaires, résultats de tests de recherches antérieurs, détail sur les composants entrant en ligne de compte à différentes étapes du développement) mais également  d’informations business  qui portent sur le nombre de chercheurs impliqués dans un projet et le coût des ressources engagées.

La complexité de l’intégration des données. L’intégration des données provenant de multiples sources représente le plus gros goulet d’étranglement  durant le processus de découverte de médicaments. Pour réaliser cette intégration des données Pfizer utilisait différentes approches. De l’intégration maison entre l’application et les la source de données, de la réplication de fichier ou bien un processus ETL (Extract, Transform, Load) pour créer des datamarts et un entrepôt de données. Ces modes d’intégration de données ont eu pour conséquences d’augmenter le nombre de silos de données et de complexifier la tâche des équipes informatiques pour maintenir la qualité et la cohérence des données. Le processus ETL rajoutait un temps supplémentaires qui pouvait se compter en semaines et rendre parfois la donnée obsolète.

Unifier la vue de toutes les sources de données avec Cisco Data Virtualization. Pour simplifier cette intégration de données et raccourcir le temps d’accès aux informations, Pfizer s’est orienté sur la solution Cisco Datavirtualization (voir la courte video en français sur la data Virtualization).

Cisco datavirtualization vue unifiée

Grâce à une couche d’abstraction Pfizer a obtenu une vue unifiée de l’ensemble des sources de données tout en évitant d’avoir à dupliquer des données et à créer de nouveaux silos. Les temps d’accès ont été ainsi réduit et les infrastructures réduites :

  • Temps pour développer un projet réduit de 50%
  • Amélioration de la qualité des données de 5%
  • Réduction des coûts d’infrastrcuture 10%

Cisco accentue l’hyperconvergence avec HyperFlex

L’économie numérique a mis les applications à l’honneur. D’elles dépende la capacité des entreprises à innover et offrir de nouveaux services. Tous les efforts sont donc faits pour accélérer le développement et la mise en production des applications sous peine d’être rapidement devancé par la concurrence ou de nouveaux entrants. On s’attache à fluidifier toutes les étapes de production d’applications avec le mouvement DevOps et dans le même temps on simplifie la conception, la mise en place et l’évolution des infrastructures. Les architectures convergentes simplifient ces étapes. L’annonce du système hyperconvergent HyperFlex par Cisco s’inscrit dans ce souci d’agilité à apporter aux infrastructures.

Les data centers adoptent les systèmes intégrés. Gartner a observé cette évolution vers des systèmes de plus en plus intégrés qu’il a classés en 3 catégories :

  • Integrated stack system (ISS)  l’infrastructure matérielle est intégrée au logiciel applicatif fournissant ainsi une solution spécialisée pour une application.
  • Integrated infrastructure system (IIS) : les composants matériels (serveur, stockage et réseau) sont intégrés pour un usage généraliste (Vblock, Flexpod)
  • Hyperconverged integrated system (HCIS) : l’intégration réunit réseau, serveur et stockage. Le stockage réside dans chaque serveur et est mutualisé. Ces solutions sont centrées sur la virtualisation. Le logiciel qui gère l’ensemble se trouve soit nativement dans l’hyperviseur, soit dans une VM. Le logiciel assure des fonctions de gestion du stockage comme le recovery, la réplication, la déduplication et la compression.

L’intérêt se confirme pour les solutions hyperconvergentes. Sur un marché du stockage qui croit globalement faiblement en termes de revenu, les solutions intégrées s’attendent à une croissance de 24 % par an jusqu’en 2018. SI cette croissance est encore largement portée par les infrastructures convergentes  comme Vblock ou Flexpod , les systèmes hyperconvergées HCI font une  percée remarquée. Gartner estime qu’en 2018 plus d’un tiers des solutions intégrées seront des infrastructures hyperconvergentes. Une prévision qui pourrait être dépassée puisque beaucoup considèrent que 75 % du marché des systèmes intégrés pourraient être adressés par des infrastructures hyperconvergées. Cet intérêt pour l’hyperconvergence est dû à la possibilité de gérer de manière logicielle le stockage et les serveurs comme un pool de ressources virtuelles présenté aux applications.  Les premiers utilisateurs ont vite perçu les avantages :

  • Optimisation de l’utilisation des ressources
  • Evolution (scalabilité) particulièrement modulaire
  • Utilisation de stockage interne mutualisé qui évite la gestion complexe de SAN externe. IDC tendance stockage

Dans son analyse du marché du stockage du 11 mars , IDC constate le déclin du stockage externe au profit du stockage interne dans les serveurs et des solutions software Defined .

L’hyperconvergence va tirer profit de la forte intégration du réseau dans les serveurs UCS. En lançant les serveurs UCS en 2009 Cisco avait permis de gérer l’infrastructure matérielle comme du code grâce au logiciel UCS manager, en d’autres termes faire de « l’infrastructure as a code ». Les définitions des identités et des configurations étaient déjà réalisées par le logiciel. Une approche de type « Software Defined » combinée à une intégration forte avec le réseau puisque l’équipement « Fabric Interconnect » contient le logiciel de gestion des UCS (UCS manager).

Hyperflex architecture

Les premières générations de plateformes d’hyperconvergence ont fait revenir le stockage au sein des serveurs en utilisant des logiciels de Software Defined Storage. Ces logiciels mutualisent le stockage de différents serveurs et apportent des fonctions avancées de gestion de stockage qui ont progressivement limité l’intérêt de SAN externe. En combinant les serveurs UCS avec le logiciel Springpath Cisco crée une nouvelle génération de plateforme d’hyperconvergence qui bénéficie d’une forte intégration réseau.

Cisco accentue l’hyperconvergence. C’est sans doute une des grandes différences avec des systèmes d’hyperconvergence existants. La totale intégration de la fabrique réseau est inhérente à la solution HyperFlex de par la conception des serveurs UCS autour de la notion de fabrique unifiée. Le système Cisco HyperFlex  doit être considéré comme une software-defined infrastructure qui combine:

  • Software-defined computing avec les serveurs Cisco UCS
  • software-defined storage avec le logiciel Cisco HyperFlex HX Data Platform
  • software-defined networking (SDN) avec Cisco unified fabric

Ce qu’il faut retenir de Cisco HyperFlex HX Data Platform. La solution Cisco HX Data Platform dispose d’un contrôleur  qui s’exécute dans une machine virtuelle sur chaque nœud du cluster. C’est ce contrôleur qui va gérer le système de fichier distribué et prendre en compte les entrées sorties (I/O) des machines virtuelles hébergées. La solution peut utiliser trois types de nœud en fonction de l’usage ciblé.

Hyperflex solutions

Hyperfelex est riche en fonctionnalités et je vous invite à lire le white paper « next generation data platform for hyperconvergence  » pour vous en rendre compte.  En attendant voici quelques points à retenir:

  • Gestion de données de classe entreprise. On y trouve tout ce qui est nécessaire à un environnement de stockage distribué (réplication, déduplication, compression, thin provisonning , cloning, snapshot etc..)
  • Evolution simple et modulaire. Le cache et la capacité peuvent au sein d’un nœud ou bien par rajout d’autres nœuds. Les nouveau nœuds d’un cluster sont automatiquement reconnus et ajoutés en quelques clics de souris
  • Optimisation continue des données avec déduplication et compression des données inline
  • Placement dynamique des données dans les différents supports de stockage pour optiiser les performances et la résilience. Le placement de la donnée est réajusté lors des évolutions d’un cluster.
  • Support de données « cloud natives » par l’intermédiaire d’APIs

Convergence ou Hyperconvergence ? Deux approches complémentaires qui coexisteront encore  longtemps et qui militent ensemble pour réduire le temps consacré à la conception et à la gestion des infrastructures. La priorité est à la réactivité et à la productivité. L’époque qui enfermait le stockage, les serveurs et le réseau dans des silos séparés est en train de s’éteindre. L’efficacité est à ce prix et les organisations vont devoir en tenir compte.

Lire également :

Cisco HyperFlex Availability powered by Veeam: What you need to know

 

Mots-clefs :,

Cisco étoffe son offre de logiciels pour le Cloud avec l’acquisition de CliQr

Cisco continue d’enrichir son offre de logiciels pour le Cloud avec l’annonce le 3 mars dernier de son intention d’acquérir la société CliQr. L’opération devrait être finalisée avant mai 2016 pour un montant de 260 millions de dollars

 

CliQr propose CloudCenter, une plateforme d’orchestration d’applications dans cloud.

CLiQr integration

CloudCenter modélise, déploie et gère les applications dans des environnements bare metal , virtualisés ou en containers. L’objectif de Cisco avec cette acquisition est de simplifier et d’accélérer le déploiement de cloud par ses clients, que ces clouds soient privés, publics ou hybrides. La plateforme CloudCenter de CliQr s’intègre déjà avec de nombreux commutateurs datacenter  de Cisco (Application Centric Infrastructure ACI inclue) et avec les serveurs UCS

 

La force de CloudCenter réside dans sa technologie « Application Defined ».

CliQr composants

Cette solution combine un profile d’application agnostique avec un orchestrateur spécifique pour le cloud. Le profile d’application définit les besoins en termes de déploiement et d’administration pour la pile applicative. L’orchestrateur déploie à la fois l’infrastructure et l’application en utilisant les meilleures pratiques pour chaque environnement.

Gérer le cycle de vie des applications. Grace à cette plateforme qui se veut intuitive, les clients peuvent gérer la totalité du cycle de vie de leurs applications dans des environnements hybrides simples ou complexes. La plateforme CloudCenter de CliQr se prête parfaitement à des organisations informatiques modernes qu’elles soient en train de migrer leurs premières applications dans le cloud, de déployer des services informatique en libre service ou désireuses d’obtenir une meilleure visibilité et un meilleur control sur un portefeuille important d’utilisateurs, d’applications et de clouds.

La solution CloudCenter de CliQr présente de nombreux intérêts :

  • Un profile unique pour un déploiement multiple.  Le client peut créer un seul profile applicatif qui est simple à sécuriser et à déployer dans le datacenter et dans le cloud privé ou public
  • Garantir des politiques cohérentes. La solution applique automatiquement des contrôles d’accès et des politiques de sécurité par application. Il s’assure que ces politiques se déplacent avec l’application.
  • Optimiser les applications dans des environnements de cloud hybrides. CliQr mesure à la fois le prix et la performance des applications dans n’importe quel environnement cloud. L’utilisateur est aidé dans ses décisions pour trouver la meilleure place pour l’application dans le datacenter ou le cloud
  • Offrir une interface unique de gestion. Le client obtient une complète visibilité et le contrôle sur les applications, les environnements cloud et les utilisateurs.

 

En attendant la finalisation de l’acquisition vous pouvez trouver plus d’informations sur la solution CloudCenter sur le site CliQr

Mots-clefs :

L’analytique à la rencontre des objets connectés

En novembre 2015 dans un billet intitulé « Acquisition de ParStream : Cisco renforce ses solutions pour le Fog Computing » je vous avais expliqué comment cette offre allait pouvoir répondre aux nouveaux besoins de traitements de données liés au développement des objets connectés. Pour mieux comprendre l’intérêt de cette solution j’ai demandé à Olivier Neraut ,sous forme d’une courte vidéo, de nous donner un exemple concret d’utilisation.

  Nous avons choisi un sujet d’actualité avec la COP21 et le changement climatique : les éoliennes.  Cet exemple peut être appliqué à tout environnement d’équipements connectés hyper distribués. Pas besoin de compétence technique pour regarder la vidéo et comprendre que ParStream est un composant clé de la stratégie IoT de Cisco.

Pour ceux qui veulent en savoir plus vous pourrez retrouver Olivier Neraut sur le stand Cisco au salon big data les 7 et 8 mars 2016salon big data

 

Simplifier l’accès aux données du Big Data avec Cisco Data Virtualization

Quelques minutes pour en savoir plus sur Cisco Data Virtualization. C’est ce que je vous propose sous forme d’une vidéo sur ce logiciel qui fait partie de l’offre Big Data de Cisco.

 

salon big dataTout le monde s’accorde à dire que la donnée est au cœur de la nouvelle économie, reste à comprendre comment les exploiter. Les solutions sont nombreuses. Elles sont quelques fois concurrentes mais souvent elles adressent des aspects différents du Big Data. De la concurrence à la complémentarité il n’est pas toujours simple de s’y retrouver au début. Il faut revenir aux questions de base : quelles types données pour quels usages. Dans le billet « le Big Data et l’IoT ouvrent de nouvelles perspectives pour l’analytique » je dressai les grandes lignes de l’offre de Cisco dans ce domaine. Cette fois ci je vous propose un focus sur le produit Cisco Data Virtualization, et pour vous simplifier la tâche nous avons réalisé avec Olivier Neraut une courte vidéo en français pour connaître l’essentiel.

 Vous pourrez retrouver Olivier Neraut sur le stand Cisco au salon du Big Data Paris les 7 et 8 mars 2016 et lui poser vos questions sur le Big Data.

Mots-clefs :,

Des APIs ouvertes augmentent la valeur pour le client.

Les fournisseurs de l’IT doivent ouvrir leur produits en offrant des APIs pour simplifier l’intégration de leurs solutions dans un data center ou un cloud. L’efficacité, l’agilité et l’évolutivité des data centers et des clouds en dépendent. Cette intégration nécessaire et l’utilisation d’APIs sont illustrées par Cisco Application Centric Infrastructure ACI dans un environnement virtualisé VMware.

Un modèle de règles cohérent pour le cloud et la production. Les architectes cloud et les responsables de production ont besoin d’un modèle de règles cohérent pour l’ensemble des applications et pour les infrastructures physiques et virtuelles qui les hébergent. La cohérence du modèle de règles, nécessaire pour contrôler et suivre l’activité efficacement, contribue à rassembler des équipes opérationnelles, aujourd’hui organisées en silos, et leur donne la possibilité d’intégrer leurs workflows en utilisant les mêmes outils automatisés. La virtualisation des serveurs étant réalisée majoritairement par VMware il est fréquent que les utilisateurs d’Application Centric Infrastructure disposent d’infrastructures virtuelles VMware. L’efficacité opérationnelle du data center et du cloud dépend donc de la bonne intégration entre VMware et ACI.

L’intégration entre VMware et Cisco ACI concourent à l’efficacité opérationnelle. Le document « Cisco Application Centric Infrastructure and VMware Integration » explique en détail les modes d’intégration et on peut distinguer trois aspects de l’intégration entre Cisco ACI et VMware.

  1. Intégration des ports groups des machines virtuelles. Les règles sont renforcées  dynamiquement dans l’infrastructure avec une totale visibilité des charges applicatives et de leur localisation avec le choix des méthodes d’encapsulation. On automatise et on simplifie tout le travail de connexion nécessaire en arrière-plan  de la part des administrateurs réseaux pour supporter l’administration de l’infrastructure virtualisée.
  2. Intégration entre vCenter et Cisco  APIC  (Application Policy Infrastructure Controller).ACI vCenter integration Les APIs ouvertes de vCenter permettent à ACI d’accéder à des informations telles que les attributs des VMs et les statistiques réseaux pour gérer la configuration et fournir la visibilité des end points virtuels corrélés avec la topologie physique. Les administrateurs du réseau et de l’infrastructure virtuelle peuvent définir des règles basées sur les attributs des VMs et vérifier le comportement des infrastructures physiques et virtuelles supportant les applications.
  3. Intégration entre vRealize automation et APIC. ACI expose nativement les services réseau au logiciel vRealize API APIC VMwareautomation de VMware. Avec cette intégration les administrateurs vRealize peuvent concevoir des applications multi-tiers qui utilisent des services réseaux partagés ou des clouds virtuels privés dédiés dans un environnement multi-tenants. Les administrateurs du cloud et des tenants peuvent par exemple facilement inclure des load balancing et des pare feux de nouvelle génération pour leurs applications.

 

Les fournisseurs de l’IT ont tout intérêt à offrir des APIs ouvertes. Cette intégration a plusieurs niveaux illustre l’importance du rôle des API ouvertes. Les infrastructures matérielles et logicielles des data centers sont composées de multiples produits provenant de fournisseurs variés. Ces produits se complètent, interagissent et s’enrichissent si l’intégration est optimisée. Au-delà de la compétition, les fournisseurs doivent faciliter cette intégration avec des APIs ouvertes pour renforcer la valeur de leurs offres et répondre aux attentes de leurs clients.

Mots-clefs :, ,

le Big Data et l’IoT ouvrent de nouvelles perspectives pour l’analytique

« La donnée est la nouvelle ressource de l’économie numérique ». Le ministre de l’économie l’a rappelé le 9 novembre 2015 en présentant le projet de loi NOE (Nouvelles opportunités économiques). La donnée représente un capital stratégique et un levier économique pour les entreprises. Pour concrétiser ce potentiel cela impose de développer des approches d’infrastructures et d’analytiques adaptées à la diversité des sources de données. Une approche qui sera présentée par Cisco lors du salon « Big Data Paris » les 7 et 8 mars 2016.Bigdata analytique

En 2020, 40% des données proviendront de capteurs de toutes sortes.  Il y a quelques années la quasi-totalité des données étaient des données structurées stockées dans les bases de données de centres informatiques. Avec l’avènement du numérique une multitude de données de tous types se sont créées hors du cadre de l’entreprise et conduit les solutions analytiques à s’adapter selon trois étapes :

  • Analytique 1.0: Les données structurées proviennent des bases de données et sont analysées après avoir été préalablement copiées dans un entrepôt de données centralisé.
  • Analytique 2.0: Les données non structurées s’amplifient et doivent être prises en compte par de nouvelles architectures comme Hadoop et les bases de données NoSQL pour les rendre accessibles aux outils analytiques.
  • Analytique 3.0: Le développement des objets connectés (IoT) engendre une multitude de sources de données situées hors des centres informatiques. Ces nouvelles données représenteront 40% du total des données en 2020. Leur  exploitation ouvre de nouvelles perspectives d’optimisation de processus industriels et de création de nouveaux services.

 Les défis des nouvelles solutions analytiques. Le déluge des données, évoqué en 2010 dans la revue The Economist, a mis en évidence une formidable opportunité pour les entreprises. Le contexte économique et compétitif oblige les entreprises à plus d’agilité. Analyser, anticiper, optimiser et innover sont des objectifs qui seront d’autant plus facilement atteints que l’on sera capable d’exploiter facilement et rapidement les données. Pour cela les outils analytiques et les infrastructures qu’elles exploitent doivent :

  • Exploiter les données en temps réel dès leur création. L’utilisation d’un entrepôt de données nécessite des opérations ETL (Extract, Transfert, Load) pour extraire les données des bases de données et les charger dans le datawarehouse. Le décalage entre le moment ou la donnée est produite et celui où elle est exploitée peut pénaliser la pertinence du résultat et la rapidité de la prise de décision. Les nouvelles solutions doivent exploiter en temps réel, et sans passer par des opérations intermédiaires, les informations contenues dans l’ensemble des bases de données (y compris le « data lake » si il existe) de toute l’entreprise.
  • Faciliter l’accès aux données par des directions métier. Les utilisateurs des directions métiers ont besoin d’analyser rapidement et simplement des données appartenant à différentes bases de données. Cela devient possible si on leur offre le moyen de réaliser une vue logique de toutes les données nécessaires sans déplacement ou copie de données.
  • Rapprocher les processus analytiques des sources de données. De plus en plus de données sont générées par des centres d’appels, des bornes wi-fi, des smarphones, des compteurs intelligents et plus globalement par tout objet ou équipement communicant. Transférer systématiquement toutes ces données vers un centre informatique centralisé peut s’avérer contre-productif. Certaines données sont rapidement obsolètes et d’autres ne supportent pas de temps de latence pour déclencher une action. Les outils d’analyse doivent pouvoir s’installer au plus près des sources de données.

S’adapter aux enjeux des entreprises et à la typologie des sources de données. Pour répondre à ces enjeux Cisco a développé un ensemble de solutions qui couvre :

  • Les besoins d’infrastructure : Cisco dispose d’une large gamme qui adresse les besoins des centres informatiques et du cloud en termes de serveurs, de réseaux, d’administration et de sécurité.
  • La gestion des données: Dans le cadre du Big data, la gestion des données prend des formes différentes et souvent complémentaires comme le « In Memory », Hadoop, le MPP (massively parallel processing) ou le NoSQL. Pour chacune d’entre elles Cisco a noué des partenariats pour interfacer ses équipements. Fin 2015 Cisco a également procédé à l’acquisition de la société Parstream pour fournir des solutions MPP dans des environnements comportant des sources de données extrêmement distribuées.
  • L’intégration de données : Pour améliorer l’efficacité des outils analytiques et simplifier la tâche de ceux qui les utilisent, la solution Cisco Data Virtualization permet de construire une vue logique et centralisée des données accessible simplement par un « portail business ».
  • Les outils analytiques et de business intelligences.  La gamme  « Cisco Connected Data and Analytic » permet d’obtenir des informations pertinentes en temps réel sur l’ensemble de l’entreprise. L’offre recouvre des logiciels qui prennent en compte différents types d’architecture (réseaux, centres d’appels, collaboration) et des solutions analytiques pour adresser divers domaines tels que la grande distribution, les opérateurs telecom, l’industrie et d’autres encore.

salon big dataSalon du Big Data Paris : Des experts seront à votre disposition sur le stand Cisco pour  discuter de vos projets spécifiques dans les domaines du Big Data et de l’analytique. Vous pourrez également assister à des démonstrations et vous rendre compte par vous-même de l’intérêt des offres dans votre contexte. Vous pouvez vous inscrire dès aujourd’hui.

Mots-clefs :, , , ,

La valorisation des données comptera pour 30% des dépenses de transformation numérique en 2019

En entrant dans l’économie de la donnée toutes les entreprises vont devoir se montrer vigilantes pour se conformer à la réglementation sur la protection des données personnelles. Dans un entretien vidéo, Maitre Betty Sfez nous rappelle quelques points essentiels.

protection donnée personnelle reglementtion

30 % des dépenses de transformation numérique consacrées à l’exploitation des données. A en croire IDC avec la parution de son dernier Worldwide Digital Transformation Spending Guide les dépenses au niveau mondial dans la transformation numérique devraient croitre de 16,8% par an. Il est intéressant de constater que près d’un tiers de ces dépenses seront consacrées aux technologies qui permettent d’extraire et de valoriser les données. La confirmation que nous sommes bien dans une économie où la donnée ne sert plus seulement à prendre des décisions mais aussi à créer des produits et des services. IDC évalue l’économie de la donnée en France en 2015 à 34,5 milliards € soit 1,6% du PIB et 716.000 emplois

Veiller à la protection des données personnelles. Dans un article intitulé Les contresens de la souveraineté numérique, les Echos expliquent que « Le centre de gravité des industries technologiques s’est déplacé depuis les ordinateurs vers les données échangées  » . Ce rôle prépondérant que la donnée va continuer à prendre doit attirer notre attention sur les aspects légales qui touchent la protection des données personnelles. La réglementation est en train d’évoluer au niveau européen et en octobre 2015 l’invalidation de Safe Harbor a mis en lumière les questions de transferts de données. Les solutions de Big Data et d’analytiques sont de jour en jour plus performantes il est donc important pour les entreprises et en particulier les « Responsable de traitement » de connaitre leurs obligations vis-à-vis de ces données personnelles. J’ai donc demandé à Maitre Betty Sfez de nous éclairer sur ce que l’on appelle les données personnelles, obligations légales et Safe Habor. Vous pouvez dans cette vidéo de 10 minutes avoir un aperçu de la problématique liée aux données personnelles.

Pour aller plus loin sur les aspects légaux je vous invite à consulter le blog du cabinet Deleporte Wentz Avocat. 

En savoir davantage sur les solutions de big data et d’analytique de Cisco: Rencontrez des experts du sujet à l’occasion du salon Big Data Paris les 7 et 8 mars 2016.

 

Mots-clefs :, , ,

Maîtriser le shadow IT impose de connaître les réelles utilisations du Cloud

La généralisation du cloud a permis aux entreprises de gagner en agilité mais dans le même temps elle a contribué à augmenter l’utilisation d’une informatique de l’ombre (shadow IT) qui comporte des risques de sécurité pour l’entreprise et nuit à la maitrise des coûts. Pour aider les entreprises à prendre conscience de ce phénomène et le mesurer Cisco a créé l’offre de service Cisco Consumption Professional Services

Le cloud public a banalisé l’accès aux applications. Le cloud continue de modifier considérablement le paysage informatique. Face à un environnement économique et technologique en constante évolution les entreprises trouvent dans le cloud le moyen d’optimiser leurs dépenses informatiques tout en gagnant en agilité. Les éditeurs de logiciels et des startups ont vu également le moyen de démocratiser l’accès à leurs applications et leurs logiciels. A titre individuel et privé le cloud nous a habitué à disposer rapidement d’outils et de services gratuits ou à bon marché dans de nombreux domaines tels que l’échange de fichiers, le partage d’album de photos ou la sauvegarde de nos ordinateurs personnels pour ne citer que les exemples les plus connus.

L’utilisateur est devenu un professionnel des technologies numériques. Cette apparente simplicité et la richesse des applications disponibles dans le cloud a donné un coup de vieux à l’informatique. Les utilisateurs et les directions métiers ont du mal a comprendre qu’il faille si longtemps pour développer une application alors qu’il parait si simple d’en trouver des similaires dans le cloud et quelques fois gratuites. Télécharger une nouvelle application sur sa tablette ou son smartphone est devenu un geste quotidien qui rend l’utilisateur plus exigeant et moins patient. . Peu à peu s’est développée une informatique de l’ombre (le shadow IT). Une informatique qui échappe à la direction informatique d’un point de vue technique et budgétaire. Le phénomène existait avec le cloud mais c’est amplifié avec lui. Les employés utilisent les mêmes outils que chez eux et certaines directions métiers n’hésitent plus à négocier directement un logiciel dans le cloud.

La DSI souvent désarmée face au shadow IT. Des mesures chez des clients ont révélé que les services clouds de fournisseurs autorisés pouvaient représenter seulement 20% de l’utilisation du cloud et qu’il y 5 à 10 fois plus de services cloud utilisé que ce qu’imagine la direction informatique.

Shadox IT control

Selon les cas l’entreprise peut se trouver dans l’illégalité pour des logiciels sans contrat, mettre à risque la sécurité et l’intégrité des données et globalement créer une incohérence dans les investissements en perdant la maitrise des budgets. Pour lutter contre le phénomène de l’informatique de l’ombre on peut mettre en place deux initiatives complémentaires:

  • Faire jouer à la DSI le rôle de courtier de services (Cloud broker). Vouloir répondre à toutes les demandes des utilisateurs par les seuls moyens de l’informatique interne devient une gageure à l’heure actuelle. Le temps s’est raccourci sous la pression d’internet et de la mondialisation. Seule manière de faire face à la demande: sélectionner des applications existantes dans le cloud, valider celles qui répondent aux exigences de l’entreprise et les proposer dans un catalogue de services accessibles au travers d’un portail d’entreprise.
  • Contrôler l’utilisation des clouds. Beaucoup d’entreprises ont conscience d’une informatique de l’ombre mais peu sont capables de quantifier le phénomène. C’est pourquoi Cisco a créé une offre de services sur la consommation du cloud ( Cisco Consumption Professional Services) pour aider les clients à avoir une meilleure visibilité des services cloud utilisés dans leur entreprises et ainsi pouvoir mettre en œuvre des pratiques renforcés de gestion du cloud.Ce service permet aux clients de devenir plus agile mais en réduisant les risques et en gardant la maitrise des dépenses dans le cloud public. Il utilise le réseau le réseau pour déterminer quels sont les fournisseurs de services cloud qui sont accédés par les employés de toute l’entreprise. On obtient ainsi une visibilité complète de l’utilisation de clouds publics autorisés et non autorisés. C’est en réalisant ce type d’analyse que Cisco a pu se rendre compte que chez certains clients on utilisait 5 à 10 fois plus de services cloud que ceux qui étaient autorisés.

Renforcer  le rôle du Directeur informatique. Comme le souligne l’article « DSI de nouvelle génération : des leaders IT en pleine mutation » publié par leMagIT la fonction de DSI évolue en partie sous l’effet du cloud. L’article rappelle que de nombreux utilisateurs font « du shadow IT, en s’abonnant à bas prix à des services Cloud qui leur conviennent. Aujourd’hui, l’omniprésence des technologies dans la vie quotidienne des employés fait qu’ils ont de fortes chances d’être en avance sur l’entreprise » Pour assurer ses missions le DSI doit donc disposer d’outils efficaces pour mesurer et maitriser l’utilisation du Cloud dans son entreprise.

 

Mots-clefs :

Renforcer la sécurité des Data Centers avec la micro- segmentation

Les data centers sont soumis quotidiennement à de nombreuses tentatives d’attaques. Selon des études Cisco, pour 75% de ces attaques il suffit de quelques minutes pour commencer à voler des données mais les détecter prend bien plus de temps. Une fois découverte, il peut s’écouler plusieurs semaines avant d’avoir isolé l’attaque et d’y avoir remédié. Les attaques de plus en plus sophistiquées imposent aux data centers d’utiliser de nouvelles approches et de disposer d’un spectre d’outils plus large. La segmentation du réseau fait partie des outils éprouvés dans les datacenters qui peut être renforcée par une granularité plus fine: la micro-segmentation.

La sécurisation des Datacenter conduit à la « micro-segmentation ». Les applications d’aujourd’hui et les besoins croissants de sécurité militent pour des méthodes granulaires qui sont plus sures et plus simples d’utilisation. Cisco définit la micro segmentation comme étant la possibilité de définir des règles associées à la granularité offerte par les « endpoints ». En utilisant la notion de Endpoint Cisco propose une micro-segmentation qui ne se limite pas à la machine virtuelle puisqu’un endpoint peut être un serveur physique, une machine virtuelle, un conteneur Linux ou bien encore des mainframes. Le type de endpoint est normalisé et offre de ce fait une grande simplicité et une grande souplesse dans son traitement. La micro-segmentation apporte des fonctions plus évoluées qui permettent de :

  • Définir des segments très granulaires par programme afin d’obtenir une plus grande souplesse dans l’utilisation d’attributs
  • Programmer automatiquement un segment et la gestion des politiques sur la totalité du cycle de vie de l’application (déploiement et dé-commissionnement)
  • Mettre en quarantaine les endpoints compromis et limiter une propagation latérale des menaces.
  • Améliorer la sécurité et évoluer en permettant une approche « zero trust » pour des workload applicatifs physiques, virtuels ou en conteneurs.

Une mise en œuvre élégante de la micro-segmentation. Application Centric Infrastructure (ACI) utilise une approche particulièrement élégante pour réaliser la micro-segmentation avec des définitions de politiques séparant les segments des domaines de broadcast. Les endpoint sont regroupés dans des  « End-Point Group » (EPG) . Les développeurs d’applications peuvent  définir un ensemble de endpoints correspondant à un EPG indépendamment de leur adresse IP ou du subnet auxquels ils appartiennent.

microsegmentation V2

ACI fournit le support de micro-segmentation pour VMware VDS, Microsoft Hyper-V virtual switch, KVM, les endpoints bare-metal et les conteneurs. Les clients peuvent dynamiquement appliquer des politiques de sécurité et de fowarding, mettre en quarantaine des endpoints compromis ou douteux sur la base des attributs des machines virtuelles ( Name, Guest OS, Indentifieur VM par exemple) et /ou des attributs réseaux (Adresse IP par exemple).

Créer des micro-segments en maintenant la cohérence des policies. La micro-segmentation avec ACI donne la possibilité aux utilisateurs de créer des micro-segments sur de multiple VMM et domaines physiques tout en maintenant la cohérence des politiques. Les clients gagnent en souplesse opérationnelle et disposent de nombreux choix :

  • Micro-segmentation pour n’importe quelle application multi-tiers avec des workload physiques ou virtuels sur tous types d’hyperviseurs
  • Utilisation du même modèle de politique d’isolation des workloads pour vSphere,Hyper-V, OpenStack, Conteneurs et serveurs bare metal.
  • Classification de micro-segmentation qui peut utiliser des attributs de workloads tels que les attributs de machines virtuelles et réseau (IP,MAC) fournissant un contrôle plus fin et plus granulaire au niveau de la machine virtuelle individuelle.
  • Politique d’isolation Intra EPG agnostique vis-à-vis des hyperviseurs
  • Création simple et automatique de zone de quarantaine pour applications multi-tiers quand un end point douteux ou une menace est identifiée. Remédiation automatisée.

microsegmentation use cases

La micro-segmentation effectuée avec ACI améliore la sécurité du traffic « east-west » du data center. Sa réelle valeur ajoutée réside dans son intégration avec le design applicatif et l’ensemble des politiques réseau ainsi que dans l’interopérabilité avec une large variété d’hyperviseurs, de serveurs bare metal, d’équipements de niveau 4 à 7 et de plateformes d’orchestration.

Pour plus d’informations lire : Cisco Application Centric Infrastructure Microsegmentation Solution

 

Mots-clefs :, ,