Cisco France Blog – Data Center

Transformation numérique : Cisco France met en place des centres de compétences

La transformation numérique fait appel à de nombreuses technologies qui auront pour vocation de créer une valeur accrue pour l’entreprise. Pour tenir compte de cette mutation Cisco France met en place des centres de compétences ou « skill centers ».

Business et Technologies , de la cohabitation à la fusion :  Longtemps les technologies ont appartenu à un monde de spécialistes. Business et Technologies cohabitaient par nécessité tout en préservant des frontières culturelles et opérationnelles.

Avec les nombreuses innovations technologiques auxquelles nous avons assisté ces dernières années et l’utilisation d’un grand nombre d’entre elles dans notre espace privé et familial la technologie s’est démocratisée. La technologie s’est ainsi rapprochée progressivement du business non plus seulement pour en assurer le support et la logistique mais pour y contribuer en créant de la valeur additionnelle et de la différentiation. On n’hésite plus à parler d’entreprises numériques.

Le 14 janvier 2015 , Axelle Lemaire a encore rappelé l’importance du numérique lors du Débat d’orientation pour la stratégie numérique de la France à l'Assemblée nationale.

Les entreprises deviennent des « entreprises de technologies » : En devenant des entreprises numériques, leur activité va dépendre de plus en plus de leur capacité d’utiliser les technologies pour réinventer leur business et leurs relations aux clients. Le Cloud, le Big Data et l’internet de l’objets sont  à ce titre exemplaires dans leur manière de modifier les modèles économiques existants et de participer à la création de nouveaux marchés.

Les espoirs sont immenses mais les défis à relever sont également considérables pour réussir la transformation numérique.

Les fournisseurs de l’IT doivent accompagner la transformation numérique: Les entreprises attendent de leurs fournisseurs technologiques qu’ils s’adaptent également pour s’associer à leurs efforts de transformation. La technologie n’est plus dissociée de l’activité de l’entreprise et les approches des constructeurs doivent intégrer plus fortement le composant business des entreprises en veillant si possible à ce que les solutions proposées aient un impact mesurable sur la valeur créée par l’entreprise.

.    

Le numérique nécessite la mise en place d’écosystèmes : Les solutions par ailleurs gagnent en complexité en cherchant à répondre à ces nouveaux besoins liés au numérique. Difficile pour un fournisseur de concevoir toutes les pièces du puzzle numérique. Des alliances nombreuses et variées sont donc nécessaires entre constructeurs, éditeurs et intégrateurs.

Cisco met en place des « centre de compétences » pour accompagner la transformation numérique :      Face à cette mutation, Cisco France, sous l’impulsion d’Eric Greffier, membre du comité de direction, adapte son organisation en créant une dizaine de centres de compétences (Skill Centers) dont les principaux objectifs sont de:

  • Développer des approches pour associer business et technologies
  • Présenter les solutions dans le contexte business du client
  • S’assurer que les clients vont pouvoir concrétiser leurs investissements
  • Proposer des fournitures de solutions et des facturations souples et adaptées

Ces centres de compétences sont constitués chacun d’une équipe polyvalente (consultants et commerciaux) qui va devoir maitriser tous les aspects du sujet qui lui est dévolu, développer des alliances appropriées et impliquer le réseau de partenaires Cisco. Chacun de ces centres pourra être amené collaborer avec un autre, les technologies interagissant de plus en plus entre elles

Les centres de compétences couvrent aujourd’hui :

  • Expérience employé
  • Expérience client
  • Expérience Cloud
  • Mobilité
  • Réseaux de nouvelle génération
  • Sécurité
  • Internet de l’objet et Internet of Everything
  • Applications d’entreprises
  • Big data et analytique
  • IT Hybride

Dans de prochains billets je fournirai un éclairage complémentaire sur certains de centres de compétences

Cisco Live 2015 à Milan : une participation en hausse

CiscoLive MilanComme chaque année, CiscoLive, le grand rendez-vous Européen des utilisateurs et partenaires  Cisco aura lieu la semaine du 26 Janvier à Milan.  Cette année l'évènement grandit encore et la fréquentation est en hausse :

  • plus de 8000 participants en provenance de 115 pays différents
  • 110 sponsors et exposants
  • 70 executives de Cisco présents pendant la semaine
  • 1800 employés Cisco

Cette édition 2015 s'annonce exceptionnelle pour la France avec une participation record : plus de 400 clients français feront le déplacement. Pour les accompagner durant la semaine,  plus de 60 employés de Cisco France seront sur place également. N'hésitez pas à vous rapprocher de votre contact commercial ou technique Cisco pour savoir s'ils seront présents et les solliciter pour vous aider à profiter au mieux de l'évènement. Il y a aussi un nombre significatif d'experts techniques francophones que vous pouvez rencontrer sur place.

Comme chaque année, plusieurs centaines de sessions sont proposées durant la semaine. Ces sessions sont majoritairement techniques, et couvrent tous les domaines, tous les marchés et toutes les technologies proposées par Cisco.

CLMilanLivePour ceux qui n'ont pas la chance d'y participer sur place, vous pouvez suivre en live les sessions suivantes en vous rendant sur cette page:

Jan 26:

  • Academy Day – over 10,000 students joining in the World’s largest classroom

Jan 27:

  • Opening Keynote by Carlos Dominguez, Cisco SVP, Office of the CEO & Jeremy Bevan, Cisco VP EMEAR Marketing
  • Enterprise Networks Technology Trend Keynote, Jeff Reed, Vice President, Enterprise Infrastructure and Solutions, Cisco
  • Internet of Things / Internet of Everything Technology Trend Keynote, Mike Flannagan - VP/GM, Cisco, Tony Shakib, VP, Cisco, Kip Compton - CTO, Cisco
  • Security Technology Trend Keynote, David Goeckeler - SVP, Cisco

Jan 28:

  • Collaboration Technology Trend Keynote, Rowan Trollope - SVP/GM Collaboration Technology Group, Cisco
  • Cloud Technology Trend Keynote, Gee Rittenhouse - SVP/GM, Cisco, Faiyaz, Shahpurwala - SVP, Cisco
  • Application Centric Infrastructure Technology Trend Keynote, Soni Jiandani - SVP, Corporate Marketing, INSBU, Insieme Networks, Cisco
  • Service Provider Technology Trend Keynote, David Ward - Chief Architect/CTO, Engineering, Cisco

Les présentations et certains enregistrements des sessions techniques seront également disponible ici peu de temps après CiscoLive.

Mots-clefs :

L'optimisation applicative (ADC) automatisée avec Cisco ACI

Pour répondre à l’agilité attendue par les entreprises, les infrastructures doivent s’adapter rapidement et automatiquement aux besoins applicatifs. En misant sur l’ouverture, la solution Cisco ACI (Application Centric Infrastructure) veut accélérer cette évolution en tirant parti des fonctionnalités d’un large ecosystème.

L’intégration ACI avec les solutions ADC rendue simple par un politique de gestion de services ouverts

Prenons le cas de l’optimisation applicative avec les fournisseurs de solutions « Applications Delivery Controller » (ADC) qui se positionnent sur les couches réseau de niveau 4 à 7. Ces fournisseurs ont travaillé étroitement avec la business Unit Cisco en charge du développement de ACI pour concevoir, tester et certifier des solutions intégrées communes. Ces fournisseurs proposent des offres packagées téléchargeables par les clients pour simplifier le déploiement de ACI dans le cadre des environnements ADC.

Le contrôleur de l’ACI que l’on appelle APIC (Application Policy Infrastructure Controller) est par nature programmable et hautement ouvert. Il a la capacité d’associer de manière sélective des chaînes de services avec des applications et des flux de données.

ACI et ADC

F5, Citrix , A 10 Network prêts pour l’ACI, Radware prochainement: A ce jour F5,Citrix et A 10 Network disposent d’offres packagées pour Cisco ACI .

- F5 a annoncé en aout 2014 la disponibilité de son offre packagée pour ACI . Des documents communs (technical whitepaper, solutions brief et Design guide) ont été rédigés conjointement par Cisco et F5

- Citrix et Cisco ont bâti un partenariat début 2010 avec des solutions de virtualisation de postes de travail validées sur des serveurs Cisco UCS. Ce partenariat s’est étendu et en aout 2014 a été introduite la solution commune ACI-Citrix NetScaler en même temps que la disponibilité d’une offre packagée Citrix pour ACI. Les équipes d’ingénieurs de Citrix et de Cisco ACI collaborent également sur les standards IETF et ODL pour promouvoir les protocoles OpFlex et NSH. Les solutions font l’objet d’une documentation (solutions brief et whitepaper accessibles sur le site web commun ).

- A 10 Network a tout naturellement adopté les principes d’ACI dans sa stratégie. Présenter de manière programmable des fonctions réseaux de niveau 4 à 7 est un objectif en accord complet avec la vision de A 10 Network qui a commencé par certifié son offre packagé pour ACI qui est désormais disponible au téléchargement . Cette offre est en open source et peut être ainsi facilement adaptée par les clients pour créer leur propre valeur. D’autres axes de collaboration sont à venir.

- Radware est également en cours de tests d’une offre packagée pour ACI et on devrait en savoir plus d’ici peu.

lire également:

Une solution F5-Cisco pour automatiser, avec ACI, les services réseaux nécessaires à une application

Application Centric Infrastructure: modéliser les applications

 

Mots-clefs :, , , ,

Le Cloud rentre dans sa phase de maturité en France

« Le niveau de maturité Cloud des organisations françaises a franchi un palier ». C’est ainsi que le cabinet PAC intitule la quatrième édition du PAC Cloud Index éditée en décembre 2014. Un projet Cloud revêt de plus souvent un caractère stratégique pour l'entreprise et l'avis d'expert du Cloud peut aider à mettre en œuvre efficacement cette stratégie.

Le Cloud se démocratise : L’année 2014 se sera conclue sur une note positive pour les adeptes du Cloud en France. Pour la première fois en quatre ans, l’étude PAC CloudIndexPAC CloudIndex relève une progression importante de l’adoption du Cloud en France avec 55 % des répondants qui ont recours au Cloud.

  • Le SaaS reste en tête avec 54% des utilisateurs de Cloud
  • Les offres de type "Infrastructure as a service" font une progression très remarquable d’une année sur l’autre en passant de 29% à 46%.
  • Quant au PaaS même s’il marque une progression, il ne représente encore que 16% des utilisations du cloud.

L’utilisation du Cloud va s’accélérer : Un cap semble réellement franchi, et les bénéfices attendus du cloud sont constatés par les entreprises qui l’ont mis en place. Tous les indices sont réunis pour que l’accélération de l’utilisation du cloud se produise et ce sont 70% des organisations qui, toujours d’après l’étude, déclarent vouloir étendre l’usage du cloud dans les trois ans à venir.

Les raisons d'adopter le Cloud évoluent :  Les motivations sont cette année influencées par la morosité du contexte économique et la réduction des coûts a ainsi rejoint la flexibilité comme premières motivations de l’adoption du cloud. On trouve ainsi dans les motivations :

  • La réduction des coûts
  • L’augmentation de la flexibilité
  • L’amélioration du Time to market
  • Le développement d’offres innovantes
  • Le soutien d’un changement de modèle économique

Besoin d’accompagnement service : Cette quatrième édition du PAC cloud index confirme le besoin d’accompagnement service dans le cadre du Cloud et tout d’abord pour l’intégration dans le système d’information existante. Avec la maturité des utilisateurs de cloud, les demandes de personnalisation, d’offres SaaS en particulier, se font également plus nombreuses.

 Une matinée d’échanges avec Cisco et Dimension Data pour lever les dernier doutesmatinée DD

La maturité progresse en France mais il n'en demeure pas moins des freins à son adoption comme par exemple la sécurité qui souffre de la médiatisation faite lors chaque incident, piratage ou espionnage. Les entreprises qui envisagent de mettre en œuvre un cloud ou d'étendre l'usage d'un cloud existant doivent répondre à de nombreuses questions.  Une grande partie de la souplesse et de l’efficacité économique du modèle Cloud  doit être pilotée par des cas d’usages concret tout en veillant à :

  • rester indépendant des grands fournisseurs de service cloud tout en les utilisant au mieux
  • mixer une infrastructure traditionnelle avec le cloud
  • garantir une politique de sécurité cohérente pour les applications mises dans le cloud
  • garder des degrés de liberté pour l’avenir et permettre la réversibilité ?

Pour vous aider dans votre réflexion sur le Cloud, Dimension Data et Cisco vous proposent de participer à une matinée d’échanges suivie d'un buffet le jeudi 29 Janvier 2015, afin de découvrir les solutions qui s’offrent désormais à vous lors de présentations, démonstrations et retours d’expériences. Pour vous inscrire cliquer ICI 

A lire également: Intercloud: un monde de clouds sans contrainte ..ou presque

 

 

Mots-clefs :, ,

VersaStack : IBM et Cisco collaborent pour faciliter la transformation des datacenters

Cisco et IBM ont annoncé le 4 décembre 2014 la solution VersaStack qui combine les serveurs Cisco UCS et le stockage IBM Storwize V7000 . Cette solution cible particulièrement les déploiements de Data Centers, de Cloud et de big data pour les grandes et moyennes entreprises.

Les solutions convergées ou intégrées, en proposant l’ensemble des composants d’infrastructure (réseau, serveur, stockage) dans une même solution, ont démontré leurs effets de simplification tant dans la conception que dans le contexte de production.

Cisco avait déjà osé une approche de rupture avec les serveurs Cisco UCS qui depuis se sont imposés comme les serveurs de prédilection pour les infrastructures intégrées. Avec l’annonce VersaStack, IBM et Cisco viennent compléter avantageusement le panorama de la convergence d’infrastructure.

VersaStack : Une solution d’infrastructure complète

VesaStack se présente comme une solution complète qui comporte :VersaStack composants

       UCS Integrated Infrastructure : L' infrastructure intégrée est basée sur les serveurs UCS complétés par des commutateurs et un logiciel d’administration. Elle se compose de:

       IBM Storwize V7000 : Ce composant vient naturellement compléter l’UCS Integrated infrastructure en y apportant la couche stockage. Plus de 75.000 solutions de stockage V7000 ont été vendus à ce jour incluant V7000 et V7000 unified system).

VersaStack supporte l’intégration avec les hyperviseurs du marché pour des environnements virtualisé et des clouds.

Accélérer le déploiement des applications

VersaStack est d’ores et déjà prêt pour être utilisé avec Cisco Application Centric Infrastructure (ACI) . L’équipe IT peut ainsi concevoir, déployer et sécuriser et maintenir des applications à l’aide d’un framework plus agile. La solution VersaStack s’inscrit ainsi dans une optique d’amélioration de l’efficacité opérationnelle et de simplification.

VersaStack : une solution accompagnée d’une documentation riche et précieuse

 Cisco et IBM ont travaillé étroitement pour vérifier et valider l’architecture de la solution VersaSatck dans le contexte de nombreux cas d’usages. Ce processus de validation donne lieu à un ensemble de documentation détaillée comprenant par exemple :

• Meilleures pratiques de design d’architecture

• Guide de dimensionnement et d’évolution de Workload.

• Instructions de déploiement et de mie en œuvre

• Spécifications techniques

• Réponses aux questions fréquentes (FAQ)

• Cisco Validated Designs (CVDs) et IBM Redbooks sur une variété de cas d’usages. Un premier design d’architecture est déjà disponible

VersaStack together

La solution VersaStack sera distribuée par le réseau de partenaires qualifiés qui possèdent l’expertise des technologies datacenter de Cisco et du stockage Storwize d’IBM.

Les services de support de la solution seront disponibles au travers de Cisco, IBM et des partenaires qualifiés.

Pour plus d'information sur VersaStack visiter le site Cisco

Mots-clefs :, ,

Numérique et handicaps: chance ou nouvelle course d’obstacles

Le numérique arrive avec son lot de promesses, il peut être source d’espoir pour bon nombre de personnes en situation de handicap, encore faut-il penser à leur faciliter l’accès aux sites internet qui sont encore inaccessibles pour beaucoup d’entre eux.

 Il y a quelques temps j’ai découvert que John Chambers, chairman de Cisco, était dyslexique. Dans un article de presse il expliquait que pour compenser ce handicap il avait dû apprendre d’autres manières pour atteindre plus rapidement les mêmes objectifs. Plus proche de nous Sylvain Nivard, non voyant, montre qu’il est possible de dépasser son handicap en devenant maire de Méry-sur-Cher après avoir fait sa carrière chez IBM.

De belles réussites qui ne doivent pas masquer la souffrance de tous ceux dont le handicap reste un frein pour vivre dans notre société moderne.

Numérique : des évolutions technologiques porteuses d’espoirDefi Cisco

Le numérique est sans doute une chance à saisir pour faciliter la vie des personnes à handicap. Encore dernièrement le Défi Cisco a récompensé un projet de canne connectée pour non-voyants (lire Une canne blanche connectée, lauréate du Défi Cisco) qui devrait leur faciliter la vie. Mais le grand défi est sans doute le droit à pouvoir s'exprimer, à pouvoir communiquer avec les autres. Il ne faudrait pas que le numérique se transforme en course d’obstacles pour les handicapés.

Les évolutions dans les domaines comme la synthèse vocale, la commande vocale ou oculaire et la dictée vocale permettent à des non-voyants, mais également à des personnes souffrant de dyslexie ou de praxie (difficulté de coordonner ses mouvements), de dépasser leur handicap pour utiliser les ordinateurs. On mesure difficilement les conséquences d’un handicap quand on n’y est pas soi-même confronté. J’ai appris dernièrement par exemple que la dyslexie était plus pénalisante pour la langue française ou anglaise alors que des enfants utilisant des langues dites « transparentes » comme l’italien ou l’espagnol lisent quasiment sans erreur.

Les nouvelles technologies possèdent des vertus utiles pour certains handicaps. L’usage de la tablette par exemple peut faciliter la lecture pour les enfants dyslexiques. Le fait d’avoir sur l’écran moins de mots sur chaque ligne permet à l’enfant de se concentrer sur chacun d’eux.

Les smarphones et les tablettes en offrant la mobilité, de la puissance de calcul importante , des technologies de reconnaissance et des applications de traduction instantanée  ouvrent des opportunités pleines intéressantes.

Mais soyons bien conscients que les possibilités de ces bijoux de technologies doivent être accessibles à tous. Par exemple une personne souffrant de praxie éprouvera d’énormes difficultés à utiliser un écran tactile où les mouvements de doigts que nous faisons sans réfléchir sont autant d’épreuves insurmontables pour elle.

Dyslexie : Le cas particulier des troubles non visibles.

Dans certains cas nous n’avons pas conscience de la cause de certaines difficultés que nous rencontrons et avons pris l’habitude de les esquiver. Ainsi de nombreuses personnes dyslexiques ont choisi les métiers techniques et numériques où ils peuvent exprimer leur talent de logique ou d’innovation.

Toutefois dans certaines tâches, telles que faire un rapport, rédiger un message sans erreurs d’orthographe, etc… ils peuvent être entravés au quotidien ou pour accéder à des responsabilités de management.

Le numérique peut aider à dépasser ces entraves, mais compte tenu des différents types de dyslexie il est délicat de trouver seul les bons outils. Des spécialistes du numérique bénévoles peuvent alors être de bon conseil, vous pouvez les consulter ici : info@numeridys.com

L’accessibilité : le véritable enjeu du numérique

Internet est devenu incontournable et de nombreuses démarches administratives peuvent se faire aujourd’hui sur internet. Le développement du commerce électronique et des usages numériques au sens large renforce le côté de plus en plus incontournable d’internet. L’inventeur du World Wide Web, Tim Berners-Lee, a affirmé que "La puissance du Web est dans son universalité. Y accéder quel que soit son handicap est un point essentiel."

Pour éviter une nouvelle forme de discrimination avec Internet et le numérique l’accessibilité doit être pensée à tous les niveaux. Pour mesurer la difficulté, Imaginez-vous quelque instant devant votre ordinateur les yeux fermés ou dans l’incapacité d’utiliser un clavier ou un écran tactile !!

De réelles améliorations sont apparues grâce à la législation américaine et la «Web Accessibility Initiative». Certains pays comme s’en sont inspirés et la France dispose d’un « Référentiel Général d’Accessibilité des Administrations » mais beaucoup de progrès restent à accomplir, en particulier pour les sites web des entreprises.

Ces documents contiennent des règles et des recommandations pour rendre les contenus Web plus accessibles à une plus grande variété de personnes en situation de handicap (non-voyants, malentendants, les personnes ayant des troubles d'apprentissage, des limitations cognitives, des limitations motrices, des limitations de la parole, de la photosensibilité etc.)

Ses règles demandent à ce qu'un site soit :

  • perceptible : équivalents textuels à tout contenu.
  • utilisable :   éléments d'orientation pour naviguer, trouver le contenu et se situer dans le site.
  • compréhensible contenu textuel lisible et compréhensible. Apparition et fonctionnement des pages de manière prévisible.
  • robuste compatibilité avec les agents utilisateurs actuels et futurs, y compris avec les technologies d'assistance.

Des règles encore trop peu prises en compte sur la majorité des sites internet en partie par méconnaissance du problème.

Une « expérience utilisateur augmentée » aussi pour la personne en situation de handicap.

Machine learning, Big Data, Objets communicants, expérience utilisateur, autant de termes utilisés abondamment quand on parle de transformation numérique. Des termes qui contiennent en eux beaucoup de messages d’espoir et qui permettent de rêver d’une expérience utilisateur augmentée ou l’utilisateur pourrait être une personne en situation de handicap qui verrait son univers améliorée.

Une des attentes majeures est la sociabilité facilitée par les technologies numériques qui sont un médiateur mais pour que cela marche c’est à chacun d’entre nous d’être ouverts à la différence !

Merci à Philippe Rosado d’avoir attiré mon attention sur ce sujet.

Mots-clefs :, ,

Le Cloud OutScale part à la conquête du monde

Avec un nouveau Cloud à Hong Kong OutScale simplifie l'accès au marché Chinois.  Apres la France et les Etats Unis , C'est Logo OutScaleen Chine que OutScale a décidé de continuer son expansion. Avec cette présence OutScale se présente non pas comme un simple fournisseur de services de cloud mais comme un véritable facilitateur de business pour les entreprises occidentales qui souhaitent prendre pied sur l’immense marché chinois.

OutScale s’affiche tout à la fois comme un fournisseur français de cloud, offrant la garantie de données stockées localement, et en même temps comme une société résolument tournée sur l’international.

Cette dernière implantation à Hong Kong permettra aux entreprises européenne et américaines de disposer d’une infrastructure Cloud pour leurs clients asiatiques et leurs filiales. Elles bénéficieront de temps de latences extrêmement réduits et d'importants moyens de stockage, de calcul et de réseaux. A chaque fois les infrastructures sont identiques : serveurs Cisco UCS,  stockage NetApp et le logiciel d'orchestration TINA OS développé par OutScale

Pourquoi OutScale est devenu le premier opérateur de Cloud européen à s’installer en Chine ? Son président Laurent Seror répond à cette question dans cette courte vidéo (Environ 3 mn).

.                                    

Lire le communiqué de presse : Outscale premier Cloud Provider européen à ouvrir le marché chinois aux entreprises occidentales

 

Mots-clefs :,

Fiabiliser la production informatique pour l’excellence opérationnelle

Avec le temps les Data Centers sont devenus de véritables centres névralgiques pour les entreprises et les opérateurs de Cloud. La transformation numérique ne fera qu’accentuer ce fait. La recherche de l'excellence est plus que jamais une obligation.

A la recherche de l’excellence opérationnelle

Les exigences et les attentes vis-à-vis de Data Centers deviennent, par la même occasion, plus fortes en termes de performance et de disponibilité bien sûr, mais également en termes d’agilité. Une agilité qui doit rendre les entreprises capables de faire face à des ruptures technologiques, des transitions de marché ou bien encore à de nouveaux entrants qui bouleversent l’ordre établi.

Les directions informatiques sont donc sous pression et attendent de leurs fournisseurs de contribuer à simplifier leur tâche. Une tâche rendue d’autant plus complexe par la multitude de fournisseurs (constructeurs ou éditeurs), qui concourent à la réalisation d’une solution.

Cela impose aux sociétés qui proposent les solutions de monter en valeur pour :

  • Faciliter le nécessaire travail d’intégration par une expertise de plus en plus poussée sur :
  1.  les produits matériels et logiciels à leur catalogue
  2. les architectures pour fournir des solutions complètes adaptées aux besoins du client en s’appuyant, lors que cela est possible, sur des « architectures de références » mises à disposition par les constructeurs.
  • Aider à fiabiliser la production par des services appropriés en:
  1.  Limitant l’impact des défaillances des produits
  2. Anticipant les risques de dysfonctionnement dans un environnement de production
  3. Palliant à un manque de ressource qualifiée lors de périodes particulières ou d’évolutions technologiques.

La fiabilité d’une production ne dépend pas que du matériel et du logiciel

Force est de constater que bien souvent les dysfonctionnements ne sont pas liés aux produits eux même mais à une mauvaise utilisation dans le contexte de la production

En plus du support de la solution dans sa totalité, les clients doivent pouvoir attendre de leurs revendeurs et intégrateurs des services complémentaires pour fiabiliser leur production. Nombreux intégrateurs et revendeurs sont conscients de la nécessité de se transformer pour répondre à ce besoin et certains ont déjà fait entrepris cette évolution.

Ce ne doit pas être un simple effort de cosmétique car la compétence doit être réelle et le service de qualité. Stordata services

En capitalisant sur une expertise forte développée autour des produits qui ont été sélectionnés pour être revendus la société StorData , spécialiste des infrastructures, propose par exemple une offre de services complète regroupés sous le terme « IT Care » qui illustre assez bien la « montée en valeur » que je mentionnai précédemment.

Serveurs UCS : de la supervision à l'anticipation des besoins de production

Chaque service porte sur l’ensemble des logiciels et matériels composant la solution fournie au client. Si on prend le cas des serveurs UCS, la société StorData les revend depuis plusieurs années et les intègre dans des Stordata logo 2architectures convergées. StorData a voulu aller plus loin en proposant en plus au client qui le souhaite des rapports de supervision (IT Care supervision) sur le fonctionnement de l’UCS dans le contexte de production. Un expert StorData accompagne ces rapports de préconisations pour que les ressources de traitement soient parfaitement alignées avec le planning de production. Et pour accomplir la majorité des actes à distance c'est l'outil Webex de Cisco qui est utilisé depuis de nombreuses années.

Le client pourra de la même manière faire appel au service « IT Care Administration » pour associer un nouveau service profile à une lame UCS ou procéder à une mise à jour du microcode.

La production est mieux maitrisée et certains clients en profitent pour mettre en place une véritable optimisation des ressources voire du capacity planning.

Monter en valeur ne sera bientôt plus un choix mais une obligation pour ceux qui veulent se maintenir dans un environnement en perpétuelle évolution qui nécessite des expertises de plus en plus pointues.

Mots-clefs :, ,

SwissLife : une infrastructure pour cloud privé en neuf mois

IMG_0702A l’occasion d’une matinale consacrée aux infrastructures convergées ce mardi 2 décembre, la société MTI a eu la bonne idée de faire témoigner le mardi 2 décembre SwissLife France.

J’avais moi-même le plaisir d’animer la table ronde réunissant SwissLife, MTI, Cisco, EMC et VCE pour mieux comprendre le rôle que peuvent jouer les infrastructures dans la recherche d’agilité et la transformation des entreprises.

Objectif Cloud en neuf mois

mtiDenis Bourdon, Directeur des Operations IT chez Swiss Life France, a expliqué qu’après quatre ans d’existence, l’infrastructure utilisée dans les datacenters de Swiss Life France n’était plus adaptée à l’activité quotidienne. La prolifération des serveurs et les limites de capacité de stockage ne pouvaient que conduire SwissLife à rénover ses datacenters de Roubaix et de Levallois avec l'aide de son intégrateur MTI.. Les nouveaux enjeux et les nouveaux projets, tels que la mise en place d’un cloud privé, n’ont fait que renforcer l’urgence de la rénovation.

Pres swisslifeSwissLife a donc enclenché un projet de rénovation avec création d’un cloud privé et en a profité pour mettre en place un Plan de Continuité Informatique (PCI) sécurisé au siège de l’entreprise à Levallois Perret

Supprimer les silos technologiques

Pour y arriver il fallait réduire le temps de conception d'architecture et le temps d'intégration en déléguant en partie ces tâches à un intégrateur ( MTI dans le cas de SwissLife) qui peut s'appuyer sur une architecture de référence . Cette architecture de référence est  une architecture validée résultat d'un travail de collaboration des constructeurs. Elle prend la forme d'un document technique détaillé, véritable guide pour l'intégarteur qui gage en temps et évite de potentielles erreurs.

Contrairement à des approches comme Vblock ou l'intégration est faite par VCE, là l'intégrateur joue ce rôle et fournit une solution complète au client en l'occurrence SwissLife.

La solution intégrée prenant en compte stockage, réseau et serveur constitue ainsi le socle de base du datacenter rénové sur lequel a pu être bâti le Cloud

Neuf mois est un donc une belle performance quand on sait que ce temps inclus le délai entre la commande et la livraison des équipements

Autre aspect pris en considération dans ce projet c'est le point unique de support que fournit l'intégrateur pour assurer le bon fonctionnement de la totalité de la solution.

Denis Bourdon considère que le projet est un réel succès et que d’ores et déjà les principaux objectifs sont atteints :

  • disponibilité du service
  • performances
  • capacité à mettre en place un PCI dans des délais toujours plus courts.
  • Cloud privé

Un projet articulé autour de deux infrastructures convergées VSPEX EMC-Cisco . swisslife gains

L’architecture VSPEX est constituée de baies de stockage EMC VNX avec des serveurs Cisco UCS dans un environnement de virtualisation VMware avec réplication entre les 2 sites.

Les sauvegardes sont basées sur de l’EMC Networker et du Data Domain.

La table ronde a soulevé les questions sur les critères de choix entre approche traditionnelle, Vspex et Vblock. Il en ressort que d'une part il faut que les organisations soient prêtes à une approche globale et que dans le cas d'un Vblock la notion de TCO soit réellement pris en compte pour valoriser les gains d'exploitation et de gestion des changements.

En tout état de cause le choix revient toujours au client qui dans bien des cas s'appuie sur les conseils d'intégrateurs spécialisés dans l'infrastructure de la data.

Rénover utilement en  partenariats avec des écoles

Le résultats de la transformation ? 160 serveurs qui auraient pu partir à la casse...  SwissLife a jugé plus utile d'en faire dons à des écoles qui en auront un  bon usage pour faire l'apprentissage de l'informatique.

Une idée simple qui permet de recycler utilement le matériel informatique.

A lire également le livre blanc sur la gestion et la sauvegardes des données

 

Mots-clefs :, , ,

UCSO: une solution d'infrastructure intégrée pour OpenStack avec Cisco et RedHat

OPenStack : Donner la capacité d’innover

D’après la dernière enquête auprès des utilisateurs d’OpenStack les 5 premiers critères qui ont déterminé le choix des utilisateurs sont :

  • Capacité d’innovation 47%
  • Ouverture de la technologie 47%
  • Economie des coûts 46%
  • Indépendance vis-à-vis d’un fournisseur 45%
  • Efficacité opérationnelle 41%

L’innovation est en première place de la préoccupation des utilisateurs alors que dans l’enquête précédente elle ne figurait qu’en sixième place. Une prise de conscience sans doute car le contexte économique et concurrentiel impose aux entreprises de s’adapter voire de se transformer rapidement. Cela passe pour partie par la capacité d’innover.

Depuis ses débuts en 2010 OpenStack a fait de nombreux progrès en fonctionnalités et en nombre d’utilisateurs qui explique que la majorité des constructeurs (eux même souvent utilisateurs d’OpenStack) mettent en place une stratégie OpenStack et Cisco à quant à lui fait récemment l’acquisition de Metacloud, une offre de Cloud privé OpenStack as a service .

                                      Cisco et Redhat : un partenariat pour faciliter l’adoption d’OpenStack

RedHat disposant de l’offre Red Hat Enterprise Linux OpenStack Platform , il était assez naturel que le partenariat Cisco et RedHat se renforce.

Une architecture de référence commune : Déjà en Janvier 2014 je vous avais fait part d’une architecture de références pour Faciliter la mise en production d’OpenStack avec Cisco et RedHat (voir billet sur le blog) avec Le document Cisco Validated Design (CVD) pour décrire OpenStack avec une architecture Red Hat Enterprise Linux sur serveur UCS.

Une solution de PaaS intégrée : Le partenariat s’est ensuite poursuivi puisque dans le cadre de leur collaboration Cisco et RedHat ont créé un Cisco Validated Design (CVD) qui intègre OpenShift de RedHat avec Cisco Intelligent Automation for Cloud (CIAC) et Virtualized Multiservice Data Center (VMDC). (voir billet blog)

OpenShift est un produit de PaaS bâti sur Red Hat Enterprise Linux et le middleware Red Hat JBoss , il peut ainsi mettre à disposition des développeurs une plateforme de développement qui bénéficie d’un support total pour une multitude de langages et de frameworks comprenant entre autres  Python, Ruby, PHP sans oublier Java EE.

UCSO value

Cisco Integrated Infrastructure solutions pour RedHat OpenStack : UCSO Infras integrées UCS

Annoncées en septembre 2014, dans le cadre de l’extension du partenariat RedHat-Cisco autour de OpenStack, ACI et Intercloud, les solutions UCS d’infrastructures intégrées pour OpenStack ont pour objectif de simplifier le déploiement et la gestion opérationnelle de clouds basés sur OpenStack.

UCSO combinera (selon les éditions) Cisco Unified Computing™ (UCS), Cisco Application Centric Infrastructure (ACI), Cisco Intercloud Fabric et Red Hat Enterprise Linux OpenStack Platform. Les offres UCSO sont prévues sous la forme de deux Editions:

  1. Starter Edition: pour une installation rapide et simple dans le cas de clouds privés d’entreprise.
  2. Advanced Edition: pour un déploiement de clouds à grande échelle
  • Advanced Edition avec intégration d’ACI pour des politiques d'infrastructures de clouds alignées avec les applicatons
  • Advanced Edition avec intégration de Intercloud fabric pour clouds hybrides

UCSO edition

La disponibilité de la Starter Edition est prévue vers la fin de l'année 2014.

A lire également :

 

 

Mots-clefs :, ,

Hyper convergence : SimpliVity intègre les serveurs en rack Cisco UCS

La convergence est en passe d’entrer dans les mœurs des Data Centers. Le souci de rationalisation, d’économie et d’agilité aura agi comme un catalyseur pour accentuer le mouvement.

Selon le Gartner , qui utilise le terme "Integrated System", le marché des infrastructures convergées croît de 50% par an. De quoi aiguiser l'appétit de nouvelles start up qui se positionnent en prônant "l'hyper-convergence" .

Integrated System MQ Gartner

Hyper convergence: Une approche basée sur le logiciel et l’intégrationsimplivity

L’hyper convergence est basée sur une approche logicielle et entend consolider dans un seul stack tous les composants d’infrastructure et les fonctionnalités nécessaires à son fonctionnement. Les technologies intégrées sont administrées comme un ensemble unique par le biais des mêmes outils. L’accent est mis sur la scalablité en cherchant à reproduire la granularité des architectures Scale out mises en place par Google, Amazon ou Facebook. Dans le cas des solutions d’hyper convergence la granularité est au niveau du nœud.

simlivity benefitsL’hyper convergence capitalise sur les principes de la convergence et propose une intégration de fonctionnalités logicielles comme l’optimisation du WAN, la déduplication de données et la compression.

Simplivity fait partie de ces nouvelles sociétés qui ont fait de l’hyper convergence leur cheval de bataille.

SimpliVity intègre le serveur UCS C240 M3

Créée en 2009 , SimpliVity propose l’offre Omnistack qui depuis quelques mois peut intégrer des serveurs Cisco UCS. Le document, réalisé conjointement par SimpliVity et Cisco, “OmniStack Integrated Solution with Cisco Unified Computing System: Reference Architecture” décrit l’architecture de la solution validée pour Simplivity Ominstack avec des serveur UCS C240 M3.

Cas d’usage de la solution Omnistack avec UCS:

Parmi les cas d’usage ciblées par cette solution d’hyper convergence on trouve:

  • - La consolidation de data centers: La solution Omnistack avec les serveurs UCS permet de consolider les infrastructure sur plusieurs data centers en fournissant une administration centralisée.
  • - L’administration d’agences ou de sites distants. La solution permet d’unifier les projets d’administration. Omnistack fournit des services de mobilité des données. Cela concerne principalement les grandes entreprises avec de multi-sites distants

 

 

Mots-clefs :,

Mémoire Flash : Combiner performance, intégrité et longévité

Comme j’ai eu l’occasion de l’écrire dans un précédent billet, le choix des solutions de mémoire flash repose sur des critères technologiques et sur la manière dont est gérée la mémoire flash.

Dans son offre UCS Invicta , Cisco donne un rôle clé à son système d’exploitation (Cisco UCS Invicta OS) pour optimiser efficacement la mémoire flash. Reprenons quelques fonctions déterminantes dans le fonctionnement d’un système à mémoire flash :

Facteur d’amplification d’écriture :

L’amplification est la conséquence du déplacement des données pour effacer l’intégralité des blocs flash sous-utilisés. Cela a pour effet de consommer de l'espace excédentaire et de réduire la longévité des mémoires flash en exigeant des opérations d'écriture inutiles.

Dans la majorité des cas on observe sur les produits du marché des amplifications d’écriture de 10 :1 (qui peut atteindre 40 :1 pour certaines solutions).

En écrivant dans la mémoire flash avec des blocs de longueur fixes (non aléatoire) et complets l’OS Invicta réduit le facteur d’ amplification d’écriture (1,1 :1 à 1,3 :1). On peut ainsi obtenir une longévité 8 à 10 fois supérieure pour les mêmes composants utilisés dans un système géré différemment.

Déduplication des données à haute vitesse :

La déduplication a pour effet de diminuer le nombre d’écriture et d’obtenir ainsi une meilleure endurance des composants flash. Lorsque la déduplication est activée dans UCS Invicta , elle s’effectue à la volée pour 100 % des écritures entrantes. Un algorithme de hachage de blocs fixes hache chaque opération d'écriture en 4 Ko, puis la compare à des blocs existants en mémoire. Si une correspondance est trouvée, les données sont lues pour vérifier la duplication, et un pointeur est stocké plutôt qu’un doublon des données.

Invicta datalayers

Détection et correction d’erreur :

La détection d'erreur utilise le même algorithme de hachage que la déduplication. Toutes les opérations d'écriture entrantes sont hachées et stockées dans une table de hachage. Lors de la relecture avec la détection d'erreur activée, l’OS Invicta détermine si les bits sont ceux qui ont été stockés sur les cellules flash. Si une erreur est détectée, les données Initiales peuvent être récupérées. Les informations de hachage et les métadonnées sont enregistrées à la fois dans la mémoire du système et sur ​​les Flashs.

L'intégrité des données en cas de coupure de courant :

L’'intégrité des données dans un système UCS Invicta, en cas de perte d’alimentation électrique, est garantie par un buffer de protection de 1Go, par nœud et par appliance, pour les opérations d'écriture entrantes qui n’ont pas été encore écrites dans la mémoire flash. Le tampon est alimenté par des super condensateurs et, après retour de l’alimentation, les données sont relues dans le buffer et la validation peut ainsi se terminer en assurant l’intégrité des données.

Pour information l’offre Cisco UCS Invicta se décline sous deux formes :

 

Mots-clefs :,

Choisir les mémoires flash en connaissance de cause.

La course à la performance est un processus sans fin depuis que l’informatique est née. Les usages et l’expérience utilisateur nécessitent des applications de plus en plus gourmandes en ressources et de plus en plus exigeantes en performances. Les évolutions technologiques qui ont accompagné ces évolutions ne se sont pas faites au même rythme. Les capacités de stockage traditionnel ont par exemple augmenté plus vite que les performances des disques durs créant ainsi un gap important avec les capacités de traitements des processeurs.

Ce décalage entre technologies explique l’engouement pour les technologies flash qui se reflète dans les stratégies des constructeurs informatiques qui ont été nombreux à faire l’acquisition de société spécialisées dans le stockage flash afin de répondre aux besoins d’accélération de certaines applications. C’est ainsi que Cisco a fait l’acquisition de la société Whiptail le 29 octobre 2013 avec la gamme dénommée aujourd’hui UCS Invita.

Avec ces technologies de mémoires flash appelées aussi NAND (de l’opérateur logique de l’algèbre de Boole NON-ET qui donne NAND en anglais) on doit également prendre en compte de nouvelles contraintes. Il existe différentes manières d’utiliser ces mémoires flash qui impactent la performance, l'endurance, la correction d'erreurs, et le coût.

Ne prendre en compte qu’un de ces facteurs peut avoir des conséquences importantes sur une production informatique.

Les types de mémoire flash actuels

La densité cellulaire (nombre de bits dans une cellule) est un des facteurs critiques pour la performance, l'endurance, la correction d'erreurs, et le coût. Pour ceux qui regardent ces technologies pour la première fois il est sans doute utile revenir sur quelques notions de base.

- Cellule à niveau unique (SLC) : une cellule consacre un transistor à un bit. Il n'existe qu'un seul seuil de tension, qui représente la présence ou l'absence de Flash typesdonnées.

  • performance.
  • correction d'erreurs simple.
  • taux d'endurance élevé, d’environ 30 000 cycles.
  • technologie la plus coûteuse en termes de coût par bit.

- Cellule multiniveau (MLC) : deux bits de données sont représentés dans le même transistor. La détermination de la donnée s’effectue par détection d'une différence de seuil de tension dans le transistor.

  • augmentation des taux d'erreurs possible due à la complexité
  • taux d'endurance d'environ 3000 cycles d'écriture.
  • faible endurance résultant de la représentation de plusieurs états en utilisant le même nombre d'électrons.

- Cellule entreprise multiniveaux (eMLC) : compromis entre la conservation des données et de l'endurance.

  • plus robuste que la MLC traditionnelle
  • plus chère que la MLC traditionnelle.
  • endurance augmentée à un maximum de 10 000 cycles.

- Cellule de niveau Triple-(TLC) : trois bits dans une seule cellule coût par bit est minimal.

  • Problèmes de correction d'erreurs et d'endurance amplifiés en TLC.
  • débits de 500 à 1500 cycles.

Influence de la taille des cellules sur l'endurance.

Plus la taille des cellules est réduite, moins il y a d'électrons dans la cellule. La différence entre les états distincts devient de plus en plus difficile à détecter, induisant plus de risques d'erreurs. En outre, la proximité des cellules augmente encore le problème de lecture, nécessitant une plus forte capacité de correction d'erreurs.

Les solutions Cisco UCS Invicta sont basées sur la technologie MLC.

Cisco évalue les dernières technologies NAND comme la 3D NAND et la vNAND qui permettront de surmonter les limites des NAND actuelles. Ces technologies promettent une plus grande endurance que l’eMLC et devraient atteindre finalement le même coût par bit. Elles offrent également une densité plus élevée qui se traduit par des SSD de plus grande capacité, de 4 à 8 téraoctets (To) avec un facteur de forme de 2,5 pouces.

D’autres considérations à prendre en compte dans le choix d’un stockage flash

 J’ai insisté dans ce billet sur les différences de mise en œuvre des technologies NAND dans un système de stockage flash mais lors d’un choix d’architectures d’autres considérations sont à prendre en compte et je tacherai de les détailler dans un prochain billet mais rappelons quand même :

  • les facteurs d’amplification
  • la Déduplication des données à haute vitesse :
  • La qualité de la Détection d’erreur et de correction :
  • L'intégrité des données en cas de coupure de courant

   Le système d’opération du système Flash a donc son importance car c’est lui qui va gérer la manière d’écrire les données, de gérer le Garbage Collector (gestion des espaces invalidées) et de corriger les erreurs. En fonction de l’efficacité du système d’exploitation la gestion de l’usure, la fiabilité et les performances en seront affectées.

  

 

Mots-clefs :,

Le Big Data en France : La course aux datascientists est lancée

La course au Big Data est lancée et il ne s’agit pas de rester à la traine. Celui qui sera capable de d’exploiter efficacement les données et les nouvelles sources de données sera le grand vainqueur

Ceux qui l’ont compris ont bouleversé les modèles économiques existants. Exploiter les données c’est non seulement créer de nouveaux services mais c’est aussi créer de nouveaux modèles économiques. Le succès des Google, Amazon, Netflix ont démontré que dorénavant aucun modèle économique ne pouvait se targuer d’être à l’abri.

La montée en puissance de nouvelles entreprises comme Uber, Blablacar ou encore Airbnb, qui mettent à disposition de communautés des données élaborées pour créer de nouveaux services, nous laissent présager de la société de demain.

La France a-t-elle la capacité d’être acteur sur ce marché ? Souhaitons-le car nous disposons d’atouts non négligeables qui devraient nous permettre de combler le retard.

Un plan Big Data français Big Data marché

Tout d’abord un plan Gouvernemental. Le mercredi 2 juillet 2014 , le cinquième comité de pilotage de la « Nouvelle France industrielle » a adopté le plan Big Data.A la tête de l’équipe du Plan Big Data on trouve François Bourdoncle, Président de FB&Cie, et Paul Hermelin, Président-directeur général.

Sur BFM Business Paul Hermelin a rappelé que l’état devait faire son devoir de formation car le Big Data nécessitait de nouveaux profils appelés Datascientists. Par ailleurs la France peut compter sur un système de grandes écoles capables de produire des créateurs de startups. On doit toutefois s’interroger sur notre capacité à aider les startups à se développer dans la durée pour éviter qu’elles se fassent aspirer par des Ventures Capitalistes VC américains.

Un vivier de compétences à exploiter

En écho aux propos de Paul Hermelin ce samedi 15 novembre BFM Business consacrait une émission sur les Datascientists.Un sujet critique qui a incité l’école polytechnique à créer une chaire Datascientist avec Thalès, Orange et Keyrus. (cliquer sur l'image pour voir l'émission)

datascientists

 

La France dispose d’une « excellence «  mathématique et d’un vivier de compétences qui sont de réels atouts pour le Big Data et qui devraient nous permettre de disposer d’environ 2000 datascientists en 2018.

Bruno Teboul, membre de la gouvernance de la chaire de Data Scientist de l’Ecole Polytechnique, a souligné que le Datascientist était un nouveau métier qui allait bien au-delà du métier de statisticien. En effet le datascientist doit maitriser les mathématiques, l’informatique « avancée » avec les algorithmes issus des grands du web et les nouvelles technologies du type Hadoop. L’algèbre linéaire sera également utile pour appréhender l’analyse sémantique et permettre l’analyse du bruit conversationnel sur le web et les réseaux sociaux.

De nombreuses écoles de commerces et d’ingénieurs ont aujourd’hui une filière Big Data et j’avais eu moi-même l’occasion d’interroger dès juin 2013  Raja Chicky , Experte du Big Data à l’ISEP, sur le sujet du Big Data, des enjeux et des compétences .

 lire également Pourquoi la croissance du Big Data est liée à la transformation numérique ?

pour en savoir plus sur Cisco et le Big Data cliquer ici

 

Mots-clefs :,

Interface web libre service d'UCS Director (5/5)

Comme toutes les bonnes choses ont une fin, cet article vient clôturer notre série sur UCS Director, après 4 posts (Introduction, mise en oeuvre et tableaux de bord, provisioning unifié et automatisation).

La dernière corde à l'arc d'UCS Director concerne la mise à disposition des ressources de l'infrastructure qu'il automatise et pilote aux différents profiles qui sont amenés à consommer des ressources d'infrastructure, via un portail web Self Service:

  1. Les équipes d'opération, qui se voient publier par les équipes d'ingénierie un catalogue de Workflows adaptés à leur profil en lieu et place des traditionnelles procédures manuelles et scripts maisons. Ils peuvent notamment tirer partie de la puissante fonction de rollback en cas d'erreur.
  2. Les équipes projets, à qui un catalogue de VMs est mis à disposition. Ces VMs sont provisionnées dans des Virtual DataCenters, qui sont des pools de ressources respectant un ensemble de policies de placement, configuration et dimensionnement Compute / Stockage / Réseau mais également un modèle de facturation de la consommation ou des restrictions de droits sur VMs (un développeur pourra réaliser plus d'opérations sur les VDC de dév que d'intégration par exemple). Et ce pour les 3 hyperviseurs supportés (vSphere, Hyper-V, RedHat EV) sans que l'utilisateur ne perçoive la différence! Idéal pour engager une stratégie multi-hyperviseurs...
  3. Bien sûr, les orchestrateurs bénéficient des même droits au travers de l'API que vous connaissez par coeur maintenant

C'est tout cela que je vous propose de découvrir en action dans cette vidéo:

J'espère que cette série vous aura éclairée sur les bénéfices qu'UCS Director pourraient rapidement délivrer dans votre contexte, ainsi que des perspectives qu'il ouvre sur la route du Cloud. A très bientôt pour d'autres articles!

Mots-clefs :, , , ,

LoadMaster complète les serveurs UCS pour supporter la croissance du Cloud

Face à la demande croissante pour le Cloud, comme l’a encore démontré la dernière étude Cisco Global Cloud Index, les fournisseurs de services de Cloud doivent pouvoir aligner rapidement des ressources.

C’est le problème auquel a été confronté le fournisseur de services Peak 10 soucieux d’offrir à ses clients, depuis une dizaine d’années, un environnement IT totalement opéré leur évitant ainsi d’investir dans leur propre DataCenter. Les multiples clusters de cloud gérés par Peak 10 ont fini par devenir difficiles à faire évoluer et à administrer.

Un des plus gros obstacles à la croissance identifié par Peak 10 résidait dans les infrastructures physiques associées au Cloud. Afin de lever les freins à sa croissance, les équipes de Peak 10 se sont tournés vers des serveurs UCS en y associant le logiciel LoadMaster de la société KEMP , spécialiste des solutions de « Application Delivery Controler » ADC (voir le billet Loadmaster: une solution de load balancing qui tire profit de l’architecture UCS). LoadMaster fournit une solution de load balancing logiciel qui s’exécute dans le serveur UCS.

Loadmaster

Auparavant pour rajouter, câbler et configurer un nouveau serveur physique , un technicien de Peak 10 avait besoin d’environ une journée. Aujourd’hui insérer une lame UCS et la déployer prend une heure et quasiment n’importe qui peut le faire vu la simplicité de l’opération.

Avec la virtualisation des serveurs UCS, Peak 10 peut provisionner un nouveau serveur virtuel à un client en quelques minutes. Les services profiles et les templates des serveurs UCS réduisent et simplifie les opérations permettant ainsi d’ajouter de la capacité ou de replacer des serveurs quand le besoin se fait sentir.

Le logiciel LoadMaster permet des évolutions aussi faciles. Résidant dans le « fabric Interconnect » du serveur UCS, il se configure facilement pour réaliser l’équilibrage de charge des serveurs.

Pour en savoir plus vous pouvez lire l’étude de cas Cloud Services Provider Delivers Reliability with Cisco and KEMP.

 

 

 

Mots-clefs :, ,

Impact de l’Internet of Everything (IoE) sur la croissance du Cloud

La toute dernière étude Cisco Global Cloud Index  2013-2018 fait apparaitre clairement une accélération de la mutation vers le Cloud.

2018 : 76% du trafic global des datacenters proviendra du Cloud.

Les résultats du Cisco Global Cloud Index sont obtenus grâce à des modèles et analyses effectuées sur diverses sources primaires et cloud index 1secondaires, et s'appuient sur les conclusions de plus de 150 millions de tests de latence et de vitesse des réseaux dans 150 pays du monde, et sur des comptes rendus d'études de marché menées par des tiers

Si le trafic réseau et le nombre des workloads des Datacenters seront multipliés par 3 entre 2013 et 2018 c’est clairement grâce au Cloud. En effet en 2018, le Cloud représentera 76% du trafic global des datacenters soit 6,5 Zettabytes sur  8,6 ZB .

La transformation numérique des entreprises n’est sans doute pas étrangère à cette évolution et les nouvelles technologies (Big Data, mobilité, objets connectés etc..) ont toutes pour objectifs de générer et d’exploiter plus de données tout en en simplifiant l’accès.

Impact de l’Internet of Everything IoE sur la croissance du Cloud

L’étude prend l’exemple de l’ « Internet of Everything » IoE comme une des tendances qui aura un fort impact sur la croissance du Cloud.

Rappelons que IoE ne se limite pas aux seuls objets connectés, le concept est plus large puisqu’il englobe les objets, les personnes, les processus et les données qui vont pouvoir s’interconnecter par internet. L’IoE est donc en soi la synthèse de la transformation numérique qui s’opère actuellement. Les services dans le cloud seront essentiels à la plupart des applications IoE pour justement faciliter l’interconnexion.

Les chiffres estimés parlent d’eux même. En 2018 la quantité globale de données créées par des équipements IoE atteindra les 403 ZB Cloud index ZBpar an (33,6 ZB par mois) à comparer avec 113,4 ZB générés en 2013 ce qui était déjà impressionnant.

L’IoE créée déjà un volume considérable de donnée mais actuellement seule une petite portion arrive dans les data centers et avec leurs 403 ZB de données créées en 2018, les équipements IoE généreront un volume de données presque 50 fois supérieur à celui des data centers (8,6 ZB). A titre d’exemple :

  • Un boeing 787 génère 40 teraoctets de données par heure de vol mais seuls 500 Giga octets sont transmis au data center pour analyse et stockage.
  • Un automate d’usine de fabrication créée environ 1TB de données par heure dont seuls 5G sont envoyés au Data Center.

Avec l’amélioration des capacités des Data Centers , beaucoup plus de données générées localement par des équipements IoE pourront être transmises aux Data Centers. Les données restant localement pourront être analysées par des technologies de virtualisation de données (voir l’article La virtualisation des Données : un atout pour l’IoE, le Cloud et le Big Data) qui permettent d’analyse des cloud index devicessources de données distribuées.

La multiplication des équipements connectés  par personne renforce l'intérêt du Cloud

L’IoE prenant en compte  l’interconnexion des personnes, la tendance croissante à l’utilisation de plusieurs équipements par personnes et consommateurs (tablettes, PC, smartphone etc..) est également un facteur fort de transition vers des services dans le cloud qui facilite l’accès à du contenu ou à des applications quelque se soit l’endroit et l’équipement utilisé.

Je n'ai livré ici qu'un petit aperçu de l'étude que je vous invite à lire plus en détails.

Mots-clefs :, , ,

Augusta Reeves choisi Cisco pour développer son expertise HANA

logoLe groupe Augusta Reeves développe depuis 15 ans son expertise en tant qu’intégrateur et distributeur des solutions SAP. Fort de 160 collaborateurs et un chiffre d’affaire de 17 M Euros en 2013, Augusta Reeves a également entamé les virages technologiques de SAP tant sur les solutions Cloud que sur SAP HANA.

Dans le cadre de sa certification HANA et du développement de son savoir-faire HANA, Augusta Reeves a choisi une appliance HANA scale-up de la gamme  Cisco Unified Computing System(UCS) pour ses activités de support et de démonstration HANA.

Augusta Reeves intervient entre autres dans les secteurs du BTP, des Services, des Médias, du Retail et du Secteur Public; et propose également une expertise et des services SAP sur les solutions transverses Clientes (CRM On Premise, Cloud, Hybris) et les solutions RH dont SuccessFactors. L'acquisition d'une appliance HANA lui permet dorénavant de proposer une offre complète de services autour de l’ensemble de son portefeuille d’offres. L'appliance HANA de Cisco porte aujourd’hui l’ensemble des systèmes pré-configurés et de démonstrations d’Augusta Reeves.

 

Mots-clefs :,

Intercloud: Disposer d'un monde de clouds sans contrainte...ou presque

Pourquoi choisir ? Une multitude d’offre Clouds est désormais disponible et le débat entre cloud public et cloud privé a fait long feu. C’est donc de Cloud hybride dont il faudra parler à l’avenir mais surtout d’une interconnexion de clouds multiples utilisant diverses technologies  et pouvant se situés en différents lieux du globe.

On se prendrait vite à rêver d’un monde de clouds sans frontière et sans contrainte …. Rêver pourquoi pas mais en gardant les pieds sur terre. C’est ce qu’a fait Cisco, premier concerné par les problématiques de connexion de clouds, en élaborant la solution « Cisco Intercloud Fabric ».

Quel est l’enjeu d’un ensemble de clouds interconnectés ? Donner la possibilité à l’utilisateur de placer facilement un workload applicatif ou il le souhaite selonIntercloud features ses propres critères (législation, performance etc..) tout en bénéficiant des même règles quel que soit le cloud utilisé pour cette application. Pour y arriver Cisco s’est défini un certain nombre de fonctionnalités qui ont été mis en œuvre dans Intercloud Fabric :

  • Déploiement de workloads en libre-service sur l'ensembles de clouds publics ou privés.
  •  Sécurité de bout en bout par une connectivité sécurisée avec chiffrements des données lors de leurs déplacements.
  • Fonctions réseaux consistantes  grâce à l’extension de niveau 2 d’un cloud privé vers un cloud public
  • Mobilité bidirectionnelle des workloads pour que la migration puissent s’effectuer de privé vers public et réciproquement. Une conversion automatique d’image permet aux machines virtuelles d’être placées sur n’importe quel cloud.
  • Liberté de choix des fournisseurs de cloud et des hyperviseurs

De quoi se compose Intercloud Fabric ?

Intercloud overview

On va distinguer deux offres :

  • Cisco Intercloud Fabric for Business déployé sur les sites de l’entreprise afin de permettre la création de clouds hybrides avec la connectivité à un large écosytèmes de fournisseurs de clouds. Cette comporte deux composants :
    • Intercloud Fabric Director
    • Intercloud Fabric Secure Extender
  • Cisco Intercloud Fabric for Provider. Ce produit permet à un fournisseur de cloud de devenir partie intégrante d’un écosystème Intercloud. Le composant Intercloud Fabric Provider Platform est une appliance virtuelle.

Mots-clefs :, ,

Comment intégrer Cisco ACI et OpenStack

Avec l’OpenStack Summit, Paris devient pour quelques jours la capitale d’OpenStack. Pour s’y préparer j’avais proposé la semaine dernière quelques rappels à propos d’OpenStack sur ce blog pour ceux qui découvrent OpenStack.

Pour ceux qui sont déjà à un stade plus avancé dans la démarche et qui s’interrogent sur la manière d’intégrer Cisco Application Centric Infrastructure ACI avec OpenStack il existe un document intitulé Cisco APIC Driver for OpenStack: Installation and Operation Guide.

Intégration aisée avec les plateformes d’orchestration comme OpenStack

Application Centric Infrastructure (ACI) est une architecture holistique avec une automatisation centralisée et des profils applicatifs dictés par des politiques. La conception d’ACI permet d’offrir la souplesse du logiciel et la « scalabilité » des performances avec le matériel.

La conception d’ACI repose sur le concept des APIs ouvertes REST (Representational State Transfer) rendant ainsi l’intégration avec n’importe quelle plateforme d’orchestration particulièrement facile.

Dans le cas d’OpenStack ces APIs permettent une intégration par l’intermédiaire de Neutron, une couche d’abstraction du réseau packagée comme un composant du framework OpenStack.

Le principe de Neutron est de supporter un modèle de type « plug-in » grâce à une API Neutron standard.  Cette API repose sur des primitives telles que réseaux, ports, routeurs et subnets mais la mise en œuvre de ces ressources est déléguée à des plug-ins spécifiques.

Le contrôleur de l’ACI, le Cisco APIC (Application Policy Infrastructure Controller), supporte l’API Neutron standard et les ressources de cette API. Ces ressources sont converties de manière transparente par l’APIC dans un « Application Network Profile »

Principe de fonctionnement du Plug-in Cisco pour OpenStack

Ce plug-in Cisco pour OpenStack est basé sur le plug-in Neutron multi-vendeurs modulaire de niveau 2 (Modular Layer 2 : ML2).

ML2 donne la possibilité à un administrateur de spécifier un ensemble de drivers pour gérer des portions de réseaux. Les drivers « types » définissent un type particulier d’étiquettes (tagging) ou d’encapsulation et les drivers « mechanism » interagissent avec des équipements spécifiques dans le réseau.

Dans le schéma ci-dessous on voit en particulier l’APIC driver créé par Cisco qui communique en utilisant les APIs REST présentés par APIC.

Neutron ML2

L’intégration est supportée par la distribution OpenStack Icehouse proposée par de nombreux fournisseurs comprenant Red Hat, Canonical, and Mirantis.

Deux drivers ML2 séparés sont utilisés pour s’intégrer avec les différentes portions du réseau :

  • Open virtual switch (open vSwitch, or OVS) driver
  • Cisco APIC driver

La figure ci-dessous explique le fonctionnement (plus de détails dans le document que je mentionne en début de billet).

APIC Openstack archi

 

Je profite également de ce billet pour signaler l’existence d’un ACI toolkit.

Mots-clefs :, , , ,