Cisco France Blog – Data Center

Numérique et handicaps: chance ou nouvelle course d’obstacles

Le numérique arrive avec son lot de promesses, il peut être source d’espoir pour bon nombre de personnes en situation de handicap, encore faut-il penser à leur faciliter l’accès aux sites internet qui sont encore inaccessibles pour beaucoup d’entre eux.

 Il y a quelques temps j’ai découvert que John Chambers, chairman de Cisco, était dyslexique. Dans un article de presse il expliquait que pour compenser ce handicap il avait dû apprendre d’autres manières pour atteindre plus rapidement les mêmes objectifs. Plus proche de nous Sylvain Nivard, non voyant, montre qu’il est possible de dépasser son handicap en devenant maire de Méry-sur-Cher après avoir fait sa carrière chez IBM.

De belles réussites qui ne doivent pas masquer la souffrance de tous ceux dont le handicap reste un frein pour vivre dans notre société moderne.

Numérique : des évolutions technologiques porteuses d’espoirDefi Cisco

Le numérique est sans doute une chance à saisir pour faciliter la vie des personnes à handicap. Encore dernièrement le Défi Cisco a récompensé un projet de canne connectée pour non-voyants (lire Une canne blanche connectée, lauréate du Défi Cisco) qui devrait leur faciliter la vie. Mais le grand défi est sans doute le droit à pouvoir s'exprimer, à pouvoir communiquer avec les autres. Il ne faudrait pas que le numérique se transforme en course d’obstacles pour les handicapés.

Les évolutions dans les domaines comme la synthèse vocale, la commande vocale ou oculaire et la dictée vocale permettent à des non-voyants, mais également à des personnes souffrant de dyslexie ou de praxie (difficulté de coordonner ses mouvements), de dépasser leur handicap pour utiliser les ordinateurs. On mesure difficilement les conséquences d’un handicap quand on n’y est pas soi-même confronté. J’ai appris dernièrement par exemple que la dyslexie était plus pénalisante pour la langue française ou anglaise alors que des enfants utilisant des langues dites « transparentes » comme l’italien ou l’espagnol lisent quasiment sans erreur.

Les nouvelles technologies possèdent des vertus utiles pour certains handicaps. L’usage de la tablette par exemple peut faciliter la lecture pour les enfants dyslexiques. Le fait d’avoir sur l’écran moins de mots sur chaque ligne permet à l’enfant de se concentrer sur chacun d’eux.

Les smarphones et les tablettes en offrant la mobilité, de la puissance de calcul importante , des technologies de reconnaissance et des applications de traduction instantanée  ouvrent des opportunités pleines intéressantes.

Mais soyons bien conscients que les possibilités de ces bijoux de technologies doivent être accessibles à tous. Par exemple une personne souffrant de praxie éprouvera d’énormes difficultés à utiliser un écran tactile où les mouvements de doigts que nous faisons sans réfléchir sont autant d’épreuves insurmontables pour elle.

L’accessibilité : le véritable enjeu du numérique

Internet est devenu incontournable et de nombreuses démarches administratives peuvent se faire aujourd’hui sur internet. Le développement du commerce électronique et des usages numériques au sens large renforce le côté de plus en plus incontournable d’internet. L’inventeur du World Wide Web, Tim Berners-Lee, a affirmé que "La puissance du Web est dans son universalité. Y accéder quel que soit son handicap est un point essentiel."

Pour éviter une nouvelle forme de discrimination avec Internet et le numérique l’accessibilité doit être pensée à tous les niveaux. Pour mesurer la difficulté, Imaginez-vous quelque instant devant votre ordinateur les yeux fermés ou dans l’incapacité d’utiliser un clavier ou un écran tactile !!

De réelles améliorations sont apparues grâce à la législation américaine et la «Web Accessibility Initiative». Certains pays comme s’en sont inspirés et la France dispose d’un « Référentiel Général d’Accessibilité des Administrations » mais beaucoup de progrès restent à accomplir, en particulier pour les sites web des entreprises.

Ces documents contiennent des règles et des recommandations pour rendre les contenus Web plus accessibles à une plus grande variété de personnes en situation de handicap (non-voyants, malentendants, les personnes ayant des troubles d'apprentissage, des limitations cognitives, des limitations motrices, des limitations de la parole, de la photosensibilité etc.)

Ses règles demandent à ce qu'un site soit :

  • perceptible : équivalents textuels à tout contenu.
  • utilisable :   éléments d'orientation pour naviguer, trouver le contenu et se situer dans le site.
  • compréhensible contenu textuel lisible et compréhensible. Apparition et fonctionnement des pages de manière prévisible.
  • robuste compatibilité avec les agents utilisateurs actuels et futurs, y compris avec les technologies d'assistance.

Des règles encore trop peu prises en compte sur la majorité des sites internet en partie par méconnaissance du problème.

Une « expérience utilisateur augmentée » aussi pour la personne en situation de handicap.

Machine learning, Big Data, Objets communicants, expérience utilisateur, autant de termes utilisés abondamment quand on parle de transformation numérique. Des termes qui contiennent en eux beaucoup de messages d’espoir et qui permettent de rêver d’une expérience utilisateur augmentée ou l’utilisateur pourrait être une personne en situation de handicap qui verrait son univers améliorée.

Merci à Philippe Rosado d’avoir, avec son association, attiré mon attention sur ce sujet.

Le Cloud OutScale part à la conquête du monde

Avec un nouveau Cloud à Hong Kong OutScale simplifie l'accès au marché Chinois.  Apres la France et les Etats Unis , C'est Logo OutScaleen Chine que OutScale a décidé de continuer son expansion. Avec cette présence OutScale se présente non pas comme un simple fournisseur de services de cloud mais comme un véritable facilitateur de business pour les entreprises occidentales qui souhaitent prendre pied sur l’immense marché chinois.

OutScale s’affiche tout à la fois comme un fournisseur français de cloud, offrant la garantie de données stockées localement, et en même temps comme une société résolument tournée sur l’international.

Cette dernière implantation à Hong Kong permettra aux entreprises européenne et américaines de disposer d’une infrastructure Cloud pour leurs clients asiatiques et leurs filiales. Elles bénéficieront de temps de latences extrêmement réduits et d'importants moyens de stockage, de calcul et de réseaux. A chaque fois les infrastructures sont identiques : serveurs Cisco UCS,  stockage NetApp et le logiciel d'orchestration TINA OS développé par OutScale

Pourquoi OutScale est devenu le premier opérateur de Cloud européen à s’installer en Chine ? Son président Laurent Seror répond à cette question dans cette courte vidéo (Environ 3 mn).

.                                    

Lire le communiqué de presse : Outscale premier Cloud Provider européen à ouvrir le marché chinois aux entreprises occidentales

 

Mots-clefs :,

Fiabiliser la production informatique pour l’excellence opérationnelle

Avec le temps les Data Centers sont devenus de véritables centres névralgiques pour les entreprises et les opérateurs de Cloud. La transformation numérique ne fera qu’accentuer ce fait. La recherche de l'excellence est plus que jamais une obligation.

A la recherche de l’excellence opérationnelle

Les exigences et les attentes vis-à-vis de Data Centers deviennent, par la même occasion, plus fortes en termes de performance et de disponibilité bien sûr, mais également en termes d’agilité. Une agilité qui doit rendre les entreprises capables de faire face à des ruptures technologiques, des transitions de marché ou bien encore à de nouveaux entrants qui bouleversent l’ordre établi.

Les directions informatiques sont donc sous pression et attendent de leurs fournisseurs de contribuer à simplifier leur tâche. Une tâche rendue d’autant plus complexe par la multitude de fournisseurs (constructeurs ou éditeurs), qui concourent à la réalisation d’une solution.

Cela impose aux sociétés qui proposent les solutions de monter en valeur pour :

  • Faciliter le nécessaire travail d’intégration par une expertise de plus en plus poussée sur :
  1.  les produits matériels et logiciels à leur catalogue
  2. les architectures pour fournir des solutions complètes adaptées aux besoins du client en s’appuyant, lors que cela est possible, sur des « architectures de références » mises à disposition par les constructeurs.
  • Aider à fiabiliser la production par des services appropriés en:
  1.  Limitant l’impact des défaillances des produits
  2. Anticipant les risques de dysfonctionnement dans un environnement de production
  3. Palliant à un manque de ressource qualifiée lors de périodes particulières ou d’évolutions technologiques.

La fiabilité d’une production ne dépend pas que du matériel et du logiciel

Force est de constater que bien souvent les dysfonctionnements ne sont pas liés aux produits eux même mais à une mauvaise utilisation dans le contexte de la production

En plus du support de la solution dans sa totalité, les clients doivent pouvoir attendre de leurs revendeurs et intégrateurs des services complémentaires pour fiabiliser leur production. Nombreux intégrateurs et revendeurs sont conscients de la nécessité de se transformer pour répondre à ce besoin et certains ont déjà fait entrepris cette évolution.

Ce ne doit pas être un simple effort de cosmétique car la compétence doit être réelle et le service de qualité. Stordata services

En capitalisant sur une expertise forte développée autour des produits qui ont été sélectionnés pour être revendus la société StorData , spécialiste des infrastructures, propose par exemple une offre de services complète regroupés sous le terme « IT Care » qui illustre assez bien la « montée en valeur » que je mentionnai précédemment.

Serveurs UCS : de la supervision à l'anticipation des besoins de production

Chaque service porte sur l’ensemble des logiciels et matériels composant la solution fournie au client. Si on prend le cas des serveurs UCS, la société StorData les revend depuis plusieurs années et les intègre dans des Stordata logo 2architectures convergées. StorData a voulu aller plus loin en proposant en plus au client qui le souhaite des rapports de supervision (IT Care supervision) sur le fonctionnement de l’UCS dans le contexte de production. Un expert StorData accompagne ces rapports de préconisations pour que les ressources de traitement soient parfaitement alignées avec le planning de production. Et pour accomplir la majorité des actes à distance c'est l'outil Webex de Cisco qui est utilisé depuis de nombreuses années.

Le client pourra de la même manière faire appel au service « IT Care Administration » pour associer un nouveau service profile à une lame UCS ou procéder à une mise à jour du microcode.

La production est mieux maitrisée et certains clients en profitent pour mettre en place une véritable optimisation des ressources voire du capacity planning.

Monter en valeur ne sera bientôt plus un choix mais une obligation pour ceux qui veulent se maintenir dans un environnement en perpétuelle évolution qui nécessite des expertises de plus en plus pointues.

Mots-clefs :, ,

SwissLife : une infrastructure pour cloud privé en neuf mois

IMG_0702A l’occasion d’une matinale consacrée aux infrastructures convergées ce mardi 2 décembre, la société MTI a eu la bonne idée de faire témoigner le mardi 2 décembre SwissLife France.

J’avais moi-même le plaisir d’animer la table ronde réunissant SwissLife, MTI, Cisco, EMC et VCE pour mieux comprendre le rôle que peuvent jouer les infrastructures dans la recherche d’agilité et la transformation des entreprises.

Objectif Cloud en neuf mois

mtiDenis Bourdon, Directeur des Operations IT chez Swiss Life France, a expliqué qu’après quatre ans d’existence, l’infrastructure utilisée dans les datacenters de Swiss Life France n’était plus adaptée à l’activité quotidienne. La prolifération des serveurs et les limites de capacité de stockage ne pouvaient que conduire SwissLife à rénover ses datacenters de Roubaix et de Levallois avec l'aide de son intégrateur MTI.. Les nouveaux enjeux et les nouveaux projets, tels que la mise en place d’un cloud privé, n’ont fait que renforcer l’urgence de la rénovation.

Pres swisslifeSwissLife a donc enclenché un projet de rénovation avec création d’un cloud privé et en a profité pour mettre en place un Plan de Continuité Informatique (PCI) sécurisé au siège de l’entreprise à Levallois Perret

Supprimer les silos technologiques

Pour y arriver il fallait réduire le temps de conception d'architecture et le temps d'intégration en déléguant en partie ces tâches à un intégrateur ( MTI dans le cas de SwissLife) qui peut s'appuyer sur une architecture de référence . Cette architecture de référence est  une architecture validée résultat d'un travail de collaboration des constructeurs. Elle prend la forme d'un document technique détaillé, véritable guide pour l'intégarteur qui gage en temps et évite de potentielles erreurs.

Contrairement à des approches comme Vblock ou l'intégration est faite par VCE, là l'intégrateur joue ce rôle et fournit une solution complète au client en l'occurrence SwissLife.

La solution intégrée prenant en compte stockage, réseau et serveur constitue ainsi le socle de base du datacenter rénové sur lequel a pu être bâti le Cloud

Neuf mois est un donc une belle performance quand on sait que ce temps inclus le délai entre la commande et la livraison des équipements

Autre aspect pris en considération dans ce projet c'est le point unique de support que fournit l'intégrateur pour assurer le bon fonctionnement de la totalité de la solution.

Denis Bourdon considère que le projet est un réel succès et que d’ores et déjà les principaux objectifs sont atteints :

  • disponibilité du service
  • performances
  • capacité à mettre en place un PCI dans des délais toujours plus courts.
  • Cloud privé

Un projet articulé autour de deux infrastructures convergées VSPEX EMC-Cisco . swisslife gains

L’architecture VSPEX est constituée de baies de stockage EMC VNX avec des serveurs Cisco UCS dans un environnement de virtualisation VMware avec réplication entre les 2 sites.

Les sauvegardes sont basées sur de l’EMC Networker et du Data Domain.

La table ronde a soulevé les questions sur les critères de choix entre approche traditionnelle, Vspex et Vblock. Il en ressort que d'une part il faut que les organisations soient prêtes à une approche globale et que dans le cas d'un Vblock la notion de TCO soit réellement pris en compte pour valoriser les gains d'exploitation et de gestion des changements.

En tout état de cause le choix revient toujours au client qui dans bien des cas s'appuie sur les conseils d'intégrateurs spécialisés dans l'infrastructure de la data.

Rénover utilement en  partenariats avec des écoles

Le résultats de la transformation ? 160 serveurs qui auraient pu partir à la casse...  SwissLife a jugé plus utile d'en faire dons à des écoles qui en auront un  bon usage pour faire l'apprentissage de l'informatique.

Une idée simple qui permet de recycler utilement le matériel informatique.

A lire également le livre blanc sur la gestion et la sauvegardes des données

 

Mots-clefs :, , ,

UCSO: une solution d'infrastructure intégrée pour OpenStack avec Cisco et RedHat

OPenStack : Donner la capacité d’innover

D’après la dernière enquête auprès des utilisateurs d’OpenStack les 5 premiers critères qui ont déterminé le choix des utilisateurs sont :

  • Capacité d’innovation 47%
  • Ouverture de la technologie 47%
  • Economie des coûts 46%
  • Indépendance vis-à-vis d’un fournisseur 45%
  • Efficacité opérationnelle 41%

L’innovation est en première place de la préoccupation des utilisateurs alors que dans l’enquête précédente elle ne figurait qu’en sixième place. Une prise de conscience sans doute car le contexte économique et concurrentiel impose aux entreprises de s’adapter voire de se transformer rapidement. Cela passe pour partie par la capacité d’innover.

Depuis ses débuts en 2010 OpenStack a fait de nombreux progrès en fonctionnalités et en nombre d’utilisateurs qui explique que la majorité des constructeurs (eux même souvent utilisateurs d’OpenStack) mettent en place une stratégie OpenStack et Cisco à quant à lui fait récemment l’acquisition de Metacloud, une offre de Cloud privé OpenStack as a service .

                                      Cisco et Redhat : un partenariat pour faciliter l’adoption d’OpenStack

RedHat disposant de l’offre Red Hat Enterprise Linux OpenStack Platform , il était assez naturel que le partenariat Cisco et RedHat se renforce.

Une architecture de référence commune : Déjà en Janvier 2014 je vous avais fait part d’une architecture de références pour Faciliter la mise en production d’OpenStack avec Cisco et RedHat (voir billet sur le blog) avec Le document Cisco Validated Design (CVD) pour décrire OpenStack avec une architecture Red Hat Enterprise Linux sur serveur UCS.

Une solution de PaaS intégrée : Le partenariat s’est ensuite poursuivi puisque dans le cadre de leur collaboration Cisco et RedHat ont créé un Cisco Validated Design (CVD) qui intègre OpenShift de RedHat avec Cisco Intelligent Automation for Cloud (CIAC) et Virtualized Multiservice Data Center (VMDC). (voir billet blog)

OpenShift est un produit de PaaS bâti sur Red Hat Enterprise Linux et le middleware Red Hat JBoss , il peut ainsi mettre à disposition des développeurs une plateforme de développement qui bénéficie d’un support total pour une multitude de langages et de frameworks comprenant entre autres  Python, Ruby, PHP sans oublier Java EE.

UCSO value

Cisco Integrated Infrastructure solutions pour RedHat OpenStack : UCSO Infras integrées UCS

Annoncées en septembre 2014, dans le cadre de l’extension du partenariat RedHat-Cisco autour de OpenStack, ACI et Intercloud, les solutions UCS d’infrastructures intégrées pour OpenStack ont pour objectif de simplifier le déploiement et la gestion opérationnelle de clouds basés sur OpenStack.

UCSO combinera (selon les éditions) Cisco Unified Computing™ (UCS), Cisco Application Centric Infrastructure (ACI), Cisco Intercloud Fabric et Red Hat Enterprise Linux OpenStack Platform. Les offres UCSO sont prévues sous la forme de deux Editions:

  1. Starter Edition: pour une installation rapide et simple dans le cas de clouds privés d’entreprise.
  2. Advanced Edition: pour un déploiement de clouds à grande échelle
  • Advanced Edition avec intégration d’ACI pour des politiques d'infrastructures de clouds alignées avec les applicatons
  • Advanced Edition avec intégration de Intercloud fabric pour clouds hybrides

UCSO edition

La disponibilité de la Starter Edition est prévue vers la fin de l'année 2014.

A lire également :

 

 

Mots-clefs :, ,

Hyper convergence : SimpliVity intègre les serveurs en rack Cisco UCS

La convergence est en passe d’entrer dans les mœurs des Data Centers. Le souci de rationalisation, d’économie et d’agilité aura agi comme un catalyseur pour accentuer le mouvement.

Selon le Gartner , qui utilise le terme "Integrated System", le marché des infrastructures convergées croît de 50% par an. De quoi aiguiser l'appétit de nouvelles start up qui se positionnent en prônant "l'hyper-convergence" .

Integrated System MQ Gartner

Hyper convergence: Une approche basée sur le logiciel et l’intégrationsimplivity

L’hyper convergence est basée sur une approche logicielle et entend consolider dans un seul stack tous les composants d’infrastructure et les fonctionnalités nécessaires à son fonctionnement. Les technologies intégrées sont administrées comme un ensemble unique par le biais des mêmes outils. L’accent est mis sur la scalablité en cherchant à reproduire la granularité des architectures Scale out mises en place par Google, Amazon ou Facebook. Dans le cas des solutions d’hyper convergence la granularité est au niveau du nœud.

simlivity benefitsL’hyper convergence capitalise sur les principes de la convergence et propose une intégration de fonctionnalités logicielles comme l’optimisation du WAN, la déduplication de données et la compression.

Simplivity fait partie de ces nouvelles sociétés qui ont fait de l’hyper convergence leur cheval de bataille.

SimpliVity intègre le serveur UCS C240 M3

Créée en 2009 , SimpliVity propose l’offre Omnistack qui depuis quelques mois peut intégrer des serveurs Cisco UCS. Le document, réalisé conjointement par SimpliVity et Cisco, “OmniStack Integrated Solution with Cisco Unified Computing System: Reference Architecture” décrit l’architecture de la solution validée pour Simplivity Ominstack avec des serveur UCS C240 M3.

Cas d’usage de la solution Omnistack avec UCS:

Parmi les cas d’usage ciblées par cette solution d’hyper convergence on trouve:

  • - La consolidation de data centers: La solution Omnistack avec les serveurs UCS permet de consolider les infrastructure sur plusieurs data centers en fournissant une administration centralisée.
  • - L’administration d’agences ou de sites distants. La solution permet d’unifier les projets d’administration. Omnistack fournit des services de mobilité des données. Cela concerne principalement les grandes entreprises avec de multi-sites distants

 

 

Mots-clefs :,

Mémoire Flash : Combiner performance, intégrité et longévité

Comme j’ai eu l’occasion de l’écrire dans un précédent billet, le choix des solutions de mémoire flash repose sur des critères technologiques et sur la manière dont est gérée la mémoire flash.

Dans son offre UCS Invicta , Cisco donne un rôle clé à son système d’exploitation (Cisco UCS Invicta OS) pour optimiser efficacement la mémoire flash. Reprenons quelques fonctions déterminantes dans le fonctionnement d’un système à mémoire flash :

Facteur d’amplification d’écriture :

L’amplification est la conséquence du déplacement des données pour effacer l’intégralité des blocs flash sous-utilisés. Cela a pour effet de consommer de l'espace excédentaire et de réduire la longévité des mémoires flash en exigeant des opérations d'écriture inutiles.

Dans la majorité des cas on observe sur les produits du marché des amplifications d’écriture de 10 :1 (qui peut atteindre 40 :1 pour certaines solutions).

En écrivant dans la mémoire flash avec des blocs de longueur fixes (non aléatoire) et complets l’OS Invicta réduit le facteur d’ amplification d’écriture (1,1 :1 à 1,3 :1). On peut ainsi obtenir une longévité 8 à 10 fois supérieure pour les mêmes composants utilisés dans un système géré différemment.

Déduplication des données à haute vitesse :

La déduplication a pour effet de diminuer le nombre d’écriture et d’obtenir ainsi une meilleure endurance des composants flash. Lorsque la déduplication est activée dans UCS Invicta , elle s’effectue à la volée pour 100 % des écritures entrantes. Un algorithme de hachage de blocs fixes hache chaque opération d'écriture en 4 Ko, puis la compare à des blocs existants en mémoire. Si une correspondance est trouvée, les données sont lues pour vérifier la duplication, et un pointeur est stocké plutôt qu’un doublon des données.

Invicta datalayers

Détection et correction d’erreur :

La détection d'erreur utilise le même algorithme de hachage que la déduplication. Toutes les opérations d'écriture entrantes sont hachées et stockées dans une table de hachage. Lors de la relecture avec la détection d'erreur activée, l’OS Invicta détermine si les bits sont ceux qui ont été stockés sur les cellules flash. Si une erreur est détectée, les données Initiales peuvent être récupérées. Les informations de hachage et les métadonnées sont enregistrées à la fois dans la mémoire du système et sur ​​les Flashs.

L'intégrité des données en cas de coupure de courant :

L’'intégrité des données dans un système UCS Invicta, en cas de perte d’alimentation électrique, est garantie par un buffer de protection de 1Go, par nœud et par appliance, pour les opérations d'écriture entrantes qui n’ont pas été encore écrites dans la mémoire flash. Le tampon est alimenté par des super condensateurs et, après retour de l’alimentation, les données sont relues dans le buffer et la validation peut ainsi se terminer en assurant l’intégrité des données.

Pour information l’offre Cisco UCS Invicta se décline sous deux formes :

 

Mots-clefs :,

Choisir les mémoires flash en connaissance de cause.

La course à la performance est un processus sans fin depuis que l’informatique est née. Les usages et l’expérience utilisateur nécessitent des applications de plus en plus gourmandes en ressources et de plus en plus exigeantes en performances. Les évolutions technologiques qui ont accompagné ces évolutions ne se sont pas faites au même rythme. Les capacités de stockage traditionnel ont par exemple augmenté plus vite que les performances des disques durs créant ainsi un gap important avec les capacités de traitements des processeurs.

Ce décalage entre technologies explique l’engouement pour les technologies flash qui se reflète dans les stratégies des constructeurs informatiques qui ont été nombreux à faire l’acquisition de société spécialisées dans le stockage flash afin de répondre aux besoins d’accélération de certaines applications. C’est ainsi que Cisco a fait l’acquisition de la société Whiptail le 29 octobre 2013 avec la gamme dénommée aujourd’hui UCS Invita.

Avec ces technologies de mémoires flash appelées aussi NAND (de l’opérateur logique de l’algèbre de Boole NON-ET qui donne NAND en anglais) on doit également prendre en compte de nouvelles contraintes. Il existe différentes manières d’utiliser ces mémoires flash qui impactent la performance, l'endurance, la correction d'erreurs, et le coût.

Ne prendre en compte qu’un de ces facteurs peut avoir des conséquences importantes sur une production informatique.

Les types de mémoire flash actuels

La densité cellulaire (nombre de bits dans une cellule) est un des facteurs critiques pour la performance, l'endurance, la correction d'erreurs, et le coût. Pour ceux qui regardent ces technologies pour la première fois il est sans doute utile revenir sur quelques notions de base.

- Cellule à niveau unique (SLC) : une cellule consacre un transistor à un bit. Il n'existe qu'un seul seuil de tension, qui représente la présence ou l'absence de Flash typesdonnées.

  • performance.
  • correction d'erreurs simple.
  • taux d'endurance élevé, d’environ 30 000 cycles.
  • technologie la plus coûteuse en termes de coût par bit.

- Cellule multiniveau (MLC) : deux bits de données sont représentés dans le même transistor. La détermination de la donnée s’effectue par détection d'une différence de seuil de tension dans le transistor.

  • augmentation des taux d'erreurs possible due à la complexité
  • taux d'endurance d'environ 3000 cycles d'écriture.
  • faible endurance résultant de la représentation de plusieurs états en utilisant le même nombre d'électrons.

- Cellule entreprise multiniveaux (eMLC) : compromis entre la conservation des données et de l'endurance.

  • plus robuste que la MLC traditionnelle
  • plus chère que la MLC traditionnelle.
  • endurance augmentée à un maximum de 10 000 cycles.

- Cellule de niveau Triple-(TLC) : trois bits dans une seule cellule coût par bit est minimal.

  • Problèmes de correction d'erreurs et d'endurance amplifiés en TLC.
  • débits de 500 à 1500 cycles.

Influence de la taille des cellules sur l'endurance.

Plus la taille des cellules est réduite, moins il y a d'électrons dans la cellule. La différence entre les états distincts devient de plus en plus difficile à détecter, induisant plus de risques d'erreurs. En outre, la proximité des cellules augmente encore le problème de lecture, nécessitant une plus forte capacité de correction d'erreurs.

Les solutions Cisco UCS Invicta sont basées sur la technologie MLC.

Cisco évalue les dernières technologies NAND comme la 3D NAND et la vNAND qui permettront de surmonter les limites des NAND actuelles. Ces technologies promettent une plus grande endurance que l’eMLC et devraient atteindre finalement le même coût par bit. Elles offrent également une densité plus élevée qui se traduit par des SSD de plus grande capacité, de 4 à 8 téraoctets (To) avec un facteur de forme de 2,5 pouces.

D’autres considérations à prendre en compte dans le choix d’un stockage flash

 J’ai insisté dans ce billet sur les différences de mise en œuvre des technologies NAND dans un système de stockage flash mais lors d’un choix d’architectures d’autres considérations sont à prendre en compte et je tacherai de les détailler dans un prochain billet mais rappelons quand même :

  • les facteurs d’amplification
  • la Déduplication des données à haute vitesse :
  • La qualité de la Détection d’erreur et de correction :
  • L'intégrité des données en cas de coupure de courant

   Le système d’opération du système Flash a donc son importance car c’est lui qui va gérer la manière d’écrire les données, de gérer le Garbage Collector (gestion des espaces invalidées) et de corriger les erreurs. En fonction de l’efficacité du système d’exploitation la gestion de l’usure, la fiabilité et les performances en seront affectées.

  

 

Mots-clefs :,

Le Big Data en France : La course aux datascientists est lancée

La course au Big Data est lancée et il ne s’agit pas de rester à la traine. Celui qui sera capable de d’exploiter efficacement les données et les nouvelles sources de données sera le grand vainqueur

Ceux qui l’ont compris ont bouleversé les modèles économiques existants. Exploiter les données c’est non seulement créer de nouveaux services mais c’est aussi créer de nouveaux modèles économiques. Le succès des Google, Amazon, Netflix ont démontré que dorénavant aucun modèle économique ne pouvait se targuer d’être à l’abri.

La montée en puissance de nouvelles entreprises comme Uber, Blablacar ou encore Airbnb, qui mettent à disposition de communautés des données élaborées pour créer de nouveaux services, nous laissent présager de la société de demain.

La France a-t-elle la capacité d’être acteur sur ce marché ? Souhaitons-le car nous disposons d’atouts non négligeables qui devraient nous permettre de combler le retard.

Un plan Big Data français Big Data marché

Tout d’abord un plan Gouvernemental. Le mercredi 2 juillet 2014 , le cinquième comité de pilotage de la « Nouvelle France industrielle » a adopté le plan Big Data.A la tête de l’équipe du Plan Big Data on trouve François Bourdoncle, Président de FB&Cie, et Paul Hermelin, Président-directeur général.

Sur BFM Business Paul Hermelin a rappelé que l’état devait faire son devoir de formation car le Big Data nécessitait de nouveaux profils appelés Datascientists. Par ailleurs la France peut compter sur un système de grandes écoles capables de produire des créateurs de startups. On doit toutefois s’interroger sur notre capacité à aider les startups à se développer dans la durée pour éviter qu’elles se fassent aspirer par des Ventures Capitalistes VC américains.

Un vivier de compétences à exploiter

En écho aux propos de Paul Hermelin ce samedi 15 novembre BFM Business consacrait une émission sur les Datascientists.Un sujet critique qui a incité l’école polytechnique à créer une chaire Datascientist avec Thalès, Orange et Keyrus. (cliquer sur l'image pour voir l'émission)

datascientists

 

La France dispose d’une « excellence «  mathématique et d’un vivier de compétences qui sont de réels atouts pour le Big Data et qui devraient nous permettre de disposer d’environ 2000 datascientists en 2018.

Bruno Teboul, membre de la gouvernance de la chaire de Data Scientist de l’Ecole Polytechnique, a souligné que le Datascientist était un nouveau métier qui allait bien au-delà du métier de statisticien. En effet le datascientist doit maitriser les mathématiques, l’informatique « avancée » avec les algorithmes issus des grands du web et les nouvelles technologies du type Hadoop. L’algèbre linéaire sera également utile pour appréhender l’analyse sémantique et permettre l’analyse du bruit conversationnel sur le web et les réseaux sociaux.

De nombreuses écoles de commerces et d’ingénieurs ont aujourd’hui une filière Big Data et j’avais eu moi-même l’occasion d’interroger dès juin 2013  Raja Chicky , Experte du Big Data à l’ISEP, sur le sujet du Big Data, des enjeux et des compétences .

 lire également Pourquoi la croissance du Big Data est liée à la transformation numérique ?

pour en savoir plus sur Cisco et le Big Data cliquer ici

 

Mots-clefs :,

Interface web libre service d'UCS Director (5/5)

Comme toutes les bonnes choses ont une fin, cet article vient clôturer notre série sur UCS Director, après 4 posts (Introduction, mise en oeuvre et tableaux de bord, provisioning unifié et automatisation).

La dernière corde à l'arc d'UCS Director concerne la mise à disposition des ressources de l'infrastructure qu'il automatise et pilote aux différents profiles qui sont amenés à consommer des ressources d'infrastructure, via un portail web Self Service:

  1. Les équipes d'opération, qui se voient publier par les équipes d'ingénierie un catalogue de Workflows adaptés à leur profil en lieu et place des traditionnelles procédures manuelles et scripts maisons. Ils peuvent notamment tirer partie de la puissante fonction de rollback en cas d'erreur.
  2. Les équipes projets, à qui un catalogue de VMs est mis à disposition. Ces VMs sont provisionnées dans des Virtual DataCenters, qui sont des pools de ressources respectant un ensemble de policies de placement, configuration et dimensionnement Compute / Stockage / Réseau mais également un modèle de facturation de la consommation ou des restrictions de droits sur VMs (un développeur pourra réaliser plus d'opérations sur les VDC de dév que d'intégration par exemple). Et ce pour les 3 hyperviseurs supportés (vSphere, Hyper-V, RedHat EV) sans que l'utilisateur ne perçoive la différence! Idéal pour engager une stratégie multi-hyperviseurs...
  3. Bien sûr, les orchestrateurs bénéficient des même droits au travers de l'API que vous connaissez par coeur maintenant

C'est tout cela que je vous propose de découvrir en action dans cette vidéo:

J'espère que cette série vous aura éclairée sur les bénéfices qu'UCS Director pourraient rapidement délivrer dans votre contexte, ainsi que des perspectives qu'il ouvre sur la route du Cloud. A très bientôt pour d'autres articles!

Mots-clefs :, , , ,

LoadMaster complète les serveurs UCS pour supporter la croissance du Cloud

Face à la demande croissante pour le Cloud, comme l’a encore démontré la dernière étude Cisco Global Cloud Index, les fournisseurs de services de Cloud doivent pouvoir aligner rapidement des ressources.

C’est le problème auquel a été confronté le fournisseur de services Peak 10 soucieux d’offrir à ses clients, depuis une dizaine d’années, un environnement IT totalement opéré leur évitant ainsi d’investir dans leur propre DataCenter. Les multiples clusters de cloud gérés par Peak 10 ont fini par devenir difficiles à faire évoluer et à administrer.

Un des plus gros obstacles à la croissance identifié par Peak 10 résidait dans les infrastructures physiques associées au Cloud. Afin de lever les freins à sa croissance, les équipes de Peak 10 se sont tournés vers des serveurs UCS en y associant le logiciel LoadMaster de la société KEMP , spécialiste des solutions de « Application Delivery Controler » ADC (voir le billet Loadmaster: une solution de load balancing qui tire profit de l’architecture UCS). LoadMaster fournit une solution de load balancing logiciel qui s’exécute dans le serveur UCS.

Loadmaster

Auparavant pour rajouter, câbler et configurer un nouveau serveur physique , un technicien de Peak 10 avait besoin d’environ une journée. Aujourd’hui insérer une lame UCS et la déployer prend une heure et quasiment n’importe qui peut le faire vu la simplicité de l’opération.

Avec la virtualisation des serveurs UCS, Peak 10 peut provisionner un nouveau serveur virtuel à un client en quelques minutes. Les services profiles et les templates des serveurs UCS réduisent et simplifie les opérations permettant ainsi d’ajouter de la capacité ou de replacer des serveurs quand le besoin se fait sentir.

Le logiciel LoadMaster permet des évolutions aussi faciles. Résidant dans le « fabric Interconnect » du serveur UCS, il se configure facilement pour réaliser l’équilibrage de charge des serveurs.

Pour en savoir plus vous pouvez lire l’étude de cas Cloud Services Provider Delivers Reliability with Cisco and KEMP.

 

 

 

Mots-clefs :, ,

Impact de l’Internet of Everything (IoE) sur la croissance du Cloud

La toute dernière étude Cisco Global Cloud Index  2013-2018 fait apparaitre clairement une accélération de la mutation vers le Cloud.

2018 : 76% du trafic global des datacenters proviendra du Cloud.

Les résultats du Cisco Global Cloud Index sont obtenus grâce à des modèles et analyses effectuées sur diverses sources primaires et cloud index 1secondaires, et s'appuient sur les conclusions de plus de 150 millions de tests de latence et de vitesse des réseaux dans 150 pays du monde, et sur des comptes rendus d'études de marché menées par des tiers

Si le trafic réseau et le nombre des workloads des Datacenters seront multipliés par 3 entre 2013 et 2018 c’est clairement grâce au Cloud. En effet en 2018, le Cloud représentera 76% du trafic global des datacenters soit 6,5 Zettabytes sur  8,6 ZB .

La transformation numérique des entreprises n’est sans doute pas étrangère à cette évolution et les nouvelles technologies (Big Data, mobilité, objets connectés etc..) ont toutes pour objectifs de générer et d’exploiter plus de données tout en en simplifiant l’accès.

Impact de l’Internet of Everything IoE sur la croissance du Cloud

L’étude prend l’exemple de l’ « Internet of Everything » IoE comme une des tendances qui aura un fort impact sur la croissance du Cloud.

Rappelons que IoE ne se limite pas aux seuls objets connectés, le concept est plus large puisqu’il englobe les objets, les personnes, les processus et les données qui vont pouvoir s’interconnecter par internet. L’IoE est donc en soi la synthèse de la transformation numérique qui s’opère actuellement. Les services dans le cloud seront essentiels à la plupart des applications IoE pour justement faciliter l’interconnexion.

Les chiffres estimés parlent d’eux même. En 2018 la quantité globale de données créées par des équipements IoE atteindra les 403 ZB Cloud index ZBpar an (33,6 ZB par mois) à comparer avec 113,4 ZB générés en 2013 ce qui était déjà impressionnant.

L’IoE créée déjà un volume considérable de donnée mais actuellement seule une petite portion arrive dans les data centers et avec leurs 403 ZB de données créées en 2018, les équipements IoE généreront un volume de données presque 50 fois supérieur à celui des data centers (8,6 ZB). A titre d’exemple :

  • Un boeing 787 génère 40 teraoctets de données par heure de vol mais seuls 500 Giga octets sont transmis au data center pour analyse et stockage.
  • Un automate d’usine de fabrication créée environ 1TB de données par heure dont seuls 5G sont envoyés au Data Center.

Avec l’amélioration des capacités des Data Centers , beaucoup plus de données générées localement par des équipements IoE pourront être transmises aux Data Centers. Les données restant localement pourront être analysées par des technologies de virtualisation de données (voir l’article La virtualisation des Données : un atout pour l’IoE, le Cloud et le Big Data) qui permettent d’analyse des cloud index devicessources de données distribuées.

La multiplication des équipements connectés  par personne renforce l'intérêt du Cloud

L’IoE prenant en compte  l’interconnexion des personnes, la tendance croissante à l’utilisation de plusieurs équipements par personnes et consommateurs (tablettes, PC, smartphone etc..) est également un facteur fort de transition vers des services dans le cloud qui facilite l’accès à du contenu ou à des applications quelque se soit l’endroit et l’équipement utilisé.

Je n'ai livré ici qu'un petit aperçu de l'étude que je vous invite à lire plus en détails.

Mots-clefs :, , ,

Augusta Reeves choisi Cisco pour développer son expertise HANA

logoLe groupe Augusta Reeves développe depuis 15 ans son expertise en tant qu’intégrateur et distributeur des solutions SAP. Fort de 160 collaborateurs et un chiffre d’affaire de 17 M Euros en 2013, Augusta Reeves a également entamé les virages technologiques de SAP tant sur les solutions Cloud que sur SAP HANA.

Dans le cadre de sa certification HANA et du développement de son savoir-faire HANA, Augusta Reeves a choisi une appliance HANA scale-up de la gamme  Cisco Unified Computing System(UCS) pour ses activités de support et de démonstration HANA.

Augusta Reeves intervient entre autres dans les secteurs du BTP, des Services, des Médias, du Retail et du Secteur Public; et propose également une expertise et des services SAP sur les solutions transverses Clientes (CRM On Premise, Cloud, Hybris) et les solutions RH dont SuccessFactors. L'acquisition d'une appliance HANA lui permet dorénavant de proposer une offre complète de services autour de l’ensemble de son portefeuille d’offres. L'appliance HANA de Cisco porte aujourd’hui l’ensemble des systèmes pré-configurés et de démonstrations d’Augusta Reeves.

 

Mots-clefs :,

Intercloud: Disposer d'un monde de clouds sans contrainte...ou presque

Pourquoi choisir ? Une multitude d’offre Clouds est désormais disponible et le débat entre cloud public et cloud privé a fait long feu. C’est donc de Cloud hybride dont il faudra parler à l’avenir mais surtout d’une interconnexion de clouds multiples utilisant diverses technologies  et pouvant se situés en différents lieux du globe.

On se prendrait vite à rêver d’un monde de clouds sans frontière et sans contrainte …. Rêver pourquoi pas mais en gardant les pieds sur terre. C’est ce qu’a fait Cisco, premier concerné par les problématiques de connexion de clouds, en élaborant la solution « Cisco Intercloud Fabric ».

Quel est l’enjeu d’un ensemble de clouds interconnectés ? Donner la possibilité à l’utilisateur de placer facilement un workload applicatif ou il le souhaite selonIntercloud features ses propres critères (législation, performance etc..) tout en bénéficiant des même règles quel que soit le cloud utilisé pour cette application. Pour y arriver Cisco s’est défini un certain nombre de fonctionnalités qui ont été mis en œuvre dans Intercloud Fabric :

  • Déploiement de workloads en libre-service sur l'ensembles de clouds publics ou privés.
  •  Sécurité de bout en bout par une connectivité sécurisée avec chiffrements des données lors de leurs déplacements.
  • Fonctions réseaux consistantes  grâce à l’extension de niveau 2 d’un cloud privé vers un cloud public
  • Mobilité bidirectionnelle des workloads pour que la migration puissent s’effectuer de privé vers public et réciproquement. Une conversion automatique d’image permet aux machines virtuelles d’être placées sur n’importe quel cloud.
  • Liberté de choix des fournisseurs de cloud et des hyperviseurs

De quoi se compose Intercloud Fabric ?

Intercloud overview

On va distinguer deux offres :

  • Cisco Intercloud Fabric for Business déployé sur les sites de l’entreprise afin de permettre la création de clouds hybrides avec la connectivité à un large écosytèmes de fournisseurs de clouds. Cette comporte deux composants :
    • Intercloud Fabric Director
    • Intercloud Fabric Secure Extender
  • Cisco Intercloud Fabric for Provider. Ce produit permet à un fournisseur de cloud de devenir partie intégrante d’un écosystème Intercloud. Le composant Intercloud Fabric Provider Platform est une appliance virtuelle.

Mots-clefs :, ,

Comment intégrer Cisco ACI et OpenStack

Avec l’OpenStack Summit, Paris devient pour quelques jours la capitale d’OpenStack. Pour s’y préparer j’avais proposé la semaine dernière quelques rappels à propos d’OpenStack sur ce blog pour ceux qui découvrent OpenStack.

Pour ceux qui sont déjà à un stade plus avancé dans la démarche et qui s’interrogent sur la manière d’intégrer Cisco Application Centric Infrastructure ACI avec OpenStack il existe un document intitulé Cisco APIC Driver for OpenStack: Installation and Operation Guide.

Intégration aisée avec les plateformes d’orchestration comme OpenStack

Application Centric Infrastructure (ACI) est une architecture holistique avec une automatisation centralisée et des profils applicatifs dictés par des politiques. La conception d’ACI permet d’offrir la souplesse du logiciel et la « scalabilité » des performances avec le matériel.

La conception d’ACI repose sur le concept des APIs ouvertes REST (Representational State Transfer) rendant ainsi l’intégration avec n’importe quelle plateforme d’orchestration particulièrement facile.

Dans le cas d’OpenStack ces APIs permettent une intégration par l’intermédiaire de Neutron, une couche d’abstraction du réseau packagée comme un composant du framework OpenStack.

Le principe de Neutron est de supporter un modèle de type « plug-in » grâce à une API Neutron standard.  Cette API repose sur des primitives telles que réseaux, ports, routeurs et subnets mais la mise en œuvre de ces ressources est déléguée à des plug-ins spécifiques.

Le contrôleur de l’ACI, le Cisco APIC (Application Policy Infrastructure Controller), supporte l’API Neutron standard et les ressources de cette API. Ces ressources sont converties de manière transparente par l’APIC dans un « Application Network Profile »

Principe de fonctionnement du Plug-in Cisco pour OpenStack

Ce plug-in Cisco pour OpenStack est basé sur le plug-in Neutron multi-vendeurs modulaire de niveau 2 (Modular Layer 2 : ML2).

ML2 donne la possibilité à un administrateur de spécifier un ensemble de drivers pour gérer des portions de réseaux. Les drivers « types » définissent un type particulier d’étiquettes (tagging) ou d’encapsulation et les drivers « mechanism » interagissent avec des équipements spécifiques dans le réseau.

Dans le schéma ci-dessous on voit en particulier l’APIC driver créé par Cisco qui communique en utilisant les APIs REST présentés par APIC.

Neutron ML2

L’intégration est supportée par la distribution OpenStack Icehouse proposée par de nombreux fournisseurs comprenant Red Hat, Canonical, and Mirantis.

Deux drivers ML2 séparés sont utilisés pour s’intégrer avec les différentes portions du réseau :

  • Open virtual switch (open vSwitch, or OVS) driver
  • Cisco APIC driver

La figure ci-dessous explique le fonctionnement (plus de détails dans le document que je mentionne en début de billet).

APIC Openstack archi

 

Je profite également de ce billet pour signaler l’existence d’un ACI toolkit.

Mots-clefs :, , , ,

Cisco annonce un serveur octo-processeurs C880-M4 pour SAP HANA

C880A l'occasion de l'évènement SAP Teched&d-code qui se déroulait la semaine dernière à Las Vegas, Cisco a annoncé le C880-M4, un serveur octo-processeurs (8 sockets) pour SAP HANA. Ce serveur vient compléter la gamme des solutions Cisco UCS pour HANA qui je vous ai présenté ici. Les certifications HANA  disponibles pour ce serveur sont:

  • scale-up 2 TB RAM pour usage analytique (appliance et TDI)
  • scale-up 2TB ou 6 TB RAM pour Suite on HANA (appliance et TDI)

Pour ces configurations appliance scale-up, le serveur est fourni avec une (ou deux) baies de disques (JBOD) connectées directement sur un contrôleur RAID dans le serveur.

Cette annonce est une excellente nouvelle car ce serveur vient compléter la seule pièce qui manquait au catalogue des solutions Cisco UCS pour SAP HANA. Cisco dispose maintenant d'une gamme complète de solutions pour SAP HANA, couvrant toutes les tailles HANA et toutes les architectures possibles (scale-up, scale-out, appliance et TDI).

 

Mots-clefs :, ,

OpenStack: une avancée considérable en peu de temps.

La semaine prochaine débute l’OpenStack Summit à Paris (du 3 au 7 novembre 2014).  OpenStack est de plus en plus souvent évoqué il n’en demeure pas moins que l’histoire est relativement récente et que le sujet reste encore nébuleux pour beaucoup.

Je saisis l’occasion au moment de la sortie de Juno, la dixième version d’OpenSatck, pour me replonger dans les bases d’OpenStack et vous en faire profiter sur ce Blog.

Commençons par un peu d’histoire :

OpenStack c’est tout d’abord un projet Open Source démarré en été 2010 par l’hébergeur Rackspace et la NASA. OpenStack facts

Rackspace avait travaillé sur le projet de stockage qui a donné lieu au projet Swift , et la NASA avait contribué à un projet de contrôleur de serveur qui a pris par la suite le nom de Nova.

En 2012 la fondation OpenStack est créée, en tant qu’entité indépendante, afin de promouvoir le développement, la distribution et l’adoption de la plateforme OpenStack.

A ce jour on compte 16.999 membres appartenant à 145 pays et représentant 430 entreprises qui supporte l’initiative OpenStack. Plus de 20 millions de lignes de code ont été écrites.

Quel est le rôle d' OpenStack ?OpenStack control

 Pour dire les choses simplement OpenStack est un logiciel open source destiné à créer des clouds privés et publics. Il est développé par un nombre de contributeurs très variés agissant à titre individuels ou au nom de leurs entreprises.

Le logiciel OpenStack permet de contrôler un pool important de ressources d’un Datacenter (serveurs, stockage et réseau) par l’intermédiaire d’un tableau de bord ou d‘une API OpenStack.

Si à l’origine OpenStack comportait deux composants (Swift et Nova) avec la version Juno on en compte 11 dans la version Juno.

Les composants d’OpenStack compris dans la dernière version.

 Les différentes composantes logicielles d’OpenStack jouent chacune leur rôle dans l’ensemble OpenStack avec en particulier un focus sur le « multi-tenant » et la « scalabilité » pour les ressources à la demande. Trois projets concernent à proprement parlé les ressources (Nova, Swift et Neutron), un projet constitue le tabeau de bord (Horizon) et le reste des projets offre des services partagés.

OpenStack Overview

Les 11 composants d’OpenStack version Juno :

  • Nova - OpenStack Compute  : Contrôleur qui regroupe les ressources physiques de traitements (CPU, memoire, etc).  Nova fournit les API’s pour controler la planification à la demande des instances de traitements (par exemple des machines virtuelles) sur des technologies de virtualisation, du bare metal ou bien encore des technologies de containers.
  • Swift - OpenStack Object Storage : permet un stockage objet redondant et évolutif s’appuyant sur des clusters de serveurs standards.
  • Cinder - OpenStack Block Storage : offre des services de stockage persistant au niveau block, pour les instances de traitement OpenSatck, utilisant une variété de technologies de stockage par block.
  • Glance - OpenStack Image Service : permet la découverte, l’enregistrement et la fourniture de services pour les images disques et serveurs sous différents formats.
  •  Neutron - OpenStack Networking: API pour administrer les réseaux et les addresses IP utilisées par les instances de traitements. L’API s’appuie sur différentes technologies traditionnelles. Elle permet des services de couches hautes comme VPN-as-a-Service, Firewall-as-a-Service, et Loadbalancing-as-a-Service.
  • Keystone - OpenStack Identity Service : Annuaire utilisateurs central, catalogue de services et la correlation des utilisateurs avec leurs droits d‘accès en utilisant par exemple LDAP ou Active Directory.
  • Horizon - OpenStack Dashboard: Interface graphique pour les tenats et les administrateurs du Cloud. Il fournit une interface simple basée sur un navigateur pour les opérations quotidiennes telles que le provisionnement des instances et des réseaux ou pour verifier l’utilisation des ressources.
  • Ceilometer - OpenStack Telemetry : service qui aggrège les données d’utilisation et de performances sur l’ensemble des services déployés dans un cloud OpenStack. On dispose également de toutes les mesures nécessaires pour la facturation.
  • Heat - OpenStack Orchestration : programme basé sur des templates qui permet aux développeurs d’applications d’orchestrer et d’automatiser le déploiement de ressources d’infrastructure dans un cloud OpenStack.
  • Trove - OpenStack Database Service : offre du provisionnement à la demande de bases de données relationnelles sans s’encombrer de tâches administratives complexes.
  • Sahara - OpenStack Data Processing : fournit du provisionnement à la demande et de l’évolution élastique de clusters Hadoop. .

OpenStack : de nombreux autres projets liés à OpenStack au travers de StackForge

En plus de ces 11 projets il y a beaucoup d’autres projets qui gravitent dans l’écosystème OpenStack. La majorité de ces autres projets peuvent être trouvé dans StackForge.  StackForge joue un role important dans la communauté OpenStack en fournissant un forum pour les projets relatifs à OpenStack. On peut ainsi collaborer et utiliser les mêmes outils de développement que ceux utiliser dans les projets directement intégrés à OpenStack.

On va trouver dans les projets StackForge :

  • des services en phase d’incubation (service de partage de fichiers Manilla ou projet de services DNS Designate)
  • des projets de gestion d’installation et de configuration ( projets Puppet et Chef OpenStack )
  • Le support d’APIs additionnels (projets d’API  GCE et  EC2 )
  • Des outils de benchmarking et de tests (Rally et CloudCafe)

Ceci n’est qu’un aperçu des projets StackForge et la liste complète peut être trouvée sur , StackForge mirror on GitHub.

Comme on le voit OpenStack est une initiative ambitieuse qui draine directement ou indirectement un nombre important de projets visant à couvrir tous les aspects du Cloud.

Des acteurs qui préparent leurs offres autour d’OpenStack.

Pour couronner le tout de nombreuses sociétés commencent, ou s’apprêtent, à proposer leurs offres OpenStack comme par exemple :

Et la liste ne s'arrête pas là..

Indéniablement OpenStack est en mouvement. A suivre donc avec attention.

 

Mots-clefs :,

Cloud: OutScale poursuit son développement outre-Atlantique avec des serveurs Cisco UCS

Le savoir-faire français en matière de Cloud n’hésite pas à rivaliser avec ses concurrents sur le territoire américain.

outscale logoOutScale n’est pas un nouveau venu dans le Cloud et déjà en 2011 Laurent Seror , son président, avait accepté lors d‘une présentation à la convention CRIP (voir le billet La société Outscale adopte la solution UCS et la présente à la convention du CRIP ) d’expliquer les choix technologiques qui l’avaient conduit à utiliser des serveurs UCS.

Un Cloud français avec des implantations internationales.

OutScale, avec son un Cloud implanté en France  permet déjà de rassurer les clients français qui désirent  avoir leurs données sur le sol français. Je rappelle que La loi ‘‘USA Patriot Act’’ permet à la NSA d’accéder librement aux données stockées ou administrées par des entreprises américaines du cloud et leur filiales à l’étranger, sans demander l’accord de leurs clients.

OutScale presence

Avec le deuxième point de présence New Yorkais, après Boston (voir le communiqué de presse du 21 octobre 2014) OutScale peut également proposer une offre de service IaaS concurrente crédible à celle d’Amazon pour les entreprises françaises, américaines et européennes qui ont besoin d’être hébergées aux Etats unis pour outscale-1différentes raisons (proximité, performances, réglementation etc..). .

40 serveurs UCS et du stockage NetApp dans la nouvelle plateforme américaine

La plateforme est déployée au sein du datacenter de référence TelX NJR3 certifié Tier3. Dix baies dédiées dans une cage privative et sécurisée protègent 40 serveurs Cisco et 1 Peta octets de stockage NetApp .

Un Cloud industriel puissant et sécurisé

Pour répondre aux exigences de qualité de service et de sécurité OutScale s’appuie sur son logiciel d’orchestration entièrement intégrée Tina OS version 2.3.1 et garantit la conformité et l’étanchéité du service, et ceci aux quatre coins du globe.

 

Lire aussi:  Infrastructure as a Service une affaire de spécialistes

Mots-clefs :, ,

Automatisation et orchestration d'infrastructure avec UCS Director (4/5)

C'est désormais une tradition (voir ces premiers posts: Introduction globaleMise en oeuvre et utilisation Day-1, Opérations en environnement hétérogène), nous poursuivons notre illustration au travers de vidéos de démonstration des différentes facettes de notre solution d'unification des infrastructures, UCS Director.

Au menu de ce post, l'automatisation de tâches sur les différents domaines d'infrastructure. L'orchestrateur d'UCS Director compte pas moins de 1200 tâches unitaires (!!) ainsi que différents workflows fournis en exemples (entre autres pour FlexPod, vBlock, vPlex ou encore RecoverPoint), que vous assemblez très naturellement pour réaliser des opérations complexes et de plus haut niveau. Il est alors possible d'utiliser ou de construire votre bibliothèque de procédures opérationnelles et même d'enrichir les actions possibles dans votre interface UCS Director!

Dans cette démonstration, nous abordons:

  • La création d'un workflow au moyen de la bibliothèque de tâches
  • L'enrichissement de l'interface d'opération au moyen de ce workflow
  • Le lancement de ce workflow via l'API REST par un système externe

Pour illustrer l'appel de workflows par l'API, j'utilise notre Orchestrateur Cisco Process Orchestrator (présent dans notre solution Intelligent Automation for Cloud et dans SAP ITPA by Cisco dont nous vous parlions en mars dernier). CPO dispose évidemment de connecteurs natifs vers UCS Director, mais j'utilise le connecteur Web standard (comme le ferait un autre orchestrateur) pour ne pas faire de magie :-) .

Nous conclurons cette série la semaine prochaine, avec l'interface Self-Service d'UCS Director!

Mots-clefs :, , , ,

Juno, dixième version OpenStack avec un accent sur le Big Data et NFV

la dixième version d’Openstack , Juno, a été annoncée par la fondation OpenStack. (voir l'annonce Juno)

Environ 342 améliorations ont été apportées et on peut noter la prise en compte du Big Data puisque OpenStack fonctionne à présent avec Hadoop et Spark . Ces services de traitement de Big Data sont accessibles au travers d ‘APIs et d’un portail web

Network Function Virtualization (NFV) fait également partie des améliorations. NFV représente une évolution importante dans la manière de développer et de déployer des services réseau. Déjà en mai une équipe de développement NFV avait été formée à l’OpenStack Summit et avait identifié 9 cas d’usages pour NFV dans des environnements OpenStack. Les premières fonctionnalités arrivent dans la version Juno et seront suivie par d’autres.

Cisco a participé activement à la Version Juno comme on peut le voir sur le graphe ci-dessous je renvoie au billet Cisco and OpenStack: Juno Release – Part 2 pour plus de détails.

Openstack contributions

A titre d’exemple je voudrais souligner  les contributions au projet Neutron et aux modules Puppet

Contributions au projet Neutron avec Application Centric Infrastructure ACI

Cisco a ajouté Application Polcy Infrastructure Controller (APIC) ML2 MD et  Layer 3 Service Plugin  au cycle de développement de Juno. Le  ML2 APIC MD transforme  les appels des APIs Neutron en requêtes spécifiques du modèle de données de l’APIC et réalise ainsi une isolation de niveau 2 des tenants jusqu’au End  Point Group (EPG).

Les modules Puppet pour les  services OpenStack  avec Cisco et RedHat:

Les utilisateurs recherchent toujours à simplifier la gestion et le déploiement d’OpenStack. Cisco a travaillé avec des clients, des partenaires pour améliorer les modules Puppet pour les services OpenStack et les intégrer avec les infrastrcutures Cisco. Récemment une collaboration avec RedHat a été annoncée, Cisco UCS Integrated Infrastructure, qui combine les technologies Cisco (serveur, commutation et administration) avec les technologies  Red Hat enterprise-grade OpenStack platform.

Cisco sera présent à L’OpenStack summit du 3 au 7 novembre à Paris.

Ne ratez pas l’occasion d’écouter nos experts lors de présentations ou de les rencontrer sur le stand Cisco.

Plus d‘informations sur le site www.cisco.com/go/openstack

Mots-clefs :, , ,