Cisco France Blog – Data Center

Cisco et Microsoft : accélérer la création de services dans un environnement de clouds hybrids

 Offrir des services dans un environnement de Cloud hybrid est un un enjeu majeur pour les fournisseurs de clouds qui doivent pour cela s’affranchir de la complexité des environnements. La solution “Cisco Cloud Architecture for the Microsoft Cloud Platform” devrait les y aider.

   Avec l’adoption du Cloud de nombreux acteurs se sont positionnés sur ce marché apportant leur differences et leur valeurs ajoutées. On assiste bien sur à une féroce competition mais la situation se révèle bien plus complexe . Au delà de la competition on doit évoquer la complémentarité entre les clouds. Cette complémentarité peut se situer sur le terrain geographique, technique , métiers ou sur les services offerts. On devrait donc parler d’un monde de clouds plutôt que “du cloud”.

Se pose alors la question de la communication entre ces clouds, “Intercloud”, bâtis sur des architectures techniques qui peuvent être très différentes. La nouvelle generation de services cloud nécessite une compatibilité au niveau des composants matériels et logiciels des architectures. Pour offrir de nouveaux services dans ce contexte Intercloud, les fournisseurs de cloud doivent composer avec la complexité et les les coûts d’intégration d’infrastructures et de couches applicatives.

En annonçant le 11 mars 2015 Cisco Cloud Architecture for the Microsoft Cloud Platform, Cisco et Microsoft entendent accélérer la mise à disposition de services et fluidifier l’avancée des fournisseurs dans l’intercloud.Cette annonce est une extension logique du partenariat Cisco-Microsoft.

Cisco et MSFT Cloud

Aider les fournisseur de clouds à s’affranchir de la complexité du cloud hybrid.

Concrètement cette offre est une solution intégrée qui combine Windows Azure Pack et Cisco Application Centric Infrastructure (Cisco ACI) . En simplifiant les operations et en réduisant les coûts, cette solution permettra aux opérateurs de cloud d’offrir plus rapidement des services de cloud hybrid.

L’architecture Cloud de Cisco pour la plateforme Cloud de Microsoft offrira aux fournisseurs de clouds des “building blocks” couvrant les besoins d’IaaS, de PaaS et de SaaS. La combinaison des offres Windows Azure Pack et Cisco ACI ouvre aux partenaires de nouvelles possibilités : services réseaux, services de plan de secours , services de Big Data et services applicatifs. Des services qui pourront s’appuyer sur l’agilité de “DevOps” pour être mis sur le marché rapidement et optimiser ainsi la rentabilité.

La collaboration Microsoft Cisco offrira des librairies pré-packagées de règles de gestion afin de permmettre aux fournisseurs de cloud de mettre en oeuvre des applications plus rapidement tout en assurant une cohérence de règle de gestion.

Toujours pour aller dans le sens de la simplicité et d’un meilleur controle Microsoft System Center 2012 R2 est intégré avec Cisco Unified Computing System (UCS) Manager le logiciel d’administration des serveurs UCS.

Intercloud: un large ecosystème riche de plus de 60 fournisseurs de clouds

L’Intercloud se tourne résoluement vers l’avenir. En proposant de construire un réseau de clouds globalement connectés, l’architecture est déjà pensée pour l’internet des objets, les traitements analytiques en temps reel et la conformité aux exigences de souveraineté. C’est avec de nombreux partenaires que se construit ce monde de clouds interconnectés. Cisco et Microsoft ont donc prévu de supporter l’écosystème partenaires avec une approche prenant en compte l’intégralité du cycle de vie ; l’idée de conception d’un service, la génération de la demande et la rétention des clients. Les programmes Cisco Powered et Microsoft Cloud OS Network (COSN) se complètent mutuellement pour offrir un support optimisé aux fournisseurs de clouds.

Aujourd’hui plus de 60 fournisseurs de clouds font déjà partie de l’écosystème Intercloud et représentent ensemble plus de 350 Data Centers sur 50 pays.

Mots-clefs :, , ,

La virtualisation de la data simplifie la vie du Big Data

L’économie de la donnée est en marche mais elle est freinée par la complexité des organisations et des technologies. La « virtualisation des données », en fédérant simplement l’ensemble des données d’une entreprise, peut permettre de s’affranchir en partie de ces contraintes

Un écoystème big data large et complexe.

Le Big Data était à l’honneur au salon du Big Data Paris 2015 avec 4 fois plus de monde que l’année dernière. Première constatation l’écosystème est large et complexe pour traiter toutes les étapes nécessaires à la transformation des données en valeur pour l’entreprise. Mais le fait est là, le Big Data deviendra cloudera VIP V1incontournable dans une économie centrée de plus en plus sur la donnée.  Pour s’en convaincre je recommande la lecture du livre de Gilles Babinet (Digital Champion) sur le Big Data. A l’occasion du salon J’ai pu également apercevoir le fameux Doug Cutting concepteur du framework hadoop et qui travaille aujourd’hui chez Cloudera, l’une des grandes distributions de hadoop. On lui doit également le logo de hadoop, un petit éléphant en forme de clin d’œil à la peluche de son fils.

L’économie de la data demande plus d’agilité

Tout le monde est conscient que l’environnement économique nécessite de plus en plus d’agilité qui se heurte à des environnements distribués sur des datacenters et des clouds. L’idée que ceux qui tireront le meilleur parti de leurs données seront les leaders de demain fait son chemin. Ce besoin d’utiliser les données avec plus d’agilité est la raison première de la « virtualisation des données ». La promesse du Big Data est alléchante mais on peut vite être échaudé devant le nombre de silos de données existants et de la prolifération de nouvelles sources de données. Migration, transformation, consolidation autant de projet longs et douloureux qui peuvent en rebuter plus d’un. Alors pourquoi ne pas fédérer simplement les silos de données existants ? C’est en quelque sorte le principe de la virtualisation des données

Fédérer les données pour faciliter leur utilisation

Cisco Datavirtualization est un logiciel d’intégration des données qui simplifie l’utilisation des données où qu’elles soient. Le principe est simple, le logiciel fournit une vue unifiée des données business. Avec cette visibilité centralisée de toutes les données, l’entreprise est capable de prendre de meilleures décisions et de s’adapter ainsi plus rapidement aux changements rapides de l’environnement économique et commercial. Les utilisateurs peuvent accéder et faire des requêtes sur toutes les données ou qu’elles se trouvent sur un réseau comme si elles étaient dans un lieu unique. On peut ainsi accéder à l’ensemble des données sans avoir à déplacer physiquement des données.

DV_Feb 2015

Pour réussir ce miracle la virtualisation des données utilise une approche agile des données qui permet une combinaison de données provenant de différentes sources et qui s’appuie sur :

  • Technologies d’intégration de données pour intégrer rapidement des données de multiples sources
  • Optimisation des requêtes en utilisant des algorithmes et des techniques qui permettent de restituer l’information en temps voulu sans affecter les performances des systèmes sources
  • Abstraction des données pour combler le gap entre les besoins business et le format d’origine des données sources et créer une vue business.

Le Big Data demande de la compétence et de l’expertise

Maitriser les données est essentiel et on sait que beaucoup de données sont dupliquées dans des entreprises. Il faut donc les répertorier, connaitre les systèmes qui les hébergent, identifier les duplications et définir par la suite ce que l’on souhaite en faire .C’est pour répondre aux besoins de maîtrise de l’informationIntrabases logo (cartographie, qualité, cycle de vie,…), de consolidation et d’accessibilité, que la société Intrabases a intégré dans son offre la virtualisation de données de Cisco. Le directeur délégué d’Intrabases , Gerard Simon, était bien sûr au salon du Big Data où j’ai pu discuter avec lui en compagnie d’Olivier Neraut membre du « Skill Center Big Data » chez Cisco. Forte de son expérience avec les outils ETL et BI, Intrabases offre ses compétences de la virtualisation de données, pour une intégration globale d’infrastructure de données.

Plus d’info sur Cisco datavirtualization

Mots-clefs :, , , ,

Meraki : une gestion dans le cloud avec des fonctions analytiques

Avec Meraki, Cisco offre une gestion souple dans le cloud des réseaux, des mobiles et de la sécurité. L’intégration avec des offres analytiques, des technologies Beacon et avec Facebook ouvre encore le scope des utilisations de Meraki de la petite à la très grande entreprise.

Gérer simplement ses infrastructures dans le cloud, c’est tout le sens de Meraki, société achetée par Cisco en Meraki cloud2012. L’offre porte sur :

  • Les réseaux sans fils
  • Les équipements de sécurité
  • Les commutateurs réseau
  • La gestion des mobiles

L’ensemble des équipements se gère de manière centralisée dans le cloud. On gère à partir d’un tableau de bord unique son réseau, on contrôle les utilisateurs, les applications et les équipements et la solution prend en compte aussi bien des petits sites que le déploiement de grandes entreprises.. On peut gérer des milliers de ports réseaux et des milliers de mobiles et les monitorer instantanément. On peut également provisionner des sites distants sans personne sur place, effectuer des modifications réseau à grande échelle et gérer facilement des réseaux de campus sans besoin d’équipes dédiées et formées.

meraki dasboard

Meraki c’est bien sûr la simplification et la réduction des coûts mais c’est aussi une richesse fonctionnelle qui ne cesse de s’accroitre.

Du cloud et de l’analytique. La semaine dernière se tenait le Mobile World Congress à Barcelone et cette semaine à Paris se déroule le salon du Big Data à Paris . L’enchainement est donc tout trouvé pour évoquer les fonctions, proposées dans le cloud par Meraki, d’analyse de localisation et d’interaction avec les utilisateurs de mobile.

L’intégration des technologies Beacon et Bluetooth permet un accès fluide des utilisateurs et des fonctions analytiques de localisation fournissent des opportunités inégalement pour interagir avec les clients de manière pertinente. Comment fonctionne la localisation analytique :

L’API (Application Programming Interface) Cisco Meraki CMX (Connected Mobile Experiences) utilise des points meraki analyticd’accès intelligent pour forunir aux clients de l’analytique de localisation en temps réel qui permet une intégration avec des produits tiers (applications analytique de commerce, CRM et applications sur mesure). Le composant CMX affiche en temps réel des statistiques de localisation afin d’améliorer l’engagement et le client sur différents sites. Les données collectées sont synchronisées dans le Cloud Meraki et intégrées automatiquement dans le tableau de bord. On a ainsi une vision des tendances du trafic visiteurs, les temps de dwelle et le ratio des nouveaux visiteurs versus les visiteurs réguliers.

Une intégration Meraki – Facebook. Meraki a réalisé également une intégration avec Facebook. Les clients peuvent ainsi se connecter à un réseau WI-FI par l’intermédiaire du Facebook entreprise. L’accès au WI-FI au travers du Login Facebook donne aux entreprises l’accès aux données démographiques anonymisées agrégées fournies par Facebook.

Avec Meraki, le cloud tient ses promesses et va encore au-delà en intégrant de fonctions qui contribuent à améliorer la connaissance des clients et l’interaction avec eux.

Mots-clefs :, , ,

Cisco et Informatica s’associent pour optimiser les datawarehouses avec hadoop

Etre capable de stocker et d’exploiter une quantité de données à des fins d’analyses décisionnelles devient incontournable. Disposer de plateformes performantes, efficace à coûts maitrisés est un enjeu auquel veulent répondre Informatica et Cisco. Plutôt que d’opposer entrepôt de données (datwarehouse) et plateformes de Big Data, il est possible de les combiner judicieusement avec une plateforme hadoop.

Hadoop a été conçu par les grands acteurs du Web comme Google et Yahoo pour répondre aux contraintes techniques et financières des bases de données relationnelles. Un des intérêts de Hadoop est de pouvoir intégrer et de traiter de grands volumes de données de manière plus économique en prenant en compte la diversité des sources de données et de leurs structures.

Un entrepôt de données optimisé et une informatique décisionnelle plus performante

En utilisant hadoop et les outils qui lui sont associés on réussit à alléger la charge de l’entrepôt de données et augmenter l’efficacité de l’informatique décisionnelle et de tous traitements analytiques.

  • Transférer les données peu utilisées de l’entrepôt vers un stockage moins coûteux. Le stockage de l’entrepôt de données s’en trouve optimisé.
  • Une plus grande variété de données peut être intégrée et stockée pour fournir des informations plus précises et plus pertinentes contrairement aux bases de données relationnelles contraintes par leur format et leur modèle de données.
  • La performance du réseau n’est plus un goulet d’étranglement dans un environnement distribué tel que proposé par hadoop
  • Les données structurées et non structurées peuvent être stockées et exploitées

Informatica et Cisco s’allient autour du Big Data

C’est dans le cadre de l’optimisation d’un entrepôt de données qu’Informatica et Cisco ont annoncé une solution commune (lire l’annonce). Cette solution propose une plateforme unique pour décharger le traitement et le stockage de l’entrepôt de données vers hadoop.

informatica Cisco

Cette solution d’optimisation d’un entrepôt de données fonctionne avec une distribution hadoop Apache du choix du client qui inclut Cloudera, Hortonworks et MapR. Elle comporte tous les éléments logiciels, réseaux et infrastructures pour utiliser le Big Data sous toutes ses formes :

  • Informatica Big Data Edition : Responsable de l’intégration des données et de leur nettoyage (ELT et ETL) nativement sur Hadoop. Informatica simplifie l’acquisition (ingestion) de tous type de données tels que les transactions clients, les données mainframes, des logs de serveurs, des données de capteurs que ce soit en mode batch ou en temps réel. Pour ce faire Informatica utilise une centaine de connecteurs. Pour assurer une ingestion des données très rapide vers hadoop, Informatica utilise les connectivités natives des applications, bases de données, réseaux sociaux et des « parsers » préconçus par format d’industrie qui incluent FIX, SWIFT, HL7, HIPAA, EDI, and ASN.1.
  • Cisco Data Virtualization– Cette plateforme fédère toutes les données de l’entrepôt et de Hadoop constituent ainsi un entrepôt de données logique. Les équipes ont de cette façon une vue complète de toutes les données couplée à un accès immédiat aux données. Tous les traitements analytiques peuvent ainsi s’effectuer sur l’ensemble des données. (lire La virtualisation des Données : un atout pour internet de l’objet , Cloud et Big Data)
  • Serveurs Cisco UCS pour le traitement des données.

Le Big Data par essence cherche à résoudre le problème du stockage en flux continu de volumes de données important à un coût qui ne soit pas prohibitif. On construit ainsi le socle de données qui sera exploité par diverses applications d’analyse, de visualisation etc… De l’ingestion à la restitution un large écosystème est nécessaire. Il s’étend de l’infrastructure à l’application et s’étoffe en permanence. Le partenariat entre Cisco et Informatica illustre parfaitement la complémentarité des acteurs de cet écosystème.

Lire également le white paper « Optimize Your Data Warehouse with a Joint Solution from Cisco and Informatica »

Mots-clefs :, ,

Cisco propose des webinars éducatifs sur S4HANA et SAP HANA

Run-simple-sap

Dans le monde SAP et HANA les innovations et les évolutions technologiques continuent à un rythme soutenu. La dernière en date a été annoncée par SAP le 3 février dernier : SAP Business Suite for SAP HANA (S4HANA). Il ne s’agit de rien de moins que de la refonte de toute la Business Suite SAP pour s’appuyer nativement sur SAP HANA et utiliser toute la puissance et les simplifications possibles de HANA, mais aussi de prendre en compte les évolutions du Big Data, de l’Internet des Objets (IoT) et du Cloud.

Pour vous aider à comprendre ces évolutions, Cisco propose une série de webinars éducatifs mensuels (en anglais) qui débuteront le 4 Mars prochain par une explication détaillée de ce qu’est S4HANA. Les webinars suivants aborderont les architectures pour HANA TDI, les dernières évolutions de la technologie HANA et une analyse des annonces du prochain Sapphire .

Ces webinars auront lieu le mercredi à 19h00, selon l’agenda ci-dessous:

Mercredi 4 Mars à 19h00: What is SAP’s Business Suite on HANA (S4HANA) ?  (inscription)

Mercredi 18 Mars à 19h00 : Deploying HANA via TDI (inscription)

Mercredi 15 Avril à 19h00 : HANA Containers and vHANA (inscription)

Mercredi 20 May à 19h00 : Digesting Sapphire (inscription)

Mercredi 17 Juin à 19h00 : SAP Technical Upgrade ‘Best Practices’ and Lessons learned from Cisco Advanced Services (inscription)

Inscrivez-vous dès à présent pour bloquer ces dates dans vos agendas.

 

Mots-clefs :, , ,

Le trafic des mobiles en 2014 représente 30 fois le trafic internet de l’année 2000.

La croissance des usages du smartphone, de la vidéo, du cloud et le développement des objets connectés nécessitent des opérateurs de s’adapter pour répondre aux exigences de consommateurs de plus en plus exigeants.

Les usages s’intensifient et évoluent au gré des nouvelles technologies.VNI growth

La mobilité est devenue une exigence de tout un chacun aujourd’hui. Impensable de ne pas pouvoir se connecter à internet ou que l’on soit. Pas étonnant donc que le trafic généré en 2014 ait atteint 24 exabytes de données soit près de 30 fois le trafic global Internet de l’année 2000 d’après l’étude Cisco, mise à jour le 3 février 2015, sur les prévisions de trafic des données lié à l’activité des mobiles sur la période 2014-2019

 

Tous les équipements mobiles contribuent à la croissance du trafic

  • téléphones portables de baseVNI comparatif mobiles
  • Smarphones
  • Ordinateurs portables
  • Tablettes
  • Equipements diverses : appareils photos, livres numériques, consoles de jeux etc.. qui peuvent se connecter et transférer de l’information.
  • Machine to Machine (M2M) : équipements qui communique avec d’autres systèmes (capteurs, télémesure, GPS , compteur intelligent, etc..)
  • Equipements « wearables » : des équipements que l’on porte sur soi et qui sont capable de communiquer soit directement soit par l’intermédiaire d’un smartphone.

 

Smartphone et Video en tête pour la génération du trafic mobile de données.

Parmi tous les équipements mobiles le smartphone s’impose comme indispensable à notre vie quotidienne. La multiplicité des usages permis par le smartphone explique qu’il représentera les trois quart du trafic des données de tous les équipements mobile en 2019.

Un pourcentage important lié également à une consommation de plus en plus fréquente de vidéos qui constituent 55% du trafic globale des mobiles en 2014 et représentera 72% en 2019.

Les objets connectés et les machine to machine se généralisent

Tout le monde en parle et les chiffres le confirment, ces fameux équipements que l’on porte sur nous (les wearables) nous rendent hyper connectés et offrent un énorme potentiel d’usages. Ces équipements se présentent sous des formes les plus variées allant de la montre intelligente, les lunettes intelligentes, des moniteurs de santé ou de sports jusqu’aux vêtements intelligents pour n’en citer que quelques-uns. Cette progression a été rendue possible par les innovations technologiques réalisées ces dernières années aussi bien en termes de miniaturisation des traitements que de techniques de géolocalisation.

En 2019 on estime qu’il y aura 578 millions d’équipements wearables (à comparer aux 109 millions en 2014) qui représenteront 9,1% du trafic mobile globale.

Le équipements machine to machine (M2M) sont présents dans de nombreux secteurs (sécurité et automatisation des habitations, compteurs intelligents, maintenance, industrie automobile, santé etc ..) . Leur croissance est impressionnante passant de 495 millions en 2014 à 3 milliards en 2019.

Les applications dans le Cloud compteront pour 90% du trafic global des mobiles en 2019.

La grande majorité des applications videos sur internet peuvent être classées dans la catégorie applications dans le cloud. Le trafic des mobiles dans le cloud suit par conséquent la courbe de croissance de la vidéo. Les limitations de mémoires et de vitesse des équipements mobiles renforcent l’intérêt du Cloud. Les applications telles que Netflix, YouTube, Pandora, et Spotify permettent d’amplifier l’expérience utilisateur au-delà de ce que permettraient les possibilités intrinsèques d’un mobile. .

VNI drivers

Les opérateurs doivent anticiper la progression du trafic mobile

La prolifération et la diversité des équipements mobiles font apparaitre de nouveaux modèles économiques avec de nouvelles formes de partenariat dans un écosystème de plus en plus riche dont les opérateurs doivent tenir compte. Développeurs d’applications, fournisseurs de contenus, opérateurs mobiles ; chacun cherche à monétiser le trafic vidéo qui transite sur les réseaux mobiles. Les attentes des consommateurs évoluent très rapidement et exigent plus de rapidité et de qualité.

Les technologies sans fils veulent fournir la même qualité que celle qui était disponible précédemment en technologies filaires. Les prochaines années vont être clé pour les opérateurs qui devront déployer les réseaux capables d’accompagner la croissance des équipements mobiles et des applications.

A lire également : La France entre dans l’ère des « ultra-connectés »

Mots-clefs :, , , ,

L’Analytique devra s’exécuter au plus près des objets et équipements connectés.

D’ici peu les objets et équipements connectés produiront la majorité des données, les fonctions analytique vont devoir évoluer et pouvoir s’exécuter dans le réseau au plus près des sources de données. C’est l’objet de l’annonce par Cisco des solutions Connected Analytics

De formidables opportunités qui s’accompagnent de défis à relever

Depuis la fameuse publication en 2010 de la revue The Economist, titrant “The Data deluge“ nous avons réellement pris conscience de l’incroyable volume de données créé chaque jour et dont la croissance va encore s’accélérer avec le développement des objets connectés qui vont à leur tour contribuer à générer des données. Bientôt la majorité de données sera créée par ces objets connectés. (lire Pourquoi la croissance du Big Data est liée à la transformation numérique)

En soi ce monde de données constitue un formidable potentiel d’opportunités que nous avons à peine commencé d’explorer. Pour ce faire de nombreux défis sont à relever et les technologies évoluent pour apporter des solutions de type “big data”

Nous rentrons dans une époque où les limites sont sans cesse repoussées. Si on aborde le problème d’un point de vue des bases de données on s’aperçoit que de nouvelles bases de données doivent être capables de supporter des données de toutes natures, structurées ou non structurées, et de proposer une scalabilité quasiment sans limite pour faire face à cette prolifération de données.

Des frameworks comme Hadoop ou des bases de données NoSql (pour les accès temps réel très performants) entendent répondre à ces besoins de diversité des données et de scalabilité tout en maitrisant les coûts.

Les processus analytiques devront se rapprocher des sources de donnéesconnected devices study

L’Analytique 1.0 consistait à analyser des données structurées qui avaient été préalablement migrées dans un data repository centralisé, l’Analytique 2.0 a rajouté la notion de données structurées et donné lieu au Big Data. L’Analytique 3.0 va reprendre toutes ces caractéristiques mais devra également comporter une gestion des données plus complète et proposer des capacités d’analyse plus proches de l’endroit où les données sont créées, aux extrémités du réseau. N’oublions pas que d’ici peu la majorité des données sera générée par des objets ou des équipements connectés.

Dans une étude réalisée récemment par Cisco, 40% des entreprises interrogées identifiaient les processus de capture, de stockage et d’analyse des données générées par les objets connectés (machines, appareils, équipements) comme étant le plus gros challenge pour réaliser la valeur de l’internet de l’objet.

Connected Analytics pour IoE (Internet of Eveything):

C’est en tenant compte de ce phénomène que Cisco a annoncé les solutions Connected Analytics pour IoE (Internet of Eveything) qui vont exploiter les technologies Cisco et les données pour en extraire en temps réel de la valeur . Ces solutions vont se décliner pour répondre à différents besoins :

  • Connected Analytics for Events : fournit des analyses sur l’engagement des clients grâce au suivi de l’utilisation du WiFi, des devices, des applications et des réseaux sociaux.
  • Connected Analytics for Retail : Permet des analyses sur les données opérationnelles et clients dans un environnement de grande distribution pour améliorer la satisfaction clients et les performances du magasin.
  • Connected Analytics for Service Providers : A partir des paternes dans les réseaux, des données clients et des données opérationnelles, cette solution permet d’améliorer la qualité du service client et de découvrir de nouvelles opportunités.
  • Connected Analytics for Network Deployment : Des analyses des équipements et des logiciels sont effectués pour détecter des incohérences qui perturbent les réseaux. Des recommandations sont proposées pour prioriser la planification du réseau et optimiser les activités.
  • Connected Analytics for Mobility : Des informations précises sont fournies à partir de l’analyse des réseaux mobiles pour aider les clients de solution Wifi à exercer une gouvernance proactive.
  • Cisco Connected Analytics for Contact Center : Obtenir une vue complète des clients sur l’ensemble des données en silos afin d’être capable de proposer la meilleure offre au moment approprié.
  • Cisco Connected Analytics for Collaboration : Mesure l’adoption des technologies de collaboration en interne. Cette solution exploite des données provenant de différentes sources comme WebEx, IP Phones, Video, Email et Jabber.

L’ensemble de la gamme inclue Cisco Connected Streaming Analytics qui est une plateforme temps réel évolutive qui combine une capacité de collecte simple et rapide de données variées avec des moteurs analytiques en streaming les plus rapides du marché.

On voit ainsi que la stratégie IoE de Cisco compte bien prendre en compte les divers aspects de l’Internet of Everything et complète les approches Big Data couvertes par les solutions Data Virtualization , Big Data Warehouse Expansion et Cisco Tidal Enterprise Scheduler

Les produits mentionnés dans ce billet peuvent être retrouvés sur la page Data and Analytics

 

Mots-clefs :, , ,

Vblock apporte l’agilité au cloud interne d’EDF

Pour répondre à la pression économique et concurrentielle, les entreprises doivent pouvoir compter sur leurs centres informatiques afin d’obtenir l’agilité nécessaire. En mettant en place un cloud interne avec un Vblock, EDF prouve que c’est possible

EDF cloud

Bien souvent les infrastructures matérielles des centres informatiques sont considérées comme des freins à l’agilité. Comme le démontre EDF dans cette vidéo ce n’est plus une fatalité. Les grands centres informatiques peuvent aussi revendiquer d’être agiles en mettant en place un cloud privé avec pour socle une infrastructure convergée Vblock. Ce cloud interne est accessible à l’ensemble des directions métiers.

Dans cette vidéo Jerome Ladet, responsable du cloud interne dans la filière informatique d’EDF, revient sur la genèse du projet, les bénéfices observés et la prochaine étape.

6 mois entre la commande et l’ouverture en production

C’est en 2012 qu’EDF a pris la décision de modifier la manière de fournir les infrastructures à ses utilisateurs pour s’orienter vers une approche plus souple et plus rapide de type IaaS (Infrastructure as a Services).

Suite au RFP lancé la même année, le choix s’est porté sur Vblock avec comme l’un des critères principaux le packaging unifié de l’ensemble des composants d’infrastructure (Stockage EMC, Virtualisation VMware, Réseau et serveurs UCS Cisco). Cette unification joue à la fois dans la simplification de mise en œuvre mais également sur la gestion cohérente des changements, durant le cycle de vie du Vblock, de tous les composants (matériel, microcode, logiciel) de la plateforme.

Concrètement 6 mois ont suffi entre la commande passée à la société Telindus et la mise en production. Mais l’intérêt de s’arrête pas là car une production est amenée à évoluer et les infrastructures aussi. Avec Vblock quelques jours suffisent pour mettre à jour la plateforme sans interruption de service.

Un service amélioré et plus de temps pour la valeur ajoutée

Jerome Ladet explique que l’équipe a pu être déchargée d’une partie des tâches de gestion du matériel et donc passer moins de temps dans des problématiques d’exploitation courantes. L’équipe a pu ainsi se concentrer sur d’autres missions à valeur ajoutée tout en gagnant en visibilité par une gestion propre des changements et de meilleurs niveaux de services. L’effort de l’équipe porte à présent principalement sur l’orchestration et le catalogue de services.

Prochaine étape pour l’année 2015, aller plus loin que la mise à disposition de l’infrastructure en proposant au catalogue de services un packaging applicatif qui permette de fournir la Machine virtuelle avec son applicatif

Mots-clefs :, , , , , ,

Cisco prend le virage du logiciel à l’occasion de l’évenement européen CiscoLive 2015

Alors que Cisco vient de fêter ses 30 ans existence, les annonces dans le domaine du logiciel la semaine dernière à CiscoLive témoignent de sa capacité à se renouveler en permanence pour accompagner la transformation numérique de ses clients.

Ces dernières années Cisco avait opéré quelques acquisitions logicielles pour augmenter sa proposition de valeur, en particulier dans le domaine du cloud et de la sécurité, et compléter les nombreux logiciels de gestion d’équipement réseaux et serveurs présents à son catalogue. Restait encore à ajuster le mode de commercialisation de ces logiciels pour franchir une nouvelle étape et revêtir les habits d’un véritable éditeur de logiciels.

Une Approche logicielle à la carte avec la suite Logicielle Cisco ONE : Objectif principal, simplifier la consommation des logiciels Cisco dont le nombre s’est Cisco ONE softwareconsidérablement étoffé en commençant par l’organiser avec la suite Cisco ONE en 3 grands domaines d’infrastructures ( Datacenter – WAN – Acces ) et en 3 sous-ensembles de fonctionnalités ( fondation, applications avancées, sécurité avancée)

A cette structuration de l’offre logicielle vient s’ajouter un assouplissement du mode de consommation puisque les lociciels sont disponibles sous forme de :

  • licences perpétuelles
  • abonnements
  • contrat cadre ELA

Cisco ONE offre également la portabilité du lociciel. Avec la portabilité des licences, il est désormais possible de les transférer sur un nouvel équipement informatique. On peut ainsi réduire les coûts et avoir l’accès constant aux dernières innovations lors de l’édition de nouvelles fonctionnalités.

Suite Cisco ONE Enterprise Cloud: Combiner la sécurité et le contrôle du cloud privé au libre-service et à l’automatisation du cloud public

                                    . 

Les clients ne veulent plus avoir à gérer la complexité de la mise à disposition de service dans le cloud qui se veut de plus en plus hybride. Pourtant les tâches sont nombreuses (catalogue de services à la demande, automatisation des politiques et des configurations, orchestration etc..).. Dans bien des cas on est amené à empiler des logiciels disparates dont il faut faire une intégration difficile à maintenir cohérente dans le temps.

     – Répondre aux besoins des organisations. La suite Cisco ONE Enterprise Cloud réduit cette complexité et répond aux attentes des trois principales parties prenantes d’un cloud hybride:

    • Les utilisateurs finaux : Ils bénéficient d’un accès rapide aux services informatiques stratégiques grâce à des plateformes à la demande, en libre-service.
    • Les directeurs informatiques : Ils peuvent automatiser leur infrastructure, tout en mettant à disposition et en gérant des applications. Ils obtiennent ainsi une visibilité et une capacité de gestion des services cloud, ainsi que la possibilité de déplacer des charges de travail à travers les clouds tout en respectant la même politique et le même niveau de sécurité.
    • Les développeurs d’applications : Ils ont accès à des outils simples fonctionnant par glisser-déposer, ce qui leur permet d’accélérer les développement d’applications.

La suite Cisco ONE Enterprise Cloud utilise le logiciel Cisco ONE for DataCenter et comporte les logiciels suivants :

Cisco ONE est disponible immédiatement à l’échelle mondiale, sous licence perpétuelle. Les offres d’abonnement seront commercialisées prochainement

Mots-clefs :, ,

Transformation numérique : Cisco France met en place des centres de compétences

La transformation numérique fait appel à de nombreuses technologies qui auront pour vocation de créer une valeur accrue pour l’entreprise. Pour tenir compte de cette mutation Cisco France met en place des centres de compétences ou « skill centers ».

Business et Technologies , de la cohabitation à la fusion :  Longtemps les technologies ont appartenu à un monde de spécialistes. Business et Technologies cohabitaient par nécessité tout en préservant des frontières culturelles et opérationnelles.

Avec les nombreuses innovations technologiques auxquelles nous avons assisté ces dernières années et l’utilisation d’un grand nombre d’entre elles dans notre espace privé et familial la technologie s’est démocratisée. La technologie s’est ainsi rapprochée progressivement du business non plus seulement pour en assurer le support et la logistique mais pour y contribuer en créant de la valeur additionnelle et de la différentiation. On n’hésite plus à parler d’entreprises numériques.

Le 14 janvier 2015 , Axelle Lemaire a encore rappelé l’importance du numérique lors du Débat d’orientation pour la stratégie numérique de la France à l’Assemblée nationale.

Les entreprises deviennent des « entreprises de technologies » : En devenant des entreprises numériques, leur activité va dépendre de plus en plus de leur capacité d’utiliser les technologies pour réinventer leur business et leurs relations aux clients. Le Cloud, le Big Data et l’internet de l’objets sont  à ce titre exemplaires dans leur manière de modifier les modèles économiques existants et de participer à la création de nouveaux marchés.

Les espoirs sont immenses mais les défis à relever sont également considérables pour réussir la transformation numérique.

Les fournisseurs de l’IT doivent accompagner la transformation numérique: Les entreprises attendent de leurs fournisseurs technologiques qu’ils s’adaptent également pour s’associer à leurs efforts de transformation. La technologie n’est plus dissociée de l’activité de l’entreprise et les approches des constructeurs doivent intégrer plus fortement le composant business des entreprises en veillant si possible à ce que les solutions proposées aient un impact mesurable sur la valeur créée par l’entreprise.

.    

Le numérique nécessite la mise en place d’écosystèmes : Les solutions par ailleurs gagnent en complexité en cherchant à répondre à ces nouveaux besoins liés au numérique. Difficile pour un fournisseur de concevoir toutes les pièces du puzzle numérique. Des alliances nombreuses et variées sont donc nécessaires entre constructeurs, éditeurs et intégrateurs.

Cisco met en place des « centre de compétences » pour accompagner la transformation numérique :      Face à cette mutation, Cisco France, sous l’impulsion d’Eric Greffier, membre du comité de direction, adapte son organisation en créant une dizaine de centres de compétences (Skill Centers) dont les principaux objectifs sont de:

  • Développer des approches pour associer business et technologies
  • Présenter les solutions dans le contexte business du client
  • S’assurer que les clients vont pouvoir concrétiser leurs investissements
  • Proposer des fournitures de solutions et des facturations souples et adaptées

Ces centres de compétences sont constitués chacun d’une équipe polyvalente (consultants et commerciaux) qui va devoir maitriser tous les aspects du sujet qui lui est dévolu, développer des alliances appropriées et impliquer le réseau de partenaires Cisco. Chacun de ces centres pourra être amené collaborer avec un autre, les technologies interagissant de plus en plus entre elles

Les centres de compétences couvrent aujourd’hui :

  • Expérience employé
  • Expérience client
  • Expérience Cloud
  • Mobilité
  • Réseaux de nouvelle génération
  • Sécurité
  • Internet de l’objet et Internet of Everything
  • Applications d’entreprises
  • Big data et analytique
  • IT Hybride

Dans de prochains billets je fournirai un éclairage complémentaire sur certains de centres de compétences

Mots-clefs :, ,

Cisco Live 2015 à Milan : une participation en hausse

CiscoLive MilanComme chaque année, CiscoLive, le grand rendez-vous Européen des utilisateurs et partenaires  Cisco aura lieu la semaine du 26 Janvier à Milan.  Cette année l’évènement grandit encore et la fréquentation est en hausse :

  • plus de 8000 participants en provenance de 115 pays différents
  • 110 sponsors et exposants
  • 70 executives de Cisco présents pendant la semaine
  • 1800 employés Cisco

Cette édition 2015 s’annonce exceptionnelle pour la France avec une participation record : plus de 400 clients français feront le déplacement. Pour les accompagner durant la semaine,  plus de 60 employés de Cisco France seront sur place également. N’hésitez pas à vous rapprocher de votre contact commercial ou technique Cisco pour savoir s’ils seront présents et les solliciter pour vous aider à profiter au mieux de l’évènement. Il y a aussi un nombre significatif d’experts techniques francophones que vous pouvez rencontrer sur place.

Comme chaque année, plusieurs centaines de sessions sont proposées durant la semaine. Ces sessions sont majoritairement techniques, et couvrent tous les domaines, tous les marchés et toutes les technologies proposées par Cisco.

CLMilanLivePour ceux qui n’ont pas la chance d’y participer sur place, vous pouvez suivre en live les sessions suivantes en vous rendant sur cette page:

Jan 26:

  • Academy Day – over 10,000 students joining in the World’s largest classroom

Jan 27:

  • Opening Keynote by Carlos Dominguez, Cisco SVP, Office of the CEO & Jeremy Bevan, Cisco VP EMEAR Marketing
  • Enterprise Networks Technology Trend Keynote, Jeff Reed, Vice President, Enterprise Infrastructure and Solutions, Cisco
  • Internet of Things / Internet of Everything Technology Trend Keynote, Mike Flannagan – VP/GM, Cisco, Tony Shakib, VP, Cisco, Kip Compton – CTO, Cisco
  • Security Technology Trend Keynote, David Goeckeler – SVP, Cisco

Jan 28:

  • Collaboration Technology Trend Keynote, Rowan Trollope – SVP/GM Collaboration Technology Group, Cisco
  • Cloud Technology Trend Keynote, Gee Rittenhouse – SVP/GM, Cisco, Faiyaz, Shahpurwala – SVP, Cisco
  • Application Centric Infrastructure Technology Trend Keynote, Soni Jiandani – SVP, Corporate Marketing, INSBU, Insieme Networks, Cisco
  • Service Provider Technology Trend Keynote, David Ward – Chief Architect/CTO, Engineering, Cisco

Les présentations et certains enregistrements des sessions techniques seront également disponible ici peu de temps après CiscoLive.

Mots-clefs :

L’optimisation applicative (ADC) automatisée avec Cisco ACI

Pour répondre à l’agilité attendue par les entreprises, les infrastructures doivent s’adapter rapidement et automatiquement aux besoins applicatifs. En misant sur l’ouverture, la solution Cisco ACI (Application Centric Infrastructure) veut accélérer cette évolution en tirant parti des fonctionnalités d’un large ecosystème.

L’intégration ACI avec les solutions ADC rendue simple par un politique de gestion de services ouverts

Prenons le cas de l’optimisation applicative avec les fournisseurs de solutions « Applications Delivery Controller » (ADC) qui se positionnent sur les couches réseau de niveau 4 à 7. Ces fournisseurs ont travaillé étroitement avec la business Unit Cisco en charge du développement de ACI pour concevoir, tester et certifier des solutions intégrées communes. Ces fournisseurs proposent des offres packagées téléchargeables par les clients pour simplifier le déploiement de ACI dans le cadre des environnements ADC.

Le contrôleur de l’ACI que l’on appelle APIC (Application Policy Infrastructure Controller) est par nature programmable et hautement ouvert. Il a la capacité d’associer de manière sélective des chaînes de services avec des applications et des flux de données.

ACI et ADC

F5, Citrix , A 10 Network prêts pour l’ACI, Radware prochainement: A ce jour F5,Citrix et A 10 Network disposent d’offres packagées pour Cisco ACI .

- F5 a annoncé en aout 2014 la disponibilité de son offre packagée pour ACI . Des documents communs (technical whitepaper, solutions brief et Design guide) ont été rédigés conjointement par Cisco et F5

- Citrix et Cisco ont bâti un partenariat début 2010 avec des solutions de virtualisation de postes de travail validées sur des serveurs Cisco UCS. Ce partenariat s’est étendu et en aout 2014 a été introduite la solution commune ACI-Citrix NetScaler en même temps que la disponibilité d’une offre packagée Citrix pour ACI. Les équipes d’ingénieurs de Citrix et de Cisco ACI collaborent également sur les standards IETF et ODL pour promouvoir les protocoles OpFlex et NSH. Les solutions font l’objet d’une documentation (solutions brief et whitepaper accessibles sur le site web commun ).

- A 10 Network a tout naturellement adopté les principes d’ACI dans sa stratégie. Présenter de manière programmable des fonctions réseaux de niveau 4 à 7 est un objectif en accord complet avec la vision de A 10 Network qui a commencé par certifié son offre packagé pour ACI qui est désormais disponible au téléchargement . Cette offre est en open source et peut être ainsi facilement adaptée par les clients pour créer leur propre valeur. D’autres axes de collaboration sont à venir.

- Radware est également en cours de tests d’une offre packagée pour ACI et on devrait en savoir plus d’ici peu.

lire également:

Une solution F5-Cisco pour automatiser, avec ACI, les services réseaux nécessaires à une application

Application Centric Infrastructure: modéliser les applications

 

Mots-clefs :, , , ,

Le Cloud rentre dans sa phase de maturité en France

« Le niveau de maturité Cloud des organisations françaises a franchi un palier ». C’est ainsi que le cabinet PAC intitule la quatrième édition du PAC Cloud Index éditée en décembre 2014. Un projet Cloud revêt de plus souvent un caractère stratégique pour l’entreprise et l’avis d’expert du Cloud peut aider à mettre en œuvre efficacement cette stratégie.

Le Cloud se démocratise : L’année 2014 se sera conclue sur une note positive pour les adeptes du Cloud en France. Pour la première fois en quatre ans, l’étude PAC CloudIndexPAC CloudIndex relève une progression importante de l’adoption du Cloud en France avec 55 % des répondants qui ont recours au Cloud.

  • Le SaaS reste en tête avec 54% des utilisateurs de Cloud
  • Les offres de type « Infrastructure as a service » font une progression très remarquable d’une année sur l’autre en passant de 29% à 46%.
  • Quant au PaaS même s’il marque une progression, il ne représente encore que 16% des utilisations du cloud.

L’utilisation du Cloud va s’accélérer : Un cap semble réellement franchi, et les bénéfices attendus du cloud sont constatés par les entreprises qui l’ont mis en place. Tous les indices sont réunis pour que l’accélération de l’utilisation du cloud se produise et ce sont 70% des organisations qui, toujours d’après l’étude, déclarent vouloir étendre l’usage du cloud dans les trois ans à venir.

Les raisons d’adopter le Cloud évoluent :  Les motivations sont cette année influencées par la morosité du contexte économique et la réduction des coûts a ainsi rejoint la flexibilité comme premières motivations de l’adoption du cloud. On trouve ainsi dans les motivations :

  • La réduction des coûts
  • L’augmentation de la flexibilité
  • L’amélioration du Time to market
  • Le développement d’offres innovantes
  • Le soutien d’un changement de modèle économique

Besoin d’accompagnement service : Cette quatrième édition du PAC cloud index confirme le besoin d’accompagnement service dans le cadre du Cloud et tout d’abord pour l’intégration dans le système d’information existante. Avec la maturité des utilisateurs de cloud, les demandes de personnalisation, d’offres SaaS en particulier, se font également plus nombreuses.

 Une matinée d’échanges avec Cisco et Dimension Data pour lever les dernier doutesmatinée DD

La maturité progresse en France mais il n’en demeure pas moins des freins à son adoption comme par exemple la sécurité qui souffre de la médiatisation faite lors chaque incident, piratage ou espionnage. Les entreprises qui envisagent de mettre en œuvre un cloud ou d’étendre l’usage d’un cloud existant doivent répondre à de nombreuses questions.  Une grande partie de la souplesse et de l’efficacité économique du modèle Cloud  doit être pilotée par des cas d’usages concret tout en veillant à :

  • rester indépendant des grands fournisseurs de service cloud tout en les utilisant au mieux
  • mixer une infrastructure traditionnelle avec le cloud
  • garantir une politique de sécurité cohérente pour les applications mises dans le cloud
  • garder des degrés de liberté pour l’avenir et permettre la réversibilité ?

Pour vous aider dans votre réflexion sur le Cloud, Dimension Data et Cisco vous proposent de participer à une matinée d’échanges suivie d’un buffet le jeudi 29 Janvier 2015, afin de découvrir les solutions qui s’offrent désormais à vous lors de présentations, démonstrations et retours d’expériences. Pour vous inscrire cliquer ICI 

A lire également: Intercloud: un monde de clouds sans contrainte ..ou presque

 

 

Mots-clefs :, ,

VersaStack : IBM et Cisco collaborent pour faciliter la transformation des datacenters

Cisco et IBM ont annoncé le 4 décembre 2014 la solution VersaStack qui combine les serveurs Cisco UCS et le stockage IBM Storwize V7000 . Cette solution cible particulièrement les déploiements de Data Centers, de Cloud et de big data pour les grandes et moyennes entreprises.

Les solutions convergées ou intégrées, en proposant l’ensemble des composants d’infrastructure (réseau, serveur, stockage) dans une même solution, ont démontré leurs effets de simplification tant dans la conception que dans le contexte de production.

Cisco avait déjà osé une approche de rupture avec les serveurs Cisco UCS qui depuis se sont imposés comme les serveurs de prédilection pour les infrastructures intégrées. Avec l’annonce VersaStack, IBM et Cisco viennent compléter avantageusement le panorama de la convergence d’infrastructure.

VersaStack : Une solution d’infrastructure complète

VesaStack se présente comme une solution complète qui comporte :VersaStack composants

       UCS Integrated Infrastructure : L’ infrastructure intégrée est basée sur les serveurs UCS complétés par des commutateurs et un logiciel d’administration. Elle se compose de:

       IBM Storwize V7000 : Ce composant vient naturellement compléter l’UCS Integrated infrastructure en y apportant la couche stockage. Plus de 75.000 solutions de stockage V7000 ont été vendus à ce jour incluant V7000 et V7000 unified system).

VersaStack supporte l’intégration avec les hyperviseurs du marché pour des environnements virtualisé et des clouds.

Accélérer le déploiement des applications

VersaStack est d’ores et déjà prêt pour être utilisé avec Cisco Application Centric Infrastructure (ACI) . L’équipe IT peut ainsi concevoir, déployer et sécuriser et maintenir des applications à l’aide d’un framework plus agile. La solution VersaStack s’inscrit ainsi dans une optique d’amélioration de l’efficacité opérationnelle et de simplification.

VersaStack : une solution accompagnée d’une documentation riche et précieuse

 Cisco et IBM ont travaillé étroitement pour vérifier et valider l’architecture de la solution VersaSatck dans le contexte de nombreux cas d’usages. Ce processus de validation donne lieu à un ensemble de documentation détaillée comprenant par exemple :

• Meilleures pratiques de design d’architecture

• Guide de dimensionnement et d’évolution de Workload.

• Instructions de déploiement et de mie en œuvre

• Spécifications techniques

• Réponses aux questions fréquentes (FAQ)

• Cisco Validated Designs (CVDs) et IBM Redbooks sur une variété de cas d’usages. Un premier design d’architecture est déjà disponible

VersaStack together

La solution VersaStack sera distribuée par le réseau de partenaires qualifiés qui possèdent l’expertise des technologies datacenter de Cisco et du stockage Storwize d’IBM.

Les services de support de la solution seront disponibles au travers de Cisco, IBM et des partenaires qualifiés.

Pour plus d’information sur VersaStack visiter le site Cisco

Mots-clefs :, ,

Numérique et handicaps: chance ou nouvelle course d’obstacles

Le numérique arrive avec son lot de promesses, il peut être source d’espoir pour bon nombre de personnes en situation de handicap, encore faut-il penser à leur faciliter l’accès aux sites internet qui sont encore inaccessibles pour beaucoup d’entre eux.

 Il y a quelques temps j’ai découvert que John Chambers, chairman de Cisco, était dyslexique. Dans un article de presse il expliquait que pour compenser ce handicap il avait dû apprendre d’autres manières pour atteindre plus rapidement les mêmes objectifs. Plus proche de nous Sylvain Nivard, non voyant, montre qu’il est possible de dépasser son handicap en devenant maire de Méry-sur-Cher après avoir fait sa carrière chez IBM.

De belles réussites qui ne doivent pas masquer la souffrance de tous ceux dont le handicap reste un frein pour vivre dans notre société moderne.

Numérique : des évolutions technologiques porteuses d’espoirDefi Cisco

Le numérique est sans doute une chance à saisir pour faciliter la vie des personnes à handicap. Encore dernièrement le Défi Cisco a récompensé un projet de canne connectée pour non-voyants (lire Une canne blanche connectée, lauréate du Défi Cisco) qui devrait leur faciliter la vie. Mais le grand défi est sans doute le droit à pouvoir s’exprimer, à pouvoir communiquer avec les autres. Il ne faudrait pas que le numérique se transforme en course d’obstacles pour les handicapés.

Les évolutions dans les domaines comme la synthèse vocale, la commande vocale ou oculaire et la dictée vocale permettent à des non-voyants, mais également à des personnes souffrant de dyslexie ou de praxie (difficulté de coordonner ses mouvements), de dépasser leur handicap pour utiliser les ordinateurs. On mesure difficilement les conséquences d’un handicap quand on n’y est pas soi-même confronté. J’ai appris dernièrement par exemple que la dyslexie était plus pénalisante pour la langue française ou anglaise alors que des enfants utilisant des langues dites « transparentes » comme l’italien ou l’espagnol lisent quasiment sans erreur.

Les nouvelles technologies possèdent des vertus utiles pour certains handicaps. L’usage de la tablette par exemple peut faciliter la lecture pour les enfants dyslexiques. Le fait d’avoir sur l’écran moins de mots sur chaque ligne permet à l’enfant de se concentrer sur chacun d’eux.

Les smarphones et les tablettes en offrant la mobilité, de la puissance de calcul importante , des technologies de reconnaissance et des applications de traduction instantanée  ouvrent des opportunités pleines intéressantes.

Mais soyons bien conscients que les possibilités de ces bijoux de technologies doivent être accessibles à tous. Par exemple une personne souffrant de praxie éprouvera d’énormes difficultés à utiliser un écran tactile où les mouvements de doigts que nous faisons sans réfléchir sont autant d’épreuves insurmontables pour elle.

Dyslexie : Le cas particulier des troubles non visibles.

Dans certains cas nous n’avons pas conscience de la cause de certaines difficultés que nous rencontrons et avons pris l’habitude de les esquiver. Ainsi de nombreuses personnes dyslexiques ont choisi les métiers techniques et numériques où ils peuvent exprimer leur talent de logique ou d’innovation.

Toutefois dans certaines tâches, telles que faire un rapport, rédiger un message sans erreurs d’orthographe, etc… ils peuvent être entravés au quotidien ou pour accéder à des responsabilités de management.

Le numérique peut aider à dépasser ces entraves, mais compte tenu des différents types de dyslexie il est délicat de trouver seul les bons outils. Des spécialistes du numérique bénévoles peuvent alors être de bon conseil, vous pouvez les consulter ici : info@numeridys.com

L’accessibilité : le véritable enjeu du numérique

Internet est devenu incontournable et de nombreuses démarches administratives peuvent se faire aujourd’hui sur internet. Le développement du commerce électronique et des usages numériques au sens large renforce le côté de plus en plus incontournable d’internet. L’inventeur du World Wide Web, Tim Berners-Lee, a affirmé que « La puissance du Web est dans son universalité. Y accéder quel que soit son handicap est un point essentiel. »

Pour éviter une nouvelle forme de discrimination avec Internet et le numérique l’accessibilité doit être pensée à tous les niveaux. Pour mesurer la difficulté, Imaginez-vous quelque instant devant votre ordinateur les yeux fermés ou dans l’incapacité d’utiliser un clavier ou un écran tactile !!

De réelles améliorations sont apparues grâce à la législation américaine et la «Web Accessibility Initiative». Certains pays comme s’en sont inspirés et la France dispose d’un « Référentiel Général d’Accessibilité des Administrations » mais beaucoup de progrès restent à accomplir, en particulier pour les sites web des entreprises.

Ces documents contiennent des règles et des recommandations pour rendre les contenus Web plus accessibles à une plus grande variété de personnes en situation de handicap (non-voyants, malentendants, les personnes ayant des troubles d’apprentissage, des limitations cognitives, des limitations motrices, des limitations de la parole, de la photosensibilité etc.)

Ses règles demandent à ce qu’un site soit :

  • perceptible : équivalents textuels à tout contenu.
  • utilisable :   éléments d’orientation pour naviguer, trouver le contenu et se situer dans le site.
  • compréhensible contenu textuel lisible et compréhensible. Apparition et fonctionnement des pages de manière prévisible.
  • robuste compatibilité avec les agents utilisateurs actuels et futurs, y compris avec les technologies d’assistance.

Des règles encore trop peu prises en compte sur la majorité des sites internet en partie par méconnaissance du problème.

Une « expérience utilisateur augmentée » aussi pour la personne en situation de handicap.

Machine learning, Big Data, Objets communicants, expérience utilisateur, autant de termes utilisés abondamment quand on parle de transformation numérique. Des termes qui contiennent en eux beaucoup de messages d’espoir et qui permettent de rêver d’une expérience utilisateur augmentée ou l’utilisateur pourrait être une personne en situation de handicap qui verrait son univers améliorée.

Une des attentes majeures est la sociabilité facilitée par les technologies numériques qui sont un médiateur mais pour que cela marche c’est à chacun d’entre nous d’être ouverts à la différence !

Merci à Philippe Rosado d’avoir attiré mon attention sur ce sujet.

Mots-clefs :, ,

Le Cloud OutScale part à la conquête du monde

Avec un nouveau Cloud à Hong Kong OutScale simplifie l’accès au marché Chinois.  Apres la France et les Etats Unis , C’est Logo OutScaleen Chine que OutScale a décidé de continuer son expansion. Avec cette présence OutScale se présente non pas comme un simple fournisseur de services de cloud mais comme un véritable facilitateur de business pour les entreprises occidentales qui souhaitent prendre pied sur l’immense marché chinois.

OutScale s’affiche tout à la fois comme un fournisseur français de cloud, offrant la garantie de données stockées localement, et en même temps comme une société résolument tournée sur l’international.

Cette dernière implantation à Hong Kong permettra aux entreprises européenne et américaines de disposer d’une infrastructure Cloud pour leurs clients asiatiques et leurs filiales. Elles bénéficieront de temps de latences extrêmement réduits et d’importants moyens de stockage, de calcul et de réseaux. A chaque fois les infrastructures sont identiques : serveurs Cisco UCS,  stockage NetApp et le logiciel d’orchestration TINA OS développé par OutScale

Pourquoi OutScale est devenu le premier opérateur de Cloud européen à s’installer en Chine ? Son président Laurent Seror répond à cette question dans cette courte vidéo (Environ 3 mn).

.                                    

Lire le communiqué de presse : Outscale premier Cloud Provider européen à ouvrir le marché chinois aux entreprises occidentales

 

Mots-clefs :,

Fiabiliser la production informatique pour l’excellence opérationnelle

Avec le temps les Data Centers sont devenus de véritables centres névralgiques pour les entreprises et les opérateurs de Cloud. La transformation numérique ne fera qu’accentuer ce fait. La recherche de l’excellence est plus que jamais une obligation.

A la recherche de l’excellence opérationnelle

Les exigences et les attentes vis-à-vis de Data Centers deviennent, par la même occasion, plus fortes en termes de performance et de disponibilité bien sûr, mais également en termes d’agilité. Une agilité qui doit rendre les entreprises capables de faire face à des ruptures technologiques, des transitions de marché ou bien encore à de nouveaux entrants qui bouleversent l’ordre établi.

Les directions informatiques sont donc sous pression et attendent de leurs fournisseurs de contribuer à simplifier leur tâche. Une tâche rendue d’autant plus complexe par la multitude de fournisseurs (constructeurs ou éditeurs), qui concourent à la réalisation d’une solution.

Cela impose aux sociétés qui proposent les solutions de monter en valeur pour :

  • Faciliter le nécessaire travail d’intégration par une expertise de plus en plus poussée sur :
  1.  les produits matériels et logiciels à leur catalogue
  2. les architectures pour fournir des solutions complètes adaptées aux besoins du client en s’appuyant, lors que cela est possible, sur des « architectures de références » mises à disposition par les constructeurs.
  • Aider à fiabiliser la production par des services appropriés en:
  1.  Limitant l’impact des défaillances des produits
  2. Anticipant les risques de dysfonctionnement dans un environnement de production
  3. Palliant à un manque de ressource qualifiée lors de périodes particulières ou d’évolutions technologiques.

La fiabilité d’une production ne dépend pas que du matériel et du logiciel

Force est de constater que bien souvent les dysfonctionnements ne sont pas liés aux produits eux même mais à une mauvaise utilisation dans le contexte de la production

En plus du support de la solution dans sa totalité, les clients doivent pouvoir attendre de leurs revendeurs et intégrateurs des services complémentaires pour fiabiliser leur production. Nombreux intégrateurs et revendeurs sont conscients de la nécessité de se transformer pour répondre à ce besoin et certains ont déjà fait entrepris cette évolution.

Ce ne doit pas être un simple effort de cosmétique car la compétence doit être réelle et le service de qualité. Stordata services

En capitalisant sur une expertise forte développée autour des produits qui ont été sélectionnés pour être revendus la société StorData , spécialiste des infrastructures, propose par exemple une offre de services complète regroupés sous le terme « IT Care » qui illustre assez bien la « montée en valeur » que je mentionnai précédemment.

Serveurs UCS : de la supervision à l’anticipation des besoins de production

Chaque service porte sur l’ensemble des logiciels et matériels composant la solution fournie au client. Si on prend le cas des serveurs UCS, la société StorData les revend depuis plusieurs années et les intègre dans des Stordata logo 2architectures convergées. StorData a voulu aller plus loin en proposant en plus au client qui le souhaite des rapports de supervision (IT Care supervision) sur le fonctionnement de l’UCS dans le contexte de production. Un expert StorData accompagne ces rapports de préconisations pour que les ressources de traitement soient parfaitement alignées avec le planning de production. Et pour accomplir la majorité des actes à distance c’est l’outil Webex de Cisco qui est utilisé depuis de nombreuses années.

Le client pourra de la même manière faire appel au service « IT Care Administration » pour associer un nouveau service profile à une lame UCS ou procéder à une mise à jour du microcode.

La production est mieux maitrisée et certains clients en profitent pour mettre en place une véritable optimisation des ressources voire du capacity planning.

Monter en valeur ne sera bientôt plus un choix mais une obligation pour ceux qui veulent se maintenir dans un environnement en perpétuelle évolution qui nécessite des expertises de plus en plus pointues.

Mots-clefs :, ,

SwissLife : une infrastructure pour cloud privé en neuf mois

IMG_0702A l’occasion d’une matinale consacrée aux infrastructures convergées ce mardi 2 décembre, la société MTI a eu la bonne idée de faire témoigner le mardi 2 décembre SwissLife France.

J’avais moi-même le plaisir d’animer la table ronde réunissant SwissLife, MTI, Cisco, EMC et VCE pour mieux comprendre le rôle que peuvent jouer les infrastructures dans la recherche d’agilité et la transformation des entreprises.

Objectif Cloud en neuf mois

mtiDenis Bourdon, Directeur des Operations IT chez Swiss Life France, a expliqué qu’après quatre ans d’existence, l’infrastructure utilisée dans les datacenters de Swiss Life France n’était plus adaptée à l’activité quotidienne. La prolifération des serveurs et les limites de capacité de stockage ne pouvaient que conduire SwissLife à rénover ses datacenters de Roubaix et de Levallois avec l’aide de son intégrateur MTI.. Les nouveaux enjeux et les nouveaux projets, tels que la mise en place d’un cloud privé, n’ont fait que renforcer l’urgence de la rénovation.

Pres swisslifeSwissLife a donc enclenché un projet de rénovation avec création d’un cloud privé et en a profité pour mettre en place un Plan de Continuité Informatique (PCI) sécurisé au siège de l’entreprise à Levallois Perret

Supprimer les silos technologiques

Pour y arriver il fallait réduire le temps de conception d’architecture et le temps d’intégration en déléguant en partie ces tâches à un intégrateur ( MTI dans le cas de SwissLife) qui peut s’appuyer sur une architecture de référence . Cette architecture de référence est  une architecture validée résultat d’un travail de collaboration des constructeurs. Elle prend la forme d’un document technique détaillé, véritable guide pour l’intégarteur qui gage en temps et évite de potentielles erreurs.

Contrairement à des approches comme Vblock ou l’intégration est faite par VCE, là l’intégrateur joue ce rôle et fournit une solution complète au client en l’occurrence SwissLife.

La solution intégrée prenant en compte stockage, réseau et serveur constitue ainsi le socle de base du datacenter rénové sur lequel a pu être bâti le Cloud

Neuf mois est un donc une belle performance quand on sait que ce temps inclus le délai entre la commande et la livraison des équipements

Autre aspect pris en considération dans ce projet c’est le point unique de support que fournit l’intégrateur pour assurer le bon fonctionnement de la totalité de la solution.

Denis Bourdon considère que le projet est un réel succès et que d’ores et déjà les principaux objectifs sont atteints :

  • disponibilité du service
  • performances
  • capacité à mettre en place un PCI dans des délais toujours plus courts.
  • Cloud privé

Un projet articulé autour de deux infrastructures convergées VSPEX EMC-Cisco . swisslife gains

L’architecture VSPEX est constituée de baies de stockage EMC VNX avec des serveurs Cisco UCS dans un environnement de virtualisation VMware avec réplication entre les 2 sites.

Les sauvegardes sont basées sur de l’EMC Networker et du Data Domain.

La table ronde a soulevé les questions sur les critères de choix entre approche traditionnelle, Vspex et Vblock. Il en ressort que d’une part il faut que les organisations soient prêtes à une approche globale et que dans le cas d’un Vblock la notion de TCO soit réellement pris en compte pour valoriser les gains d’exploitation et de gestion des changements.

En tout état de cause le choix revient toujours au client qui dans bien des cas s’appuie sur les conseils d’intégrateurs spécialisés dans l’infrastructure de la data.

Rénover utilement en  partenariats avec des écoles

Le résultats de la transformation ? 160 serveurs qui auraient pu partir à la casse…  SwissLife a jugé plus utile d’en faire dons à des écoles qui en auront un  bon usage pour faire l’apprentissage de l’informatique.

Une idée simple qui permet de recycler utilement le matériel informatique.

A lire également le livre blanc sur la gestion et la sauvegardes des données

 

Mots-clefs :, , ,

UCSO: une solution d’infrastructure intégrée pour OpenStack avec Cisco et RedHat

OPenStack : Donner la capacité d’innover

D’après la dernière enquête auprès des utilisateurs d’OpenStack les 5 premiers critères qui ont déterminé le choix des utilisateurs sont :

  • Capacité d’innovation 47%
  • Ouverture de la technologie 47%
  • Economie des coûts 46%
  • Indépendance vis-à-vis d’un fournisseur 45%
  • Efficacité opérationnelle 41%

L’innovation est en première place de la préoccupation des utilisateurs alors que dans l’enquête précédente elle ne figurait qu’en sixième place. Une prise de conscience sans doute car le contexte économique et concurrentiel impose aux entreprises de s’adapter voire de se transformer rapidement. Cela passe pour partie par la capacité d’innover.

Depuis ses débuts en 2010 OpenStack a fait de nombreux progrès en fonctionnalités et en nombre d’utilisateurs qui explique que la majorité des constructeurs (eux même souvent utilisateurs d’OpenStack) mettent en place une stratégie OpenStack et Cisco à quant à lui fait récemment l’acquisition de Metacloud, une offre de Cloud privé OpenStack as a service .

                                      Cisco et Redhat : un partenariat pour faciliter l’adoption d’OpenStack

RedHat disposant de l’offre Red Hat Enterprise Linux OpenStack Platform , il était assez naturel que le partenariat Cisco et RedHat se renforce.

Une architecture de référence commune : Déjà en Janvier 2014 je vous avais fait part d’une architecture de références pour Faciliter la mise en production d’OpenStack avec Cisco et RedHat (voir billet sur le blog) avec Le document Cisco Validated Design (CVD) pour décrire OpenStack avec une architecture Red Hat Enterprise Linux sur serveur UCS.

Une solution de PaaS intégrée : Le partenariat s’est ensuite poursuivi puisque dans le cadre de leur collaboration Cisco et RedHat ont créé un Cisco Validated Design (CVD) qui intègre OpenShift de RedHat avec Cisco Intelligent Automation for Cloud (CIAC) et Virtualized Multiservice Data Center (VMDC). (voir billet blog)

OpenShift est un produit de PaaS bâti sur Red Hat Enterprise Linux et le middleware Red Hat JBoss , il peut ainsi mettre à disposition des développeurs une plateforme de développement qui bénéficie d’un support total pour une multitude de langages et de frameworks comprenant entre autres  Python, Ruby, PHP sans oublier Java EE.

UCSO value

Cisco Integrated Infrastructure solutions pour RedHat OpenStack : UCSO Infras integrées UCS

Annoncées en septembre 2014, dans le cadre de l’extension du partenariat RedHat-Cisco autour de OpenStack, ACI et Intercloud, les solutions UCS d’infrastructures intégrées pour OpenStack ont pour objectif de simplifier le déploiement et la gestion opérationnelle de clouds basés sur OpenStack.

UCSO combinera (selon les éditions) Cisco Unified Computing™ (UCS), Cisco Application Centric Infrastructure (ACI), Cisco Intercloud Fabric et Red Hat Enterprise Linux OpenStack Platform. Les offres UCSO sont prévues sous la forme de deux Editions:

  1. Starter Edition: pour une installation rapide et simple dans le cas de clouds privés d’entreprise.
  2. Advanced Edition: pour un déploiement de clouds à grande échelle
  • Advanced Edition avec intégration d’ACI pour des politiques d’infrastructures de clouds alignées avec les applicatons
  • Advanced Edition avec intégration de Intercloud fabric pour clouds hybrides

UCSO edition

La disponibilité de la Starter Edition est prévue vers la fin de l’année 2014.

A lire également :

 

 

Mots-clefs :, ,

Hyper convergence : SimpliVity intègre les serveurs en rack Cisco UCS

La convergence est en passe d’entrer dans les mœurs des Data Centers. Le souci de rationalisation, d’économie et d’agilité aura agi comme un catalyseur pour accentuer le mouvement.

Selon le Gartner , qui utilise le terme « Integrated System », le marché des infrastructures convergées croît de 50% par an. De quoi aiguiser l’appétit de nouvelles start up qui se positionnent en prônant « l’hyper-convergence » .

Integrated System MQ Gartner

Hyper convergence: Une approche basée sur le logiciel et l’intégrationsimplivity

L’hyper convergence est basée sur une approche logicielle et entend consolider dans un seul stack tous les composants d’infrastructure et les fonctionnalités nécessaires à son fonctionnement. Les technologies intégrées sont administrées comme un ensemble unique par le biais des mêmes outils. L’accent est mis sur la scalablité en cherchant à reproduire la granularité des architectures Scale out mises en place par Google, Amazon ou Facebook. Dans le cas des solutions d’hyper convergence la granularité est au niveau du nœud.

simlivity benefitsL’hyper convergence capitalise sur les principes de la convergence et propose une intégration de fonctionnalités logicielles comme l’optimisation du WAN, la déduplication de données et la compression.

Simplivity fait partie de ces nouvelles sociétés qui ont fait de l’hyper convergence leur cheval de bataille.

SimpliVity intègre le serveur UCS C240 M3

Créée en 2009 , SimpliVity propose l’offre Omnistack qui depuis quelques mois peut intégrer des serveurs Cisco UCS. Le document, réalisé conjointement par SimpliVity et Cisco, “OmniStack Integrated Solution with Cisco Unified Computing System: Reference Architecture” décrit l’architecture de la solution validée pour Simplivity Ominstack avec des serveur UCS C240 M3.

Cas d’usage de la solution Omnistack avec UCS:

Parmi les cas d’usage ciblées par cette solution d’hyper convergence on trouve:

  • - La consolidation de data centers: La solution Omnistack avec les serveurs UCS permet de consolider les infrastructure sur plusieurs data centers en fournissant une administration centralisée.
  • - L’administration d’agences ou de sites distants. La solution permet d’unifier les projets d’administration. Omnistack fournit des services de mobilité des données. Cela concerne principalement les grandes entreprises avec de multi-sites distants

 

 

Mots-clefs :,