Cisco France Blog – Data Center

Conditions à l’évolution de l’internet de l’objets IoT

Nous n’en sommes qu’au début et pourtant les objets connectés (Internet of thing IoT) sont déjà très présents. Que ce soit sous forme de compteurs électriques dans nos habitations, de caméras dans nos villes, de capteurs dans les parkings, les objets connectés trouvent leur utilisation partout y compris dans nos vêtements qui se mettent à devenir intelligents. On aurait tort d’y voir uniquement un phénomène de mode, Le mouvement est profond et touchera tous les processus industriels. L’IoT permet d’améliorer la qualité et  la sécurité par un control efficace aux endroits adéquats et le tout relié par internet. Les trains et les camions sont déjà interconnectés par internet.

IoT manufacturers

Tous les types d’industries vont pouvoir bénéficier des objets connectés pour améliorer leurs processus et gagner en efficacité. Pour y arriver il va falloir néanmoins relever quelques challenges, en particulier celui de connecter des milliards de nouveaux équipements.  L’infrastructure Internet va devoir être capable d’évoluer pour prendre en compte ces milliards d’objets et faciliter leur intégration en fonction d’une multitude de cas d’usage. Ce n’est qu’à cette condition que pourra se développer une activité économique évaluée à plusieurs milliards d‘euros. L’IoT demande un nouveau modèle.

Pour être prêt à tirer parti de cette opportunité et être capable d’évoluer de manière durable quatre conditions sont nécessaires

Simplification de infrastructure : Internet a été conçu initialement pour connecter des ordinateurs, des téléphones, des imprimantes et plus récemment des équipements mobiles. La situation a considérablement évoluée avec une croissance énorme du nombre d’équipements connectés mais aussi du type d’équipements, de trafic et de protocoles. Les nouveaux équipements fonctionnent sans intervention humaine. Le coût par octets et par utilisateur n’est plus l’unique mesure et l’infrastructure doit être revue pour réduire les couts et la complexité. Pour atteindre ce niveau de souplesse on est amené à ouvrir d‘avantage les infrastructures et à les rendre d‘avantage programmables. Cisco Open Network Environment (ONE)  illustre les diverses possibilités pour orchestrer des services d’infrastructure et offrir de meilleurs services en automatisant les tâches de configuration et de provisionnement.

Agilité basée sur du logiciel : L’infrastructure doit être optimisée pour répondre aux nouvelles exigences applicatives. Les nouvelles applications réclament plus de rapidité et une adaptabilité renforcée à un environnement changeant. L’infrastructure doit détecter automatiquement les variations de demandes, les modifications ou les dysfonctionnements et s’y adapter avant que survienne une difficulté.

Securité holistique: Dans le contexte de l’IoT, l’infrastructure doit pouvoir détecter automatiquement des menaces et prendre les mesures en conséquence pour garantir la sécurité et la conformité. Pour être efficace la sécurité doit englober les différents aspects de l’infrastructure et combiner le control d’accès, la prise en compte du contexte, l’inspection du contenu, la visibilité de l’application et la prévention des menaces.

Facilité d’adoption :   Comme pour toute transition technologique importante, la courbe d‘adoption est guidée par une convergence rapide des standards. Aujourd’hui les passerelles IoT de Cisco supportent un stack très complet de protocole IPv6  afin de garantir l’interopérabilité entre tous les équipements des différents fournisseurs. Cependant la diversité des solutions IoT peut nécessiter des modèles plus souples capables d’intégrer des interfaces et des protocoles existants. Cisco IOx se présente comme une plateforme de traitement distribuée et ouverte. Chaque entreprise, chaque industrie peut ainsi  évoluer vers un environnement IoT qui lui correspond.

IoT IPv6

L’IoT va sans doute profondément transformer le fonctionnement des entreprises, pour permettre une croissance durable de l’internet de l’objet, une approche système est nécessaire. La capacité d’intégrer facilement des équipements connectés dans une infrastructure sera déterminante pour garantir le succès de l’IoT.

Pour plus d’informations vous pouvez regarder cette présentation Scaling the Internet of Things (IoT) at IoT & WSN

Mots-clefs :, ,

« IT as a Business » avec Application Centric Infrastructure ACI

L’adoption croissante du Cloud par les entreprises bouleverse les modèles traditionnels et crée de nouveaux challenges pour assurer la sécurité des données et pour fournir de manière efficace les services et les applications en mode cloud.  Le réseau rajoute un challenge supplémentaire. Il reste la dernière contrainte à lever, une fois réalisées la virtualisation et l’automatisation d’un DataCenter, pour répondre au besoin d’agilité de l‘entreprise.

Il y a des signes qui ne trompent pas. L’adoption croissante du Cloud, les mouvements autour de « devops » ne sont que quelques tendances qui soulignent que le monde applicatif est en train de se transformer tant sur le modèle de conception que sur le modèle de consommation.  L’agilité n’aura jamais été autant d’actualité. Plus d’applications, des déploiements plus rapides et des modifications applicatives de plus en plus fréquentes sont les reflets d’une entreprise de plus en plus numérique dont l’activité dépend de l’agilité applicative et de l’agilité de l’infrastructure qui supporte les applications.

Avec l’offre Application Centric Infrastructure ACI, Cisco entend apporter une réponse.

Le 2 avril pour couvrir ce sujet un webinar était organisé sur le thème :

New Applications   Are Knocking: Is your Data Center OPEN for Business?     Redefine the Power of IT with Application Centric Infrastructure.  voir l’enregitrement de ce webinar ci-dessous

.                                      

Soni Jiandani, SVP Marketing de Cisco et Rebecca Jacoby DSI de Cisco animaient cette session pour expliquer les  fondamentaux de ACI et l’adoption par l’informatique de Cisco. Mais de tels   projets ne peuvent réussir qu’avec l’adhésion d’un large écosystème contribuant, chacun dans son domaine,  à une solution complète et efficace. De grandes sociétés technologiques étaient donc présentes pour donner leurs points de vue sous forme d’une table ronde:

  • F5 – Sangeeta Anand, Sr. VP, Product Management & Marketing
  • IBM – Inder Gopal, VP, Networking Development & Technical Strategy
  • Microsoft – Mike Schutz, GM, Windows Server, Management & Appliances Product Marketing
  • Red Hat – Tim Burke, VP, Linux and Cloud Engineering

Des utilsateurs ACI participaient également à une autre table ronde. Chuck Crane, de la société  Acxiom, a profité de ce webinar pour partager l’expérience de son équipe sur l’utilisation des commutateurs Nexus 9500 et du contrôleur Cisco Application Policy Infrastructure Controller (APIC). Cette société propose des solutions de bigdata et d’IT as a service. Chaque semaine Acxiom traite des millions de transactions pour le compte de clients globaux. Avec ACI les équipes devops ont réduit les cycles de déploiement de 6 mois à 2 semaines.

L’architecture apporte un cadre commun d’administration, de programmation et d’automatisation  pour les équipes réseau, sécurité et applications. Ce framework rend la direction informatique plus agile en réduisant le temps de déploiement des applications.

Avec ACI, la direction informatique  peut réellement  fournir « l’IT as a business ».

D’autres informations:

 

Mots-clefs :,

Optimiser SQL server 2014 avec les serveurs UCS

Microsoft SQL Server 2014 est  disponible depuis  avril. Parmi les nouvelles fonctionnalités que comporte cette nouvelle version on retiendra tout particulièrement :

  • Le traitement transactionnel en mémoire  In-Memory Online Transaction Processing (OLTP) : intégrée à SQL Server cette fonctionnalité permet une  amélioration des performances 30 fois supérieure pour les applications transactionnelles.
  • In-Memory Columnstore (DW) : La fonction donne la possibilité de lire et d’écrire dans le Data Warehouse, avec des requêtes ultra-rapides (x100)
  • Des extensions de SQL dans le Cloud Windows Azure : Une utilisation du cloud hybride avec la sauvegarde de bases de données SQL Server qui peut se faire dans Windows      Azure et les réplicas d’une base de données hautement disponible qui peuvent  être déployés  dans des machines  virtuelles hébergées dans Windows Azure.

Gartner ne s’y trompe pas puisque dans le dernier quadrant magic d’octobre 2013 Microsoft figure parmi les principaux leaders des bases de données.

SGBD gartner

Ces améliorations devraient renforcer l’intérêt pour Microsoft SQL mais ne doivent néanmoins pas faire oublier de rester vigilant sur la gestion opérationnelle. Le couple logiciel /matériel doit fonctionner de manière cohérente et complémentaire. Les critères de performance,  de coûts de gestion et d’évolutivité ne doivent pas être atteints au détriment des autres.

Cisco travaille de concert avec Microsoft pour valider son approche Unified DataCenter avec les offres Microsoft.

SQL server

On peut ainsi en utilisant SQL server 2014 avec des serveurs UCS :

  • Réduire la complexité des déploiements de SQL server 2014 grâce à l’utilisation des services profiles d‘UCS
  • Faciliter l’administration grâce à l’intégration d’UCS avec System Center 2012
  • Evoluer facilement sans ajout de complexité

Pour approfondir ces différents aspects de nombreuses informations sont disponibles sur le site Cisco

A lire également sur le blog « Cloud OS : Intégration fluide entre Microsoft System Center et le serveur Cisco UCS »

 

Mots-clefs :, ,

Karamba et SAP: décisionnel et développement durable

La technologie peut-elle contribuer aux grands thèmes sociétaux ? Ce n’est pas le sujet d’une dissertation mais une question qu’il est normal de se poser. La technologie n’est pas une fin en soi mais elle devient de plus en plus un facteur d‘innovation et de transformation.

Si on prend l’exemple du développement durable, on voit que les entreprises commencent à s’approprier le sujet et réclament des outils adaptés.

Karamba logoJean Philippe Gobin, Associé de la Société Karamba, a eu l’occasion  d’accompagner des clients dans leur démarche de développement durable. Il a bien  IMG_20140416_100321voulu me faire part de son expérience.

Il faut se rappeler une étape importante du développement durable en France avec Le Grenelle de l’environnement. L’objectif initial était de définir un cadre de gouvernance  pour les entreprises autour de trois piliers :

  • Impact économique
  • Impact environnemental
  • Impact humain.

Le Grenelle n’a sans doute pas rempli tous ces objectifs, il n’a pas conduit encore à une mise en oeuvre législative  mais il aura créé néanmoins l’électrochoc nécessaire pour que les entreprises éprouvent le besoins de publier des informations sur leur démarche et leurs résultats dans le domaine du développement durable.

Première phase : le reporting

Selon leur taille et leur organisation les entreprises se sont mises à produire un rapport financier et un rapport Développement durable lorsque la structure s’y prêtait ou bien un rapport unique intégrant un volet développement durable. Ce rapport est l’étape indispensable de sensibilisation qui précède l’action.Pour parler développement durable il faut bien être capable de faire un constat de la situation sur les trois piliers.

Cette tendance à conduit certains éditeurs à développer des logiciels pour produire ces rapports.

On retrouve bien sur de nombreuses similitudes avec le reporting d’une direction financière disposant d’outils de Business Intelligence BI. Le développement durable empreinte la même logique  mais présente cependant quelques spécificité dans le sens ou on doit manipuler des indicateurs de tous types : ressources humaines (nombre d’employés, temps de formation etc..) ; écologique (consommation électrique, déplacement, pollution ..) et financiers.

Les logiciels de BI pour le développement durable ont donc donné lieu à des outils spécifiques tels que Sustainaibility Performance Management SuPM de SAP pour n’en citer qu’un.

Deuxième phase : le pilotage opérationnel

Le constat est nécessaire mais totalement insuffisant si il ne s’accompagne pas d’initiatives d’amélioration sur chacun des piliers du développement durable.

Les entreprises dotées d’outils d’ERP tels que SAP disposent d’informations sur l’ensemble des process et des données de l’entreprise. On peut utiliser les mêmes outils SAP pour calculer l’empreinte carbone avant et après les initiatives de réduction. On remplace les coûts par le facteur d’émission de carbone (l’euro est remplacé par le gramme carbone).

C’est la démarche entamée à grande échelle par le Groupe Danone qui a utilisé SAP dans le cadre de ses initiatives de :

  • Réduction de l’empreinte carbone : une réduction de 35% pour un objectif de 30.
  • Réduction  de la consommation d’eau : réduction de 41% entre 2000 et 2012
  • Utilisation de matériaux renouvelables
  • Biodiversité

Un ROI au rendez-vous du développement durable

La contrainte commence à laisser place à l’intérêt car une fois les initiatives mises en places et mesurées on arrive à faire un lien entre les économies « carbone » et les économies financières. Un même produit fini avec une empreinte réduite conduit bien souvent à une baisse des coûts.

Ce retour d’investissement devient aujourd’hui le moteur des initiatives qui permettent  à une entreprise d’être tout à la fois citoyenne et performante

Mots-clefs :, , ,

SAP HANA ou Hadoop: doit on choisir ?

Les solutions SAP HANA utilisant la technologie in Memory semblent séduire de plus en plus de clients. En bénéficiant des synergies de l’ensemble de l’offre SAP les entreprises peuvent devenir des entreprises « temps réel » capables d’analyser et d‘agir en temps réel (lire  SAP à l’Espace Cardin :  l’entreprise temps réel avec SAP HANA).

Dans le même temps la vague du BigData arrive et nombreux sont les clients à s’interroger sur le positionnement des technologies Hadoop et de In Memory.  Performances, volumétrie et coûts étant des éléments clés pour déterminer les cas d’utilisation de chacune des technologies.

Mais plutôt que d’opposer ces technologies pourquoi ne pas les combiner?  En utilisant SAP HANA et Hadoop on obtient ainsi l’accès instantané tout en disposant d‘une évolution quasi infinie.

Pour y arriver, SAP a établi un partenariat avec la société Hortonworks pour revendre Hortonworks Data Platform (HDP) et en assurer le support. Les solutions SAP ont également été validées avec MAPR et Cloudera. Les clients peuvent ainsi inclure Hadoop pour compléter une architecture bâtie sur SAP HANA.

HANA Hadoop

SAP HANA peut bénéficier de la quantité de données stockée avec Hadoop tout en apportant ses capacités temps réel pour acquérir des données provenant de systèmes opérationnels, de capteurs ou d’équipements mobiles (smart devices) et  faire des détections ou des analyses à la volée.

Les Data services de SAP fournissent le support ETL (Extract,Transform,Load)  d’Hadoop vers HANA.

L’architecture de référence validée avec Hortoworks mise à jour ce mois ci

Cisco fournit à la fois des architectures,  comportant des serveurs UCS, validées pour SAP HANA (Appliances SAP HANA et TDI) ainsi que pour Hortonworks (Common Platform Architecture).

L’architecture de référence  Cisco UCS Common Platform Architecture Version 2 (CPAv2) for Big Data with Hortonworks vient tout juste d’être mise à jour le 9 avril 2014.

Plus d’informations sur les solutions Cisco ci-dessous: 

pour SAP HANA

Pour Hadoop

 

Mots-clefs :, , , , , , ,

Software Defined Storage: Nexenta s’implante en France

Le stockage est un domaine qui subit également sa petite révolution. Les nouveaux usages et business modèles comme le bigata et le cloud combinés aux différences de performances entre processeurs et disques, aux besoins d’agilité et d’évolutivité, ainsi que la volonté de réduire les coûts, ont entrainé l’arrivée de nouvelles technologies et de nouvelles approches de stockage.

De nombreuses start up se sont créées autour de technologies Flash .Certaines se sont fait racheter par des fournisseurs de stockage ou par des fournisseurs de serveurs (cela a été le cas de la société Whiptail rachetée par Cisco).

Nexenta logoD‘autres sociétés ont choisi des voies logicielles. FalconStore et DataCore avaient déjà montré la voie avant que tarkan maner 3le Software Defined Storage vienne renforcer cette approche. C’est ainsi que la société californienne Nexenta a choisi de se développer sur le créneau du Software Defined Storage..

La semaine dernière j’ai eu l’occasion de rencontrer à Paris le CEO de Nexenta Tarkan Maner (sur la photo). Plusieurs raisons à sa présence à Paris, en dehors du fait qu’il semble apprécier notre pays,le lancement de la version 4.0 de son logiciel de stockage NexentaStor (lire l’annonce) et l’implantation de Nexenta en France.

Nexenta : Software Define Storage et Open Source

L’offre de Nexenta repose sur deux offres principales NexentaStor et NexentaConnect.

NexentaStor utilise  la technologie ZFS. Une technologie qui a été créée par Sun. Depuis des évolutions importantes ont été apportées. Comme le nouveau noyau Illumos, développé de façon communautaire, qui  a été adopté par NexentaStor. NexentaStor est une plateforme logicielle qui comporte toutes les fonctions San et NAS et qui s’installe sur des serveurs standards X86.  En séparant la partie matérielle du stockage du logiciel de gestion du stockage, Nexenta se positionne sur le Software Defined Storage et entend ainsi offrir plus de flexibilité. NexentaStor continuera à être disponible en deux editions. L’édition communautaire et une édition entreprise.

NexentaConnect est également basé sur ZDF et permet d’améliorer les performances des baies de stockage dans les environnements de VDI (poste de travail virtuel). Voir le document “NexentaConnect View Edition On Cisco Unified Computing System”

L’éditeur californien travaille également sur une nouvelle plateforme de stockage objet qui portera le nom de Nexenta Edge et devrait cibler tout particulièrement les grands utilisateurs de Cloud

Nexenta propose aussi son logiciel NexenStor pour des environnements BigData basés sur Cloudera Distribution Hadoop CDH. La dernière version de Cloudera Enterprise 5 est par ailleurs validée sur des serveurs Cisco UCS (lire le billet sur le sujet)

 

Mots-clefs :, ,

Le CIO de Cisco à la conference Interop: technologies et nouveaux modèles de l’IT

Tous les journalistes et analystes ont un point de vue sur le rôle du directeur informatique, c’est sans aucun doute le reflet d’un environnement complexe qui évolue du fait des multiples transitions technologiques qui transforment l’entreprise.

Lors de la conférence Interop qui se tenait à Las Vegas fin mars début avril, Rebecca Jacoby CIO de l’informatique interne de Cisco a fait part de son expérience dans ce rôle et des différents challenges qu’elle doit relever. Elle donne un point de vue très intéressant en expliquant pourquoi l’IT doit évoluer et comment elle planifie ces évolutions au sein de cIsco.

Son intervention est disponible sous forme de video d’une trentaine de minutes. Je vous conseille de la regarder.

.                                                        

Les entreprises doivent comprendre comment utiliser les nouvelles technologies

Pour R.Jaccoby chaque entreprise doit comprendre comment utiliser les nouvelles technologies pour en tirer un avantage stratégique. Les technologies sont les catalystes du changement

La nécessité de disposer d’un nouveau modèle pour fournir les ressources informatiques est une évidence pour Rebecca Jacoby qui insiste sur l’urgence d’être prêt car elle anticipe un nouveau point d’inflexion avec l’arrivée de l’Internet of Everything.

Les directions informatiques ont besoin de nouveaux modèles

Dans son exposé elle revient sur le nouveau modèle et les innovations qu’apportent Cisco avec en particulier « l’intercloud fabric » et Application Centric Infrastructure ACI . Elle évoque également OpFlex qui a été annoncé tout dernièrement.

Jacoby Intercloud

Cisco fait partie des premiers clients “aplha” pour ACI. D’ici deux ans toutes les applications utiliseront APIC Application Policy Infrastructure Controller . Les équipes de R.Jaccoby ont eu des interactions avec les équipes ACI dès les phases de développement. Quatre personnes ont été associées dès le début. La direction informatique de Cisco a pu ainsi donner son avis sur ce qui lui paraissait pertinent ou non prioritaire. R.Jacoby partage les premiers retours d’expérience avec le slide ci-dessous.

Jacoby ACI

Elle aborde d’autres sujets qui éclairent les évolutions qui s’opèrent au sein des directions informatiques.

Le développement doit tenir compte des impératifs d‘agilité et d’adaptation en continue des applications. Le développement va s’appuyer sur des modèles orientés  autour de politiques et de méthodes de types devops. Ce ne sont pas seulement les process qui doivent changer mais les mentalités également.

Le Bigata est également évoqué car les données sont au cœur de tout et il est nécessaire de savoir les exploiter rapidement à des fin de compétitivité et d’innovation.

La sécurité demeure un sujet prioritaire qui devient de plus en plus complexe avec des aspects multidimensionnels.

Rebecca Jacoby termine son exposé en expliquant comment l’internet de l’objet améliore la logistique avec la possibilité de disposer de nombreux et variés capteurs qui fournissent des informations utiles à l’optimisation de la logistique.

Mots-clefs :, , , ,

SAP à l’Espace Cardin : l’entreprise temps réel avec SAP HANA

SAP avait placé la journée du 10 avril à  l’Espace Cardin sous le signe de l’innovation.  « Innover pour se transformer ».

Dans la première session plénière Eric Verniaut  Vice President Innovation Sales EMEA (sur la photo à mes côtés)  a commencé sa présentation en SAP E V VPexpliquant que la croissance était liée à la capacité d’innover. Il n’y plus réellement place au superflu. L’entreprise doit aujourd’hui répondre rapidement à une demande volatile et capricieuse. Cet impératif de rapidité se répercute à tous les niveaux de l’entreprise y compris la chaine d’approvisionnement. E.Verniaut  insiste en précisant que pour certaines entreprises cela peut devenir une question de survie dans un monde hyperconcurrentiel et mondialisé.

Les évolutions technologiques ne sont pas étrangères aux innovations et en sont même souvent l’essence.

L’avènement à maturité simultanément de plusieurs tendances technologiques comme l’internet à haut débit, la mobilité et le cloud couplé aux baisses de coûts matériels constituent  un cocktail ‘innovation et e rupture sans précédent.

Tout est en place pour pénétrer dans l’ère du BigData. E.Verniaut  enfonce le clou, pour lui les gagnants de demain seront ceux capable de mettre en place et d’exploiter ces technologies.

L’accent est mis sur le la nécessite de temps réel, « l’entreprise temps réel ». Attention toutefois, l’analyse temps réel des données a une valeur réduite si on ne peut pas transformer l’analyse  en action temps réel.

SAP HANA :    De l’analyse temps réel  à l’action temps réel

Si toutes les DSI cherchent à obtenir plus d’agilité, elles se heurtent selon E.Verniaut à 3 types de délais :SAP tps rél

  • Délai lié à la disponibilité et à la mobilisation de l’information : disposer de données pertinentes sur des clients ou un marché par exemple
  • Délai de traitement des données : constituer une offre pertinente pour un client
  • Délai d’exécution : promouvoir l’offre vers un client en temps réel

SAP présente l’avantage de travailler sur tous les processus de l’entreprise. Un avantage précieux  qui permet de définir une approche complète pour une entreprise « temps réel » capable de transformer l’analyse en action dans tous les processus métier.

Au cœur de cette approche on trouve SAP HANA qui va apporter une réponse aux 3 formes de délais mentionnés :

  • Une plateforme de données temps réel : pertinence des données
  • Un outil analytique développé pour HANA : 10.000 fois plus rapide pour le traitement de données.
  • La réécriture de tous les systèmes transactionnels pour HANA : exécution rapide.

En profiter pour réduire les coûts

Dégager de la valeur et créer de la croissance sont déjà un programme en soi mais cela ne suffit pas, la recherche de réduction de coût est également à l’ordre du jour. Concrètement, SAP propose de faire fonctionner les systèmes OLAP et OLTP (analytique et transactionnel) sur un même environnement. D’où des infrastructures simplifiées.

Cisco partenaire de SAPSAp groupe V1

Cisco était bien sur présent sur l’évènement pour présenter ces solutions d’infrastructures pour SAP HANA, car n’oublions pas que ,pour que l’entreprise devienne une entreprise temps réel, ses environnements SAP doivent pouvoir compter sur des infrastructures réseau, serveurs et stockage performantes et fiables.

 

 

Mots-clefs :, ,

Remote Integrated Services Engine (RISE): optimiser l’intégration de services réseau avec le Nexus 7000

RISE : les mêmes bénéfices qu’une carte intégrée dans le commutateur Nexus 7000

Dorénavant on pourra utiliser des appliances offrant des services réseaux  de niveaux 4 à 7 avec les mêmes avantages que si ces services étaient offerts par un module intégré dans un commutateur.

Comment est-ce possible ? Grace au nouveau protocole Remote Integrated Service Engine (RISE) qui est ajouté au commutateur Nexus 7000 et à la plate-forme  7700 par l’intermédiaire du système exploitation  NX-OS (une mise à jour est possible sur des équipements existants). On obtient ainsi avec une appliance de services réseaux le même résultat que si on utilisait un module directement connecté au fond de panier du commutateur.

Cisco RISE établit une voie de communication (communication path) entre la commutation (data plane) et l’appliance de services. On simplifie ainsi les déploiements et les chemins de données (data path) s’en trouvent optimisés avec une meilleure visibilité du trafic.

RISE view

Citrix NetScaler Application Delivery Controllers (ADC) et Cisco Prime Network Analysis Module (NAM) sont les premières appliances de services qui ont été intégrés avec RISE. Ces appliances ont été testées et sont certifiées “RISE-enabled”. Ce n’est qu’une étape car l’annonce de RISE devrait permettre à un écosystème de partenaires travaillant avec Cisco de tirer parti de cette technologie.

Ces appliances de services sont connectées directement aux ports configurés RISE du Nexus 7000 par un câble réseau standard lors du déploiement typique d’un Virtual Port Channel (VPC). On peut également connecter ces appliances en mode indirect par l’intermédiaire de n’importe quel commutateur de niveau 2. Les deux scenarios prennent en compte la redondance des équipements et des chemins pour assurer la tolérance aux pannes.

RISE simplifie grandement le déploiement de nouvelles appliances. Le Policy Based Routing (PBR) dans le commutateur optimise les flux entrants et sortants de l’Application Delivery Controller (appliance ADC) pour une meilleure performance.

L’utilisation typique pour RISE concerne les Application Delivery Controllers qui sont connectés en mode “one-arm mode” (l’ADC ne se situe pas sur le trajet du trafic principal du commutateur). RISE évite que l’ADC devienne un goulet d‘étranglement et l’ADC ne traite que le trafic concerné.

Les administrateurs doivent fréquemment configurer manuellement les politiques de routage pour diriger le trafic vers l’ADC avec un certain nombre de contraintes inhérentes à ce processus. L’intégration de RISE automatise le policy-based routing (PBR) et supprime ainsi ces contraintes. L’ADC peut obtenir simplement du Nexus les paramètres dont il a besoin pour mettre en œuvre automatiquement et dynamiquement les routes lors u provisionnement de nouveaux services. On peut ainsi simplifier considérablement les évolutions applicatives et les déploiements de cloud en automatisant l’ajout et la suppression de routes  au moment où des charges applicatives additionnelles sont activées.

A regarder cette video sur l’intégration de RISE avec NetScaler de Citrix

.

Avec Citrix NetScaler, l’intégration de RISE fournit un certain nombre d‘avantages:

  • Provisonnement simplifié
  • Optimlisation du data path
  • ADC off-load
  • Disponibilité applicative améliorée
  • Support multi-tenants amélioré
  • Résilience du business améliorée

RISE est disponible pour les clients utilisant  NX-OS release 6.2(8) sur le  Nexus 7000 et 7700 et nécessite la license ENHANCED LAYER2 PKG . Les constructeurs d’appliances peuvent rejoindre le programme RISE pour commercialiser la technologie RISE , recevoir un SDK et de la documentation et s’engager ans un travail de développement joint avec Cisco.

Pour plus d‘informations :

RISE: http://cisco.com/go/rise
Nexus 7000: http://cisco.com/go/nexus7000
Citrix NetScaler: http://www.citrix.com/products/netscaler-application-delivery-controller/overview.html
Cisco Prime NAM: http://cisco.com/go/nam
General RISE inquiries: mailto:rise-info@cisco.com

Mots-clefs :, , ,

Au-delà du SDN: OpFlex un nouveau protocole pour Application Centric Infrastructure

 

Depuis l’annonce de Application Centric Infrastructure ACI , Cisco a affiché sa volonté de proposer une architecture la plus ouverte possible. . Un nouveau pas dans cette direction vient d’être fait avec l’annonce de « OpFlex »

Opflex: Nouveau protocole soumis à l’IETF

OpFlex est un nouveau protocole pour Application Centric Infrastructure qui s’appuie sur des standards. Ce nouveau protocole a été soumis à l’IETF. Cette annonce devrait contribuer à simplifier la gestion opérationnelle, à baisser les coûts et à accroitre l’agilité.

Les modèles SDN traditionnels d‘ aujourd’hui fonctionnent sur la base d‘un contrôleur centralisé et d’éléments réseau distribués qui supportent le plus petit dénominateur commun entre les différents fournisseurs (bridges, ports, tunnels). Lorsque le réseau doit accroitre ses capacités, le contrôleur peut devenir un goulet d’étranglement et commencer à impacter la performance et la latence. La performance n’est pas la seule conséquence de ce type d’approche, l’agilité peut être pénalisée elle aussi. En effet comme les besoins des applications, d‘exploitation et d‘infrastructure nécessitent d’être traduits en configuration réseau, on introduit des processus manuels qui imposent aux développeurs applicatifs de décrire leurs besoins à des niveaux très bas de l’infrastructure.

ACI : une approche déclarative

L’approche adoptée par le modèle ACI  et le controleur Application Policy Infrastructure Controller (APIC) est différente. C’est une approche de gestion déclarative. On crée un modèle d‘abstration entre application, infrastructure et exploitation qui va permettre la simplification et l’agilité que tout le monde attend. La résilience est prise en compte également, la perte du controleur n’empêchant pas la commutation ds données de continuer.

Ce modèle déclaratif doit pouvoir fonctionner dans un environnement multi fournisseurs afin de traduire et appliquer la définition des politiques dans l’infrastructure. A l’heure actuelle il n’existe aucun protocole standard pour réaliser cela sur l’ensemble des commutateurs physiques et virtuels, des routeurs et sur les services réseaux de es niveaux 4 à 7. C’est ce vide qui a conduit au développement de « OpFlex ».

Cisco a déjà prévu de supporter Opflex pour les produits à son catalogue suivants :

  • Cisco Nexus 1000V
  • Cisco ASR 9000 Series
  • Cisco Nexus 7000 Series
  • Cisco ASA
  • Cisco SourceFire

Cisco travaille également à la mise en œuvre d’un agent open source d’OpFlex  qui peut être embarqué dans des équipements qui supporte le protocole OpFlex. Cet agent sera conçu tout d’abord pour Open vSwitch.

 Quelles sont les sociétés qui contribuent à  OpFlex?

Différents acteurs de l’industrie  sont déjà activement impliqués dans ce processus de standardization. On trouve en plus de Cisco:  Microsoft, IBM, Citrix et SunGard Availability Services.

D’autres sociétés ont déjà annoncé leur volonté de supporter OpFlex avec leurs produits. C’est déjà le cas pour Microsoft, IBM, F5, Citrix, RedHat, Canonical, Embrane et AVI networks. D’autre ne tarderont pas à venir compléter cette liste.

Informations complémentaires

 A lire également  les blogs des partenaires

Raising the Bar in Open Source Capabilities: Cisco and Red Hat Tim Burke, vice president, Virtualization and Cloud Development, Red Hat

Microsoft and Cisco’s Application Centric Infrastructure, hello cloud! Satya Nadella, chief executive officer, Microsoft

F5 and Cisco: Operationalizing the Network Lori MacVittie, senior product manager, Emerging Technologies, F5 Networks

Great News for Networkers: Embrane’s 2014 Is Off to a Great Start! Dante Malagrinò, president & CEO at Embrane

Towards Standards-based Automation  Abhishek Chauhan, vice president and chief technology officer, Cloud Networking Product Group, Citrix

Cisco and Canonical: Application-Driven Cloud and Datacenter Collaboration John Zannos, vice president, Cloud Channels and Alliances, Canonical

 

Tags: APIC, application centric infrastructure, AVI networks, Canonical, citrix, Embrane, F5, IBM, ietf, Microsoft, OpFlex, SunGard Availability Services

Mots-clefs :, ,

Enodo utilise les technologies des jeux vidéo pour concevoir des villes durables

 

Les frontières entre applications grands publics et entreprises s’estompent de plus en  plus et ne se limitent pas aux seules applications de messageries instantanées ou vidéo-conférences.

L’urbanisation des villes commence à emprunter aux jeux vidéo leurs technologies et peut constituer un atout compétitif pour les entreprises

L’enjeu est donc économique pour la France puisque avec la marque Vivapolis, le gouvernement souhaite fédérer les entreprises françaises et les élus locaux pour conquérir les marchés du développement urbain, en pleine expansion dans les pays émergents.

Vivapolis acteurs

Le projet Astainable  préfigure certainement la manière dont seront conçues les villes dans un souci de développement durable.

Un simulateur de ville durable pour conquérir de nouveaux marchés.

Pour réaliser un « simulateur de ville durable » pour la ville d’Astana, capitale du Kazakhstan, le ministère français du Commerce extérieur et la DGT (Direction générale du Trésor) ont émis un appel à projets qui a été remporté en début d’année par  Eiffage (mandataire), Egis et GDF SUEZ.

Le nom Astainable tire ses racines du nom de la ville Astana et du mot « sustainable ».  Après avoir connu une augmentation de sa population de plus de 250 % en 14 ans, Astana se trouve en effet, comme de nombreuses autres mégapoles dans le monde, confrontée aux défis d’une urbanisation rapide : empreinte énergétique croissante, pollution atmosphérique, congestion importante des axes de circulation, besoin de services urbains et demande de qualité de vie.

Le simulateur de ville durable permettra de :

• diagnostiquer les besoins en développement urbain durable d’Astana dans les domaines des écomobilités, de la constitution d’un bouquet énergétique local, de la construction durable et de l’écosystème urbain (eau, déchets, restauration des milieux) .

• d’identifier et proposer en réponses les solutions techniques et technologiques françaises appropriées sur la ville durable ;

• de produire un démonstrateur 3D mettant en images toutes ces solutions.

Enodo : la conception d’univers virtuelsEnodo Nice

Pour répondre à cet appel  à projets le groupement s’est associé à différents partenaires dont la société Enodo spécialiste français de la conception d’univers virtuels immersifs. Enobo empreinte la technologie Cryengine au jeu vidéo grâce à un partenariat avec Crytek un des premiers spécialistes mondiaux des jeux vidéo. Pour ceux qui comme moi ont eu la chance de voir une démonstration le résultat est saisissant. Nous ne sommes plus simples spectateurs mais on vit une véritable expérience proche de la réalité.

Cette vidéo donne un aperçu de cette immersion virtuelle qui permet de s’approcher au plus près du de la réalité.

.                                            

En appliquant le principe des jeux vidéo à l’urbanisation on va  plus loin que  la « perspective de communication », on accède à un environnement proche de la réalité. On peut ainsi   faciliter la décision par une meilleure communication entre architecte et élus. On peut, grâce à un rendu proche du réel, anticiper les erreurs d’appréciations et faciliter la collaboration entre différents corps e métiers. Les citoyens peuvent s’emparer du projet  et mesurer l’impact sur le quotidien et sur la qualité de vie.

Après les jeux vidéo le cloud gaming

Aujourd’hui pour vivre ces expérience d’univers urbains virtuels il faut utiliser des postes de travail puissants mais très bientôt les technologies de « cloud gaming » donneront la possibilité d‘utiliser des postes de travail usuels voire des tablettes, les traitements s’effectuant dans le cloud.

Mots-clefs :, ,

Cisco annonce des architectures de références pour Cloudera Enterprise 5

Cloudera montre ses ambitions

La société Cloudera, une des grandes distributions d‘Hadoop, aura fait parlé d‘elle ces derniers temps.

Courant mars Cloudera lève 160 millions de dollards de fonds, un peu plus tard le même mois  Intel et Cloudera annoncent un investissement de 740 millions de dollars dans la société Cloudera et l’acquisition de 18% du capital. Intel préfère ainsi miser sur la version Hadoop de Cloudera que de poursuivre avec sa propre distribution. Cloudera développera une distribution Apache Hadoop (CDH) optimisée pour les  technologies Intel (en particulier pour les processeurs Xeon).

Et la semaine dernière nous avions le plaisir de voir Doug Cutting, qui est aujourd’hui chez Cloudera, au salon BigData au CNIT. Doug est une des personnes à l’origine  d‘Hadoop . Le petit éléphant est d’ailleurs un clin d’œil au petit éléphant en peluche de  son fils. Voir le billet sur les origines d‘hadoop sur ce blog.

Support de Cloudera Enterprise 5 par Cisco cloudera data hub

Cisco de son côté dispose d’une infrastructure adaptée aux problématiques du Big Data : Cisco UCS Common Platform Architecture (CPA) for Big Data . Le 2 avril Cisco a annoncé le support de Cloudera Enterprise 5 , une plateforme de gestion de données qui combine Apache Hadoop avec un certain nombre de projets open source tous intégrés dans une seule plateforme prête pour l’entreprise.

La solution commune est testée et certifiée par Cisco et Cloudera pour accélérer les déploiements d’Hadoop en entreprise en réduisant du même coup les risques et la complexité.

Cloudera Enterprise bâti autour de Hadoop  rend possible la constitution d’un hub de données pour les entreprises qui pourront garer les garder dans une plateforme unique et centralisée à partir de laquelle pourront être réalisées les opérations de stockage, de traitement et d’analyse.

Des architectures de références Cisco avec Cloudera

 cloudera connect

La solution Cisco/Clouera est disponible sous forme de deux architecture de référence Performance-Capacity Balanced et Capacity Capacity Optimized

Les informations détaillées sont disponibles dans la Big Data Design Zone  avec en particulier le Cisco Validated Design: Cisco UCS CPA for Big Data with Cloudera

 

Mots-clefs :, , ,

Derrière le Big Data, L’intelligence opérationnelle et la gouvernance des données avec Informatica.

Derrière le BigData se cachent beaucoup de solutions et de technologies. Durant le salon du Big Data au CNIT j’ai pu m’entretenir avec Xavier Chabannes de la société Informatica pour aller au-delà des « 3 V » du big Data.

L’intelligence Opérationnelle nécessite de gérer des flux en temps réelinformatica 1

La donnée, et principalement l’intégration des données, restent au centre du métier d’Informatica . Ce qui change c’est la nature des données et l’utilisation que l’on en fait. Aux données qui  alimentent un système décisionnel viennent s’ajouter des données dites opérationnelles. On utilisera alors des notions de « streaming analytique », d’ « intelligence opérationnelle » ou bien encore de « Complexe event processing » CEP . Des termes qui ont en commun le besoin de gérer des flux en temps réel afin de faire de la corrélation d’évènements.

Les entreprises auront de plus en plus de besoin de solutions assurant une collecte ultra-rapide de larges volumes de données à grande échelle pour leurs environnements LAN (Local Area Network) et WAN (Wide Area Network) avec pour finalité d’analyser en temps réel ces données pour en extraire des informations opérationnelles

Les solutions Informatica vont simplifier la collecte de données générées par les multiples capteurs issus de sources diverses et faciliter leur transmission vers Hadoop mais également vers d’autres environnements tels que : Cassandra, Informatica PowerCenter (la plate-forme d’intégration d’Informatica) ou Informatica CEP , la solution de gestion des événements complexes (CEP). Les univers du BigData et de l’Internet of Everytning IoE sont loins dêtre des domaines inépendants et ce serait une grave erreur de ne pas les intégrer dans une reflexion d’ensemble dans de nombreux cas.

La gouvernance des données: nouvel impératif

L’Intelligence opérationnelle impose de nouveaux impératifs concernant les données : la gouvernance des données. Alimenter un BigData avec des données dont la qualité est douteuse peut remettre en cause les résultats obtenus ou augmenter la charge de travail pour apporter de la qualité à la donnée.

Cette gouvernance de données repose sur de nombreuses actions telles que l’ Identification et le profilage des données , la traçabilité, la gestion des données de référence , la gestion des métadonnées et la gestion efficace des changements dans un environnement d’intégration de données.

Informatica MDM (Master Data Management) offre une solution permettant aux entreprises d’améliorer leur efficacité. Les utilisateurs métiers ont accès à des données stratégiques , fiables et consolidées ainsi qu’aux relation qui les lient. Le Master Data Management domaine prend en compte tous les besoins d’intégration de données , profiling, qualité, réconciliation d’identité et gestion de données de référence

Informatica, MapR et Cisco pour une solution d’entreprise

Les solutions d’informatica pourront s’appuyer sur un socle Hadoop qui assurera l’entrepôt et le traitement des données. Ces approches donnent lieu à des partenariats entre des entreprises telles qu’Informatica, Cisco et MapR pour offrir des solutions assurant le traitement de données avec la disponibilité et la performance attendues par les entreprises. Lire le White paper  réalisé par ces trois sociétés Maximizing Big Data Benefits with MapR and Informatica on Cisco Unified Computing System

Interfacer SAP avec les applications metiers

Dans un contexte ou l’ERP SAP constitue le coeur du système d’information on pouura envisager une solution comme PowerExchange SAP pour d’interfacer facilement SAP avec d’autres applications métiers. Les données sont copiées facilement et les durées d’analyses d’impacts sont réduites de manière significative.

 

 

Mots-clefs :, , ,

L’architecture Cisco SAP HANA Scale-Out est reconnue par le marché

Je vous ai déjà parlé à plusieurs reprises (ici, et ) de l’architecture définie par Cisco pour mettre en œuvre la technologie SAP HANA Scale-out.  L’excellence de cette architecture a été récemment confirmée de plusieurs manières:

cliquer pour consulter

cliquer pour consulter

1. Le groupe IDC a publié un white paper « Considering Cisco UCS as a preferred platform for SAP HANA « .  Ce document présente d’abord les exigences élevées que la technologie HANA nécessite sur les infrastructures « Compute » et réseau dans le DataCenter. Ensuite il explique comment les caractéristiques de Cisco UCS et des infrastructures convergées Cisco répondent particulièrement bien à ces exigences, aussi bien pour le mode de déploiement HANA de type Appliance ou de type Tailored Data Center Integration (TDI).

Cliquer pour agrandir

Cliquer pour agrandir

2. Sur le marché des offres HANA hébergées, ou HANA on the Cloud, plusieurs offres actuellement ou prochainement disponibles sont basées sur l’architecture  des appliances Cisco Scale-out, utilisée en mode TDI. Les instances HANA de chaque client cohabitent sur une même infrastructure UCS, Nexus et stockage partagée, tout en étant totalement étanches et sécurisées. Cela est possible grâce aux fonctions natives de segmentation des ports et des flux dans les technologies UCS, Nexus et chez EMC ou NetApp.  Il est également possible d’héberger dans la même infrastructure les applications SAP autre que HANA, simplement en rajoutant des serveurs lames UCS et du stockage.

Par exemple, dans cette video, Virtustream  explique comment toute son offre Cloud est basée sur les technologies Cisco UCS et Nexus.

3. Pour un client du secteur bancaire, SAP vient de terminer les tests et la certification d’une appliance Cisco de 20 Terabytes, soit 40 serveurs UCS B440M2 de 512GB et 4 systèmes de stockage EMC VNX8000. Cette appliance apparaitra prochainement dans la Product Availability Matrix de SAP.

Cliquer pour visionner

Cliquer pour visionner

4. Mi-2013 déjà, une des premières grosses appliances Cisco HANA Scale-out a été mise en production par eBay pour détecter en temps réels des signaux atypiques sur les transactions eBay (voir cette vidéo du  CFO d’eBay).  Cette appliance Cisco+NetApp a été démarrée avec moins de 10 serveurs UCS B440, et a rapidement été agrandie à plus de 30 serveurs sans interruption de la base HANA. Cette solution est également rendue hautement disponible par une réplication entre deux sites. Plus récemment, Cisco and eBay ont témoigné conjointement à ce sujet lors du lancement du processeur Intel Xeon E7.

Ces différents exemples prouvent à quel point les caractéristiques fondamentales de l’architecture Cisco HANA Scale-out sont pertinents, autant sur le plan technologique que économique.

Mots-clefs :, ,

Galileo d’Intel: L’internet de l’objet s’invite au salon BigData à Paris

Le salon du BigData qui se tenait cette semaine au CNIT à Paris La Defense regroupait beaucoup d’acteurs très complémentaires.

A noter que les grandes distributions Hadoop s’installent en France, après MapR c’est au tour de  Cloudera et Hortonworks de recruter des équipes en  France. Signe que les projets BigData sont appelés à prendre de l’ampleur dans notre pays.ED Stan Intel

Intel était également présent sur ce salon à double titre. Récemment Intel a annoncé un investissement dans  Cloudera mais c’est également sur l’internet de l’objet qu’Intel se positionnait sur le salon. Les objets internet de toutes natures seront les nouvelles sources de données que le BigData devra prendre en compte.

Sur le salon j’ai eu l’occasion de discuter avec Stanislas Odinot d’Intel qui m’a montré Galileo, cette carte de développement dont la disponibilité a été annoncée en mars dernier. Une carte équipée des processeurs Intel Quark avec de la mémoire et Linux installé sur une mini carte SD.Ces différents connecteurs lui permettent d’être reliée au réseau ou à un ordinateur.

La carte Galileo cible les développeurs qui pourront  utiliser différents langages de programmation dont « Haruino » recommandé par l’organisation open source.  Gallileo permet d’imaginer de nombreuses applications pour exploiter des objets et des capteurs  de toutes natures ou des actuators (composants qui vont déclencher une action comme tourner un robinet ou plus généralement déclencher une action ou un processus). Un kit de développement pour l’internet de l’objet est disponible .Galileo module 1

Le réseau pourra jouer le rôle de source d’informations et celui de véhicule de l’information. On peut alors imaginer une organisation de type fog computing avec un ensemble de  cartes Galileo qui chacune collecte, traite et stocke de l’information provenant d’un groupe de capteurs répartis sur une zone.  Le résultat du traitement par une carte Galileo , selon l’application, pourra ensuite être redirigé vers un cloud ou sur une plateforme de BigData

La technologie est également déclinée dans la version Edison, une version SOC (System on Chips) qui trouvera son utilisation dans le « wearable », cette nouvelle tendance consistant à ’équiper  de technologies communicantes des vêtements ou des objets que nous portons sur nous.

 

Mots-clefs :, , , , , ,

MapR et Cisco faces à l’enjeu du BigData : répondre aux exigences de l’Entreprise

Optimiser les performances et l’évolutivité du Big Data avec MapR et les serveurs Cisco UCS

Généralement la première étape d‘un projet Big Data consiste à déterminer les cas d‘utilisation et à en valider les principes et les fonctionnalités sur une plateforme de tests Apache Hadoop relativement basique.

Si le choix de cet environnement de test n’est pas critique, il en va tout autrement quand il va s’agir de bâtir et de déployer une infrastructure Hadoop destinée à la production. Nous sommes alors dans le cadre d’applications sensibles qui requerront performance, disponibilité et scalabilité. Fournir des résultats en temps réel ou quasi réel exigera une faible latence. Cette faible latence est également un facteur clé qui influence le choix d‘une distribution Hadoop.

Performance  et disponibilité

Pour réaliser les principales opérations (ingest, traitement et analyse des informations) la performance d’une plate-forme Hadoop est critique. Les différentes distributions d’Hadoop se distinguent par leurs choix d’architectures pour répondre aux enjeux de performances et d’évolutivité.

MapR met délibérément en avant son objectif de fournir des solutions d’entreprise particulièrement avec MapR M7 , l’architecture est optimisée pour des déploiements qui comptent sur un fort débit et une haute disponibilité sans administration supplémentaire.

MAPR for Enterprise

La distribution Hadoop MapR a par exemple fait des choix d’architecture pour exploiter les metadata distribuées avec une performance constante.

Le document « NOSQL PERFORMANCE REPORT MAPR M7 – PERFORMANCE COMPARISON » montre un certain nombre de tests de performance MAPR low latencyentre MapR M7 edition et d’autres distributions. Le graphe portant sur la latence est particulièrement révélateur.

En combinant la distribution MapR M7 et les serveurs UCS on obtient une solution conçue, testée et validée pour exploiter des charges applicatives les plus exigeantes. MapR est également intégré avec Cisco® Tidal Enterprise Scheduler (Cisco TES) pour faciliter le travail des administrateurs en automatisant le load balancing, l’échange de données et la planification d’événement sur MapR.

.

Scalabilité

La nature même du BigData repose sur l’expansion du volume de données. Hadoop s’y prête particulièrement bien avec sa capacité d’extension du nombre de nœuds, de tables etc…La distribution MapR est là encore optimisée pour la scalabilité.

MapR M7 supporte des fichiers avec des millions de colonnes sur des milliards de de lignes (comme Apache HBase) et peut évoluer quasiment sans limite.

Cisco UCS Common Platform Architecture pour BigData

La solution Cisco UCS pour MapR repose sur l’architecture Cisco® UCS Common Platform Architecture (CPA)pour  Big Data (Cisco Validated Design). La plate-forme Cisco UCS CPA est une architecture conçue pour évoluer facilement pour s’adapter aux besoins des applications dites “scale out” (architecture évoluant par ajout de modules identiques). L’architecture UCS CPA avec MapR peut être dimensionnée pour fournir des performances avancées qui permettent à Hadoop d’évoluer au rythme des applications.

Mots-clefs :, ,

Le BigData rentre dans l’ère industrielle avec la création de l’Industrial Internet Consortium IIC par ATT&T, Cisco, GE ,IBM et Intel.

On en finit pas de parler de la richesse détenue dans les données  de l’entreprise. Créer de nouveaux services, prendre des décisions plus pertinentes et plus rapidement. Nous n’en sommes qu’aux prémices des cas d‘usages qui se déclinent par industries. La déferlante des objets connectés va encore amplifier le phénomène.

Il y a donc urgence à se mettre en ordre de marche. L’époque où l’on se contentait d’extraire les informations d’une base de données pour les transférer dans un entrepôt de données pour y être exploitées semble bientôt révolue. En plus des données structurées on doit collecter des données provenant d’objets intelligents les plus divers et se nichant dans des endroits variés et souvent mobiles.

Beaucoup de technologies logicielles telles que Hadoop proviennent de grands acteurs du Web, tels que Yahoo et Google, qui disposent de moyens et de compétences considérables pour concevoir,  mettre en place et maintenir des solutions complexes. Des moyens qui ne sont en général pas accessibles à la majorité des entreprises qui recherchent des solutions « industrielles » .

La nouvelle vague du BigData va intégrer l’Internet of Everything  en interconnectant objets, équipements, processus et personnes pour collecter et traiter toutes les données créées.

Mettre en place les solutions pour supporter ces BigData vont donc faire appel à de nombreux acteurs jouant dans des registres extrêmement  différents tant en termes de logiciels que d’infrastructures et d’équipements d’extrémité.

Il y avait donc urgence à travailler sur des standards pour faciliter l’interopérabilité et l’intégration d’un monde physique et d’un monde digital.

ATT&T, Cisco, GE, IBM et Intel créent l’Industrial Internet Consortium

C’est sans doute ce qui a conduit à la création de 27 mars 2014 de Industrial Internet ConsortiumTM (IIC) par AT&T, Cisco, GE, IBM et Intel. lire le communiqué de presse:   »AT&T, Cisco, GE, IBM, and Intel Form Industrial Internet Consortium to Improve Integration of the Physical and Digital Worlds »

Ce groupe ouvert à d‘autres membres entend supprimer les barrières technologiques au sein du vaste écosystème mêlant BigData et internet de l’objet.

.
.                                                 
.
L’objectif est de rendre plus facile l’exploitation de toutes ces nouvelles données par les entreprises.

Ce consortium travaillera sur les cas d’utilisation, les problèmes de sécurité et œuvrera pour des standards globaux. La communication et le partage d’expériences entre tous les acteurs du domaine seront amplifiés au travers de forums ouverts.

IIC est ouvert à toutes les organisations qui sont intéressées à accélérer l’internet industriel. Ce consortium sera géré par l’Object Management Group (OMC) une organisation à but non lucratif.

Mots-clefs :, ,

Des applications plus agiles en utilisant DevOps et ACI avec CA technologies et Cisco

Les directions informatiques sont tiraillées entre des objectifs qui peuvent paraitre contradictoires. Rationaliser l’exploitation des applications et innover avec de nouveaux développements. Un exercice difficile qui les amène à s’intéresser de plus en plus souvent à l’approche DevOps.

Afin de faciliter les relations entre les études et l’exploitation, la démarche DevOps regroupe un ensemble de bonnes pratiques. Par cette approche on cherche à accélérer la mise en service d’une application  avec une qualité et une fiabilité améliorées.

On sait par ailleurs que la mise en œuvre d’applications est encore  bien souvent freinée par le manque d’agilité des infrastructures. De nombreuses annonces et communications sont faites sur ce sujet et l’annonce d’Application Centric Infrastructure ACI par Cisco s’inscrit dans cette démarche.

La gestion du cycle de vie de l’application devient aussi critique que le temps de mise en œuvre de l’application.

Le problème ne se limite pas seulement à la mise en œuvre de l’infrastructure mais également à la fréquence de modifications des applications. Là où les changements s’effectuaient tous les 18 mois, la prise ne compte de modification devient quotidienne lorsque ce n’est pas plusieurs fois par jours pour certains secteurs d’activité. On parle à  présent de fourniture d’application en continu.

DevOps cycle

Parmi les différents facteurs qui nécessitent cette fourniture en continu on trouve bien sur les applications pour mobiles, l’évolution du cloud, le bigdata. Dans chacun de ces cas des modifications de codes peuvent survenir fréquemment.

La démarche DevOps va permettre aux équipes de développement, d’assurance qualité et d’exploitation de collaborer pour rendre le déploiement d’applications plus agile.

CA Technologie capitalise sur Cisco ACI pour pour  DevOps

CA Tech logoPour les équipes DevOps, ACI va fusionner les différentes tâches requérant de multiples compétences dans un modèle unique de politiques orientées sur l’application. Le déploiement de l’application en est accéléré.

Pendant la phase de planification il est possible d’éviter de lourdes tâches de descriptions de centaines de connexions et de configurations en écrivant simplement les besoins de l’application. Il est possible pendant le provisionnement, le test et la certification de configurer des certaines ‘équipements en un seul clic. En exploitation on peut contrôler la conformité et avoir la visibilité sur la localisation des charges applicatives

Des APIs facilitent également l’intégration avec des outils de configuration et de conformité, de gestion des erreurs, d’orchestration et d’automatisation, de gestion d’identité et de service de gestion de tickets.

CA Technologie ACI

En associant des outils tels que CA LISA Release Automation et CA LISA Service Virtualization avec ACI  on obtient une solution innovante tout à fait adaptée à une infrastructure dans le cadre d’une démarche DevOps avec prise en compte de l’automatisation du cycle de vie de l’application.

 

Pour en savoir plus je vous conseille la lecture du billet « Enterprise DevOps and Cisco Application Centric Infrastructure – a Match Made in Heaven? » Sur le blog CA Technologies

 

Mots-clefs :, ,

Après 5 ans, les serveurs UCS représentent bien plus qu’une alternative aux architectures propriétaires

La standardisation est un processus normal pour rationaliser les coûts, les processus d’achat et les modèles opérationnels.

Mais la standardisation ne doit imposer ni nivellement par le bas en termes de caractéristiques ni complexité accrue en termes d’architecture, de déploiement et de gestion opérationnelle.

L’évolution des infrastructures de traitement dans les DataCenters ont conduit pendant un temps relativement long à la cohabitation de différentes architectures. Pour des raisons historiques, des adhérences applicatives ou pour des exigences spécifiques de performances et de disponibilité les traitements informatiques se sont répartis sur des mainframes, des architectures RISC ou SPARC et des architectures X86.

Aujourd’hui par défaut les architectures X86 doivent être considérées :

  • pour toute nouvelle application
  • lors du changement de version d’application, type SAP, qui nécessitera à cette occasion l’utilisation de serveurs plus puissants

De fait la production en volume de processeurs X86 permet des réductions de coûts importants.

Si on regarde ce qui s’est passé avec Intel, non seulement les performances croissent régulièrement mais la disponibilité atteint des taux records sur les tous derniers Xeon E7 v2.

Performances et disponibilité n’ont plus rien à envier aux meilleurs mainframes ou Risc avec en prime des coûts incomparables.

Pour s’en convaincre il suffit de constater que SAP, pour  sa solution SAP HANA de traitement en mémoire, impose des processeurs Intel Xeon E7. Quand on sait l’importance stratégique que représente SAP HANA , on imagine bien que le choix n’est pas fait au hasard.

Si l’on en croit le Gartner 65% des applications qui s’exécutaient en environnement UNIX en 2012 seront migrées sur de serveurs X86 en 2017.

La performance est-elle un risque ?

Dans la majorité des cas la puissance des processeurs Xeon répond aux exigences applicatives. Le problème vient plutôt du décalage entre la puissance disponible et le débit des baies de stockage.  Pour les applications particulièrement gourmandes en entrées sorties, les mémoires flash sont là pour accélérer les performances applicatives que ce soit sous forme de cartes dans les serveurs ou de baies flashes externes.

Retrouver l’industrialisation du mainframe avec des serveurs Cisco UCS

Les premiers pas dans le monde distribué se sont accompagnés de plus de complexité tout naturellement. On a assisté à la naissance d‘architectures dites accidentelles dont l’évolution s’accompagnait de plus de composants, de plus de câblage et de plus d’administration.

En prenant en compte ces contraintes , Cisco annonçait il y a tout juste 5 ans l’Unified Computing System UCS . L’objectif était de concevoir une nouvelle forme d’architecture  pour répondre au besoin de rationalisation des datacenters d’aujourd’hui et de demain.

Petit retour en video sur ces 5 ans d’innovations

La priorité a été portée sur la réduction des coûts opérationnels et la simplification de la gestion opérationnelle.

Avec les serveurs Cisco UCS  on bénéficie ainsi de tous les atouts des gammes Xeon d’Intel en termes de performances et de disponibilité. 90 records de performances ont d’ailleurs été atteints par les serveurs UCS.   Mais la véritable différentiation qui permet de parler d’industrialisation concerne :UCS 5 years

  • L’industrialisation de la gestion des configurations, des changements, des évolutions grâce à l’utilisation des services profiles
  • La simplification opérationnelle  avec un point unique d’administration quel que soit le nombre de serveurs.
  • Une simplicité d’intégration dans tout type d’environnement grâce à une API XML
  • Une simplicité de câblage avec le câblage unifié qui véhicule les flux  LAN,SAN et d’administration

Autant de raisons qui expliquent le succès des serveurs UCS qui fêtent ce mois-ci leurs 5 ans.

Mots-clefs :, , , , ,

L’interconnexion des clouds au Cœur de la stratégie Cisco

Fini l’époque des silos technologiques, si le Cloud est en train de transformer les modèles de consommation de l’IT, il devrait devenir également le vecteur incontournable pour la mise en œuvre des nouvelles technologies telles que l’internet des objets ou plus globalement l’internet of everything.

Le Cloud Hybride et l’Internet of Everything IoE au cœur de la transformation

Impossible dorénavant d’envisager le développement de nouveaux services, de nouvelles solutions, de nouvelles offres commerciales ou de nouveaux processus industriels sans inclure le cloud dans la reflexion et plus précisément le « cloud hybride ». Un cloud sans frontière qui s’enrichit des fonctionnalités et des ressources de multiple clouds..

Face à ces évolutions, les clients et les partenaires demandent à Cisco de s’impliquer encore d’avantage. Cisco perçoit dans cette demande une opportunité d’offrir au marché beaucoup plus qu’aucun fournisseur de Cloud ne peut le faire aujourd’hui.

Cisco Global Intercloud: Un milliard de dollars investi sur deux ans

C’est dans ce cadre que s’inscrit l’annonce  du Cisco Global Intercloud ce 24 mars à l’occasion du Partner Summit à Las Vegas. Elle suit logiquement les annonces précédentes qui avaient posé les principes d’architectures  (voir le billet Cisco InterCloud : envisager le cloud hybride sereinement)pour faciliter l’interconnexion des clouds d ’un point de vue technique.

Intercloud Las Vegas

On passe à présent à l’étape supérieure, celle de la réalisation à l’échelle mondiale. L’ambition est clairement affichée, construire un réseau de clouds avec les partenaires : le plus important Intercloud au monde. Pour y arriver pas moins d’1 milliard de dollars y seront consacrés sur deux ans.

Hébergé par un réseau global de DataCenters de Cisco et de ses partenaires, l’Intercloud global de Cisco offrira une large suite d‘applications à valeur ajoutée et des services réseaux dans le Cloud qui contribueront à accélérer l’Internet of Everything IoE.Global ntercloud

Là encore, de la même manière que le cloud modifie le modèle économique et opérationnel des entreprises, l’IoE représente un formidable potentiel pour les entreprises. Un potentiel qui peut se transformer en risque car les avantages commerciaux traditionnels disparaissent rapidement comme je l’avais signalé dans un précédent billet .

L’Internet of Everything IoE va bien au-delà de l’objet connecté (Internet of things). On entend par IoE la connexion en réseau de personnes, de données, de processus et d’objets.

On estime à 19 billions de dollars ce marché sur la prochaine décennie. Ce mouvement vers l’IoE, qui impose de nouvelles contraintes pour des clouds distribués et hautement sécurisés, mobilise Cisco et ses partenaires pour initialiser de nouveaux développements autour de l’Intercloud afin d’offrir  des services dans le cloud de mobilité, de collaboration et de video.

Un Intercloud résolument ouvert

Ce Cloud sera un Cloud totalement ouvert. L’Intercloud Cisco sera conçu autour des technologies Cisco et utilisera OpenStack pour l’ouverture qu’il offre . L’objectif est de supporter tous types d’applications et d’hyperviseurs et d‘intéropérer avec n’importe quel Cloud.

Pour accentuer l’agilité requise par le Cloud, la part belle sera faite à l’Application Centric Infrastructure ACI pour optimiser les performances des applications et accélérer la mise en œuvre de nouveaux services.

Le programme « Cisco Powered » va être étendu pour inclure de nouveaux services Cloud. Une large gamme de services est prévue. Cela couvre aussi bien des offres d‘IaaS, de SAP HANA, de gestion d’infrastructure, de collaboration, de gestion de conformité, de sécurité ou bien encore de gestion d’énergie pour n’en citer que quelques-uns. Je renvoie à l’annonce pour la liste exhaustive.

Lire également le billet de notre Vice President Rob Lloyd « Introducing Cisco’s Global Intercloud »

Mots-clefs :, ,