Cisco France Blog – Data Center

Un Cloud Hybride ? D’ici 2020 la question ne se posera plus

Avec le raz de marée numérique annoncé, toutes les entreprises vont devoir être capables de s’adapter rapidement. Le développement des solutions Big Data et l’utilisation grandissante d’objets connectés vont nécessiter de plus en plus de ressources informatiques. Les entreprises devront donc disposer de ressources alignées avec leur activité que ce soit de manière ponctuelle ou durable. Cela plaide pour cette notion de Cloud Hybride dont tous les analystes prévoient une adoption généralisée d’ici 2020.

Derrière les promesses alléchantes du cloud hybride.

Il est important d’identifier les contraintes et d’y répondre. La combinaison cloud privé – cloud public ouvre des perspectives quasiment illimitées tant en termes de ressources disponibles qu’en termes de mise à disposition rapide. Si il est simple dans un environnement privé bien maitrisé de définir des politiques pour la sécurité, les firewalls et toutes les fonctions nécessaires à la bonne exécution d’une application, il est moins trivial de garantir le maintien et la cohérence de ces politiques dans un environnement de cloud hybride. La mobilité des applications et des machines virtuelles dans un tel environnement met également en exergue le besoin de connectivité réseau hautement sécurisée. Les multiples environnements qui constituent un cloud hybride seront souvent hétérogènes (avec par exemple  différents hyperviseurs).

Faciliter l’adoption du Cloud Hybride et respecter les exigences applicatives : Intercloud Fabric

Pour faciliter l’adoption de ce Cloud Hybrid tout en respectant les exigences applicatives et les impératifs des entreprises, Cisco a développé la solution Intercloud Fabric. C’est une solution logicielle qui donne la possibilité à un client de gérer et d’accéder à ses applications dans un ensemble de multiples cloud publics hétérogènes. Le client a ainsi la possibilité de placer la charge applicative là ou ce sera le plus approprié en tenant compte de critères techniques, financiers ou business.

Intercloud fabric Sol V2

On pourra ainsi choisir quel réseau doit être étendu à un cloud public. Les politiques de sécurité seront prolongées dans le cloud public au-delà d’un tunnel sécurisé entre cloud privé et cloud public jusqu’à la machine virtuel. La communication entre machines virtuelles sera ainsi elle aussi sécurisée

Deux déclinaisons d’Intercloud Fabric : Entreprises et Fournisseurs de services

Intercloud Fabric 2 sol

  – Cisco Intercloud Fabric for Business cible des entreprises qui souhaitent pouvoir étendre de manière transparente leur cloud privé à un cloud public en gardant le même niveau de sécurité et les mêmes politiques. Cette solution comprend 2 composants. Cisco Intercloud Fabric Director (IFCD) offre un catalogue de services, avec un portail unique en self-service, qui combine les services des différents clouds. Intercloud Fabric Secure Extender crée une connectivité hautement sécurisée sur plusieurs clouds et maintien les politiques réseaux et sécurité associées à une application.

  – Cisco Intercloud Fabric for Providers . Ce produit s’adresse à des fournisseurs de clouds qui veulent offrir un modèle de déploiement de cloud hybride et devenir partie intégrante de l’écosystème Intercloud Fabric. Cette solution se présente sous la forme d’une appliance déployée par le fournisseur de services et gérée par lui.

On peut dès à présent envisager l’évolution vers le cloud hybride avec plus de sérénité Cela ne dispense pas pour autant de choisir avec précaution son fournisseur de cloud parmi les multiples offres disponibles.

A lire également Cisco Intercloud Fabric: Hybrid Cloud with Choice, Consistency, Control and Compliance

 

Mots-clefs :,

Airbus Defence and Space devient intégrateur Cisco

Les innovations technologiques et leurs utilisations généralisées dans tous les secteurs amènent les constructeurs à nouer de nouvelles formes de partenariats comme en témoigne l’accord signé le 6 mai 2015 entre Cisco et la division du Groupe Airbus.

satellite

Deux constructeurs très différents posent les bases d’un partenariat gagnant.

Airbus s’est construit une renommée mondiale. Avec une expertise unique dans les lanceurs commerciaux, les satellites et les systèmes Airbus defenceorbitaux, Airbus Defence and Space travaille avec de grandes institutions civiles et militaires comme l’agence européenne de l’espace (ESA). Dans le domaine des systèmes de communication terrestre et satellitaires et de la sécurité, Airbus Defence and Space propose des solutions innovantes aux gouvernements, départements de défense, agences de de sécurité et organisations publiques. Cette division d’Airbus fournit également des équipements de haute performance pour les marchés de la défense et de la sécurité tels que des systèmes radars et d’identification Friend or FoE (IFF) pour n’en citer que quelques-uns.

Ces secteurs de haute technologie doivent évoluer sans cesse pour répondre aux besoins croissants de communication de notre monde moderne et rechercher des solutions efficaces contre des menaces de plus en plus sophistiquées.

Si les offres de Cisco et d’Airbus Defence and Space sont clairement très différentes elles partagent par contre les mêmes centres d’intérêt que sont les communications et la sécurité. Le partenariat entre ces deux sociétés, toutes deux de forte culture technologique, peut donc faire jouer à plein leurs complémentarités.

 Combiner l’expertise de l’industrie de la défense et de l’espace avec les compétences IT

Technologies informatiques et technologies industrielles se marient désormais régulièrement estompant par la même occasion les frontières entre directions métiers et directions informatiques. L’accord global signé entre Airbus et Cisco en est un bon exemple et est symptomatique de la transformation numérique à laquelle nous assistons. A elles deux ces sociétés comptent créer des systèmes et des produits innovants dans de nombreux domaines tels que : software-defined networking, cyber sécurité, mobilité, cloud, data intelligence et internet de l’objet (IoT). L’accord ne porte pas unique sur les aspects technologiques mais comprend également des formations techniques et commerciales, des activités marketing conjointes, des solutions communes et le développement de services.

 Airbus Defence and Space devient un intégrateur Global des technologies Cisco

Cisco va fournir,dans le cadre de cet accord, l’expertise de ses équipes en matière de conception et de développement de réseau ainsi que ses équipements d’infrastructure et de réseau. Les équipes d’ingénierie et de vente de la division d’Airbus auront accès aux programmes de formation Cisco. Airbus Defence and Space devient un intégrateur Global de Cisco qui pourra intégrer les technologies Cisco dans ses propres systèmes. Wendy Mars, VP Enterprise Business Group, Cisco EMEAR. A précisé que « la diversité des talents et des technologies des deux entreprises leur permettront de mieux adresser les opportunités existantes et de créer des solutions transformationnelles pour offrir un avantage concurrentiel dans les domaines de la défense, de la cyber sécurité et des communications satellitaires. »

lire le communiqué de presse

Intégration de Cisco ACI avec FirePower: Une protection automatisée en temps réel des datacenter .

Disponible en juin 2015, cette solution de sécurité intégrée avec ACI va permettre aux Datacenter de se défendre de manière automatisée contre des menaces de plus en plus sophistiquées. Le Payment Card Industry PCI est également pris en compte par ACI.

L’intégration complète l’ouverture d’ACI aux acteurs de la sécurité

La sécurité est une préoccupation grandissante pour toutes les organisations. C’est une constante qui doit être intégrée dans toute approche architecturale d’un système informatique. Tout ce qui vise à automatiser les processus renforce encore cette contrainte. Rien d’étonnant donc à ce que Cisco ait annoncé le 29 avril 2015 une totale integration de FirePOWER Next Generation Intrusion Prevention System (NGIPS) avec Application Centric Infrastructure (ACI). On obtient ainsi une protection automatisée (jusqu’au niveau de la sécurité applicative) contre les menaces qui s’attaquent aux data centers. Cette integration ne remet pas pour autant en cause les investissements des clients dans le domaine de la sécurité puisque Cico ACI supporte également un large écosystème d’acteurs de la sécurité : Check Point Software Technologies, Fortinet, Infoblox, Intel Security, Radware, and Symantec.

Une sécurité automatisée et continue

Les équipements de sécurité Cisco FirePOWER sont disponibles sous la forme d’équipements physiques ou sous la forme d’appliances virtuelles. L’integration avec ACI comprend également le produit Advanced Malware Protection et permet d’avoir une approche globale et continue de la sécurité .En termes plus simples cela signifie que la protection est assurée avant, pendant et après l’attaque. Les organisations concernées peuvent ainsi agir dynamiquement sur des menaces sophistiquées en prenant en compte de manière continue toutes les phases de la menace.

Cette petite video permet de comprendre avec une petite animation l’intérêt de cette integration

Cette solution intégrée de sécurité avec ACI sécurité sera disponible en juin 2015

ACI validé avec le Payment Card Industry Data Security Standard (PCI DSS)

Chaque fois qu’un client utilise sa carte de crédit pour faire un achat, il doit faire confiance à l’entreprise à qui il achète pour que ses données restent confidentielles. On sait pourtant qu’il existe des failles de sécurité c’est pourquoi la conformité avec la réglementation est aussi importante. Cisco a donc annoncé que ACI a été validé par des auditeurs indépendant pour le déploiement dans des réseaux en conformité avec le PCI.

Cisco explique le SDN dans « Software Defined Networking for dummies »

Cisco fait un effort de pédagogie avec « SDN for dummies ». Une approche nouvelle pour Cisco qui cherche ainsi à rendre accessible de nouveaux concepts au plus grand nombre.

Tout nouveau concept amène un peu de confusion et nécessite un effort pédagogique pour en faciliter sa compréhension. Malheureusement dans les premiers temps le manque de définition claire et commune et l’abus d’acronymes engendrent l’incompréhension et les mauvaises interprétations.

SDN dummies 2 points

Nous l’avons connu avec l’arrivée des concepts de Cloud et de Big Data, les nouveaux concepts pêchent par leur complexité. C’est aussi le cas pour le Software Defined Networking SDN. Une approche en rupture avec la gestion traditionnelle d’un réseau peut inquiéter ceux qui en ont fait leur métier et accumulé des connaissances précises dans le domaine. C’est vrai pour les utilisateurs mais également pour les fournisseurs. Bien maitriser les concepts apaise souvent les inquiétudes et facilite l’adoption des nouvelles technologies qui les mettent en œuvre.

Expliquer un sujet en termes simples pour que tout le monde puisse comprendre. Je salue l’initiative de Gary Kinghorn qui est l’origine d’un « Software Defined Networking for dummies », une collection désormais célèbre dont l’objectif est clairement affiché dans le titre .SDN for dummies couverture

Du concept aux cas d’usages tout est expliqué. On part des principes du SDN pour ensuite détailler l’approche du SDN par Cisco c’est-à-dire ACI (Application Centric Infrastructure).

  • Intoduction
  • Introduction Software Defined Netorking
  • Looking at the benfits and use cases of SDN
  • Understanding the Technology
  • Key SDN considerations and requirements
  • Ten important facts about evaluating SDN solutions
  • SDN Acronyms

Cisco qui est réputée pour être une société technologique dont les présentations ne sont pas toujours accessibles à un public non averti, a fait avec cet ouvrage un appréciable travail pédagogique.

Clients, partenaires, sans oublier les employés de Cisco, trouveront dans ce document un bon point de départ pour appréhender l’approche SDN de Cisco avec des définitions claires qui seront utiles pour ceux qui veulent par la suite approfondir le sujet en lisant des documents plus techniques.

J’en profite pour signaler que Cisco ACI vient d’être récompensé à Interop 2015 à Las Vegas en gagnant dans la catégorie SDN.

ACI interop

Mots-clefs :,

Radware et Cisco ACI automatisent la mise en place de services applicatifs

Avec les menaces croissantes de sécurité , il est impératif d’assurer des services de sécurité au niveau applicatif et de pouvoir les maintenir lors d’évolutions d’infrastructure. Cela passe par des processus d’automatisation. L’intégration des offres Radware avec Cisco ACI permet cette automatisation.

Durant des années fournir des services applicatifs et de sécurité nécessitait de mettre en place des solutions aux différents niveaux de l’architecture. Le réseau fournissait la connectivité de base et les niveaux 4 à 7 étaient configurés manuellement pour chaque application. Bien que la virtualisation soit passée par là en permettant d’automatiser l’étape de configuration, il n’en demeure pas moins que chaque changement d’infrastructure nécessite des interventions de re câblage, de reconfiguration des nœuds réseau et des tests pour vérifier l’intégrité de bout en bout.

Un « Device Package » développé par Radware pour s’intégrer avec ACI

Radware logoL’approche ACI (Application Centric Infrastructure) de Cisco donne une vision complète de l’architecture vue de l’application et fournit une automatisation centralisée econformité avec des politiques prédéfinies. Dès sa conception ACI (Application Centric Infrastructure) s’est voulu ouverte et peut ainsi s’enrichir de fonctionnalités complémentaires apportées par des spécialistes de différents domaines. C’est le cas avec le travail d’intégration réalisé par Radware. Cette société bien connue pour ses offres ADC (Application Delivering Services) a réalisé l’intégration de ses produits Alteon et DefensePro avec Cisco ACI fabric. Cela permet ainsi l’automatisation des services applicatifs et de sécurité. Radware a dévoppé un ‘Device Packages’ pour Cisco ACI pour insérer des services d’ADC et de protection DoS par application et par tenant réseau. De son côté le contrôleur Cisco APIC automatise le process d’insertion de services en agissant comme un point central du contrôle des politiques..

Radware alteon ACI

Maintenir ses SLA en toutes circonstances

Cisco ACI automatise l’infrastructure du Dataceter et le rend dynamique, il peut ainsi fournir des services applicatifs en continu sans impacter le SLA (service level agreement) d’une application. Les applications peuvent être déplacées et leurs infrastructures peuvent évoluer pour prendre en considération des évolutions de charges tout en maintenant les services de sécurité et de niveaux 4 à 7 sans contrainte spécifique de lieu. Les process d’automatisation permis par l’intégration Radware ACI suppriment les erreurs lors de déploiement s’appuyant sur des cas d’usage validées par Radware.

L’exemple d’un service profil pour une application Web

En utilisant le contrôleur Cisco APIC, l’utilisateur peut automatiser la création et le provisionnement du profil d’une application Web. Le contrôleur APIC offre une interface de type « drag and drop » qui simplifie l’insertion, dans un profil d’application Web, d’un firewall, d’un load balancer ou d’autres services réseau L4-L7. Ce profil en retour va créer un service graph dans lequel les services deviennent partis intégrants de l’application web du tenant et peut devenir opérationnel grâce à l’APIC en quelques minutes.

lire également : RADWARE AND CISCO: ENABLING APPLICATION DELIVERY & SLA ASSURANCE IN THE APPLICATION CENTRIC INFRASTRUCTURE

 

Mots-clefs :, ,

Groupe D.FI : L’intégrateur veut faciliter la transformation numérique de ses clients.

Le Groupe D.FI a pris la mesure de la transformation numérique. Il a revu son organisation en conséquence et noué de nouveaux partenariats comme l’illustre l’accord avec Cisco qui lui permet de renforcer, avec VersaSTack, sa proposition de valeur dans les infrastructures convergentes.

Se transformer devient une priorité pour rester en phase avec un monde en pleine mutation.

L’époque ne se prête plus à l’attentisme, le numérique est passé par là avec son lot de nouvelles technologies, de startups innovantes et de nouveaux business models. Toutes les entreprises doivent amorcer cette transformation, si ce n’est déjà fait, pour rester dans la course. Leurs directions informatiques sont sous pression pour être des vecteurs de transformation et non des freins au changement. Du même coup les entreprises attendent de la part de leurs fournisseurs une attitude de partenaires solidaires dans l’objectif à atteindre.

Le Groupe D.FI veut accompagner efficacement la transformation IT de ses clients.DFI practices

C’est sans aucun doute dans cette perspective qu’il faut analyser les changements opérés par le Groupe DFI au début de l’année 2015. Avec près de trente ans d’expérience, le groupe en a vu des évolutions dans le domaine informatique. Cela n’a apparemment pas émoussé son dynamisme.

Aujourd’hui les projets vont bien souvent au-delà la direction informatique et nécessitent d’embarquer un écosystème riche et complexe selon les solutions concernées. Les clients sont à présent prêts à entendre un discours de valeurs à condition d’être confiants dans la capacité de ses fournisseurs à maitriser les technologies rentrant dans la composition du service proposé.

D.FI s’est organisé autour de 4 grandes problématiques (Infrastructures complexes et convergentes, Data Management, Cloud et Mobilité) en constituant des « practices ».

Chaque « practice » regroupe des compétences techniques permettant de couvrir les différentes facettes d’une problématique. Pour chaque projet un « engagement manager » de la practice identifie les ressources à mobiliser, les services à offrir (prestations, assistance, services managés) et peut selon la nature du projet collaborer avec les autres practices. Compétences, engagement et collaboration sont les atouts de cette organisation qui vise l’efficacité au service de clients de plus en plus exigeants.

La participation de Guy Manou-Mani, président du Syntec, lors de la présentation de cette organisation à la Maison des Arts et Métiers le 5 février 2015 soulignait l’importance portée par le Groupe D.FI à la transformation numérique.

La practice « Infrastructures complexes et convergentes » étoffe son offre avec VersaSTack

Les directions informatiques ont de moins en moins de temps pour jouer les intégrateurs. Elles se tournent progressivement vers des infrastructures convergentes afin d’accélérer la mise à disposition des infrastructures. Le Groupe D.FI a intégré à son catalogue VersaStack, fruit de la collaboration entre IBM et Cisco. Une évidence quand on connait le savoir-faire de l’intégrateur avec le stockage Storwize auquel il peut ajouter dorénavant les compétences des serveurs UCS dont il possède toutes les certifications.

Bastien Boudot de la Motte (sur la photo à mon côté) Practice leader pour les infrastructures Complexes et IMG_1136Convergentes est convaincu de la valeur de l’offre DFI avec Versastack qu’il ne limite pas à la seule intégration des différents composants et qu’il décline en 5 points:

  • Une intégration complète entre stockage et serveurs : IBM et Cisco ont la même philosophie d’ouverture de leurs APIs respectives. La gestion du stockage est ainsi parfaitement intégrée avec la console de management des serveurs UCS (UCS manager). Toutes les opérations d’administration courante peuvent ainsi se faire à partir d’UCS Manager
  • Simplification de la migration : Le stockage Storwize possède la capacité de virtualiser des baies concurrentes (grâce au code SVC dans le contrôleur). Habitué à utiliser cette fonction, D.FI peut ainsi assurer une migration simple avec possibilité de retour arrière
  • Optimisation des performances de stockage: IBM a rédigé de nombreux documents expliquant les best practices pour garantir de bonnes performances. Le Groupe D.FI a poussé la démarche plus loin avec l’utilisation d’outils pour définir la configuration optimum.
  • Automatisation des plans de secours. D.FI a développé des scripts et des procédures qui automatisent l’ordonnancement et la bascule d’un site vers un autre dans le contexte d’un plan de secours multi sites.
  • Maintien en conditions opérationnelles. Au support de la solution, le Groupe D.FI ajoute des campagnes de mise à jour de microcode. Une manière non seulement de corriger des problèmes mais surtout de les éviter tout en ayant une infrastructure disposant des dernières fonctionnalités contenues dans le microcode.

Autant de compétences et de valeur ajoutée apportées par l’équipe de Bastien qui sont mises au service des clients et des autres practices de D.FI. L’intégrateur peut désormais compter sur une organisation alignée avec les attentes des clients, de nouveaux partenariats pour compléter son offre et des compétences aguerries sur les technologies

 

Le serveur UCS avec sa version UCS mini adresse le besoin de toutes les entreprises.

Après le succès indéniable des serveurs UCS dans les grandes entreprises, il s’agissait d’adapter l’offre pour adresser également le besoin de leurs sites distants ainsi que celui des petites et moyennes entreprises. C’était tout le sens de l’annonce de l’UCS mini en septembre 2014.

UCS mini : la connectique et l’intelligence des fabric interconnect intégrées dans le châssis de l’UCS

Dans la version de base le solution de serveurs UCS  dispose d’une paire « contrôleurs intelligents » appelés le Fabric Interconnects. C’est à eux que sont reliés les châssis contenant les serveurs proprement dits et ce sont ces fameux Fabric interconnect qui assurent l’essentiel des fonctions de l’UCS (commutation Ethernet, FC et FCoE, UCS manager, etc …). Ils sont donc indispensables quel que soit le nombre de châssis et serveurs qui composent le « domaine UCS ».

Dans le cas d’entreprises souhaitant de petites configurations (1 à 2 chassis, soit 8 à 10 serveurs) cette paire de fabric interconnect pouvait paraitre disproportionnée. La solution idéale consistait donc d’avoir toute la connectique et toute l’intelligence des Fabric Interconnect, mais intégrées dans le châssis qui héberge les serveurs UCS. C’est ce qui a été fait avec l’UCS Mini comme le montre la photo. A quelques détails près, toutes les fonctionnalités de l’UCS sont disponibles dans l’UCS Mini.

UCS-vs-UCSMini-500x207

UCS mini finaliste du Best of Interop awards

Attention, on aurait tort de penser que l’UCS mini est le résultat de concession bien au contraire. Il permet d’offrir une configuration plus adaptée en nombre de serveurs à des petits sites informatiques mais avec un même niveau de fonctionnalités et de performances. Sans doute une des raisons pour lesquelles l’UCS mini a été retenu comme finaliste pour le 2015 Best of Interop Awards (le gagnant sera connu le 28 avril). Toutes les applications peuvent bénéficier de l’UCS mini et Cisco a développé un certain nombre de documents avec des designs validés avec des partenaires comme Microsoft,VMware,Nimble, NetApp, EMC, Oracle pour faciliter la mise en œuvre de l’UCS mini dans des environnements applicatifs. On trouve par exemple  sur le site Cisco:

Tous les environnements quel que soit leur taille peuvent désormais bénéficier des atouts qui ont fait le succès des serveurs UCS. Lire Cisco UCS Mini: Edge-Scale Solution with Enterprise Capabilities  

Mots-clefs :, , , , ,

Cisco ACI et Citrix NetScaler : une infrastructure souple et évolutive pour SharePoint Server® 2013

Permettre à des équipes de collaborer ensemble sur un projet de manière efficace est sans aucun doute l’objectif principal de Microsoft® SharePoint Server® 2013. Un document peut facilement être stocké, organisé et partagé au sein d’une entreprise en toute sérénité. Si la direction informatique propose Microsoft® SharePoint Server® 2013 sous forme d’un modèle de déploiement de services dans le cloud, on ajoute à l’intérêt de SharePoint les bénéfices du cloud en termes d’agilité business, le provisionnement plus rapide et des coûts réduits.

Une Architecture de référence avec Cisco Application Centric Infrastructure (ACI) et Citrix NetScaler.

La mise en place de SharePoint nécessite une infrastructure complète qui doit offrir la scalabilité , la sécurité et la souplesse requises. Pour garantir l’atteinte de ces objectifs, simplifier la tâche des architectes IT et raccourcir le délai de mise en production Cisco et Citrix ont réalisé une architecture de référence validée. Le document « Deploying Microsoft SharePoint with Cisco ACI and Citrix NetScaler Design and Implementation » Guide est accessible aux clients et aux partenaires. Il explique pas à pas les composants utilisés, leur configuration et paramétrage. Autant d’informations qui sont un gain de temps appréciable et qui permet d’éviter les erreurs.

La solution commune repose sur Cisco Application Centric Infrastructure (ACI) et Citrix NetScaler.

  • Cisco Application Centric Infrastructure (ACI) est une solution aboutie de type SDN (Software Defined Network) conçue sur une architecture ouverte, sécurisée et évolutive. Cette technologie offre la possibilité d’insérer des fonctions utilisant une approche appelée « service graph ». Une notion qui se réfère à la capacité d’insérer, sous forme de services, des équipements de niveau 4 à 7 sur le chemin entre les équipements de terminaison.ACI FAbric
  • La plateforme Citrix® NetScaler® SDX optimise la mise à disposition d’application au travers d’internet ou de réseaux privés. Elle le fait en combinant les fonctions de sécurité, d’optimisation et de gestion de trafic au niveau applicatif au sein d’un seul et même équipement dédié (appliance). Ainsi une fois installée l’appliance NetScaler SDX dans un data center, toutes les connexions vers les serveurs concernés peuvent être routées vers elle pour contrôler le trafic réseau entrant et sortant.
  • Contrôler de manière unifiée les services réseaux. Cisco ACI et Citrix NetScaler donnent la possibilité aux administrateurs du data center et du cloud de contrôler de manière unifiée les services réseaux de niveaux 2 à 7 grâce à l’insertion des services NetScaler dans un data center possédant des architectures ACI. NetScaler exploite le contrôleur Cisco APIC (Application Policy Infrastructure Controller) pour automatiser le provisionnement en fonction des besoins applicatifs.
  • Une solution à haute disponibilité avec Cisco Intercloud. Le document décrit également une architecture à haute disponibilté pour le déploiement de SharePoint. Cette solution utilise l’architecture Cisco Intercloud DC ACI 1.0 Architecture (Silver Cloud Consumer Model) et inclue des serverus SharePoint servers redondants et des groupes « AlwaysOn Availability » dans Microsoft SQL Server 2012. (voir aussi la note Microsoft Tech Note: “Failover Clustering and AlwaysOn Availability Groups: SQL Server”.)Intercloud sharepoint

Le document décrit comment configurer configurer Citrix NetScaler avec une fabric ACI fabric dans le cadre d’un déploiement optimisée pour SharePoint Server 2013. Si une grande partie est très technique, le début du document « Deploying Microsoft SharePoint with Cisco ACI and Citrix NetScaler Design and Implementation »  reprend les notions de base sur NetScaler et ACI.

Mots-clefs :, , , ,

l’IoT nécessite d’adapter le modèle du cloud avec le Fog Computing

La généralisation attendue des objets connectés nécessite de repenser le modèle du cloud. C’est la raison d’un nouveau modèle, le Fog Computing, qui va réduire les contraintes exercées sur le cloud par les objets connectés.

Les objets connectés trouvent leur utilité dans tous les domaines.

Les objets connectés sont devenus une réalité. Les technologies de capteurs sont de plus en plus évoluées et de moins en moins chers. Les villes s’approprient progressivement ces innovations pour devenir plus intelligentes et améliorer la vie des habitants. Les usines à leur tour deviennent de plus en plus connectées et collectent d’avantage de données sur les processus de production (voir l’article sur l’usine 4.0). Dans quasiment tous les domaines les objets connectés peuvent trouver leur utilité.

L’accélération de l’usage des objets connectés va entrainer un effet d’échelle.

On va devoir repenser la manière d’utiliser le cloud. Les objets connectés, au niveau d’une entreprise, nécessitent de déployer des applications intelligentes et des capacités analytiques proches des équipements d’extrémité (capteurs, robots d’usine, etc..) ou bien de transférer les données directement dans le cloud pour y être traitées. Les deux approches ont leurs avantages mais présentent également des inconvénients. Le coût du réseau entre les équipements d’extrémité et le cloud peut être important particulièrement si on transfert la totalité des données. La latence peut s’avérer élevée.

De plus en plus de solutions proposent de traiter les données au plus près des équipements d’extrémités pour réduire le volume de données transférées vers le cloud. Mais si on réussit ainsi à diminuer la volumétrie on augmente la complexité de gestion avec de nombreux services d’extrémité qu’il faut coordonnées de manière cohérente.

La sécurité doit être considérée à l’aune de l’IoT.

Les objets connectés trouvant leur utilisation dans toute l’entreprise, ils ne sont pas limités à l’informatique de l’entreprise. De ce fait la sécurité peut représenter un risque si elle n’est pas prise en compte au même titre que la sécurité des applications critiques. Il ne s’agit pas uniquement de données qui pourraient être piratées mais également de la prise de contrôle de véhicules, de machines ou de robotiques dans une usine de fabrication.

Si le modèle du Cloud est une manière efficace de gérer des data centers, il peut montrer ses limites dans un contexte d’objets connectés. Des applications sensibles à la latence nécessiteront par exemple d’utiliser un nombre important de nœuds pour respecter le niveau de performance. Les objets connectés (IoT) demandent de supporter la mobilité et une distribution géographique pouvant être importante. Ces différentes contraintes font émerger le besoin d’une nouvelle plateforme qui va étendre la plateforme cloud. Elle doit être capable de fournir un nouvel ensemble d’applications web et de services à l’utilisateur final. Cette nouvelle plateforme a pour nom « Fog Computing »

En quoi consiste le Fog Computing.

Le modèle de Fog Computing a été introduit par Cisco pour faciliter le transfert sur un réseau sans fil de données provenant Fogd’équipements distribués dans un contexte d’objets connectés (IoT). Cisco définit le Fog Computing comme un paradigme qui étend le Cloud Computing et ses services aux équipements d’extrémité d’un réseau. De la même manière que le cloud, le Fog fournit des services de données, de stockage, de traitement et d’applications à l’utilisateur final. Les caractéristiques principales du Fog sont :

  • Sa proximité avec l’utilisateur
  • Sa densité de distribution géographique
  • Le support de la mobilité

Les services sont hébergés dans les équipements réseaux d’extrémité (network edge) ou dans les objets connectés eux-mêmes comme des « set top boxes » et des points d’accès. EN agissant ainsi le Fog Computing réduit la latence et améliore la qualité de service QoS. De ce fait l’expérience utilisateur est optimisée.

Le modèle du Fog Computing présente un certain nombre d’intérêts, en particulier :

  1. La réduction significative du mouvement de données dans le réseau diminuant ainsi les phénomènes de congestion et de latence.
  2. L’amélioration de la sécurité car les données sont encodées lors de leur mouvement vers les équipements réseaux d’extrémité.
  3. Des niveaux importants de scalabilité, de fiabilité et de tolérance aux pannes grâce aux fonctions de traitements embarquées dans les équipements d’extrémités (edge computing) . Cette fonction d’edge

a lire également : A Unified Platform Beyond only Cloud as Driver for IoT

Mots-clefs :, ,

Cisco et Microsoft : accélérer la création de services dans un environnement de clouds hybrids

 Offrir des services dans un environnement de Cloud hybrid est un un enjeu majeur pour les fournisseurs de clouds qui doivent pour cela s’affranchir de la complexité des environnements. La solution “Cisco Cloud Architecture for the Microsoft Cloud Platform” devrait les y aider.

   Avec l’adoption du Cloud de nombreux acteurs se sont positionnés sur ce marché apportant leur differences et leur valeurs ajoutées. On assiste bien sur à une féroce competition mais la situation se révèle bien plus complexe . Au delà de la competition on doit évoquer la complémentarité entre les clouds. Cette complémentarité peut se situer sur le terrain geographique, technique , métiers ou sur les services offerts. On devrait donc parler d’un monde de clouds plutôt que “du cloud”.

Se pose alors la question de la communication entre ces clouds, “Intercloud”, bâtis sur des architectures techniques qui peuvent être très différentes. La nouvelle generation de services cloud nécessite une compatibilité au niveau des composants matériels et logiciels des architectures. Pour offrir de nouveaux services dans ce contexte Intercloud, les fournisseurs de cloud doivent composer avec la complexité et les les coûts d’intégration d’infrastructures et de couches applicatives.

En annonçant le 11 mars 2015 Cisco Cloud Architecture for the Microsoft Cloud Platform, Cisco et Microsoft entendent accélérer la mise à disposition de services et fluidifier l’avancée des fournisseurs dans l’intercloud.Cette annonce est une extension logique du partenariat Cisco-Microsoft.

Cisco et MSFT Cloud

Aider les fournisseur de clouds à s’affranchir de la complexité du cloud hybrid.

Concrètement cette offre est une solution intégrée qui combine Windows Azure Pack et Cisco Application Centric Infrastructure (Cisco ACI) . En simplifiant les operations et en réduisant les coûts, cette solution permettra aux opérateurs de cloud d’offrir plus rapidement des services de cloud hybrid.

L’architecture Cloud de Cisco pour la plateforme Cloud de Microsoft offrira aux fournisseurs de clouds des “building blocks” couvrant les besoins d’IaaS, de PaaS et de SaaS. La combinaison des offres Windows Azure Pack et Cisco ACI ouvre aux partenaires de nouvelles possibilités : services réseaux, services de plan de secours , services de Big Data et services applicatifs. Des services qui pourront s’appuyer sur l’agilité de “DevOps” pour être mis sur le marché rapidement et optimiser ainsi la rentabilité.

La collaboration Microsoft Cisco offrira des librairies pré-packagées de règles de gestion afin de permmettre aux fournisseurs de cloud de mettre en oeuvre des applications plus rapidement tout en assurant une cohérence de règle de gestion.

Toujours pour aller dans le sens de la simplicité et d’un meilleur controle Microsoft System Center 2012 R2 est intégré avec Cisco Unified Computing System (UCS) Manager le logiciel d’administration des serveurs UCS.

Intercloud: un large ecosystème riche de plus de 60 fournisseurs de clouds

L’Intercloud se tourne résoluement vers l’avenir. En proposant de construire un réseau de clouds globalement connectés, l’architecture est déjà pensée pour l’internet des objets, les traitements analytiques en temps reel et la conformité aux exigences de souveraineté. C’est avec de nombreux partenaires que se construit ce monde de clouds interconnectés. Cisco et Microsoft ont donc prévu de supporter l’écosystème partenaires avec une approche prenant en compte l’intégralité du cycle de vie ; l’idée de conception d’un service, la génération de la demande et la rétention des clients. Les programmes Cisco Powered et Microsoft Cloud OS Network (COSN) se complètent mutuellement pour offrir un support optimisé aux fournisseurs de clouds.

Aujourd’hui plus de 60 fournisseurs de clouds font déjà partie de l’écosystème Intercloud et représentent ensemble plus de 350 Data Centers sur 50 pays.

Mots-clefs :, , ,

La virtualisation de la data simplifie la vie du Big Data

L’économie de la donnée est en marche mais elle est freinée par la complexité des organisations et des technologies. La « virtualisation des données », en fédérant simplement l’ensemble des données d’une entreprise, peut permettre de s’affranchir en partie de ces contraintes

Un écoystème big data large et complexe.

Le Big Data était à l’honneur au salon du Big Data Paris 2015 avec 4 fois plus de monde que l’année dernière. Première constatation l’écosystème est large et complexe pour traiter toutes les étapes nécessaires à la transformation des données en valeur pour l’entreprise. Mais le fait est là, le Big Data deviendra cloudera VIP V1incontournable dans une économie centrée de plus en plus sur la donnée.  Pour s’en convaincre je recommande la lecture du livre de Gilles Babinet (Digital Champion) sur le Big Data. A l’occasion du salon J’ai pu également apercevoir le fameux Doug Cutting concepteur du framework hadoop et qui travaille aujourd’hui chez Cloudera, l’une des grandes distributions de hadoop. On lui doit également le logo de hadoop, un petit éléphant en forme de clin d’œil à la peluche de son fils.

L’économie de la data demande plus d’agilité

Tout le monde est conscient que l’environnement économique nécessite de plus en plus d’agilité qui se heurte à des environnements distribués sur des datacenters et des clouds. L’idée que ceux qui tireront le meilleur parti de leurs données seront les leaders de demain fait son chemin. Ce besoin d’utiliser les données avec plus d’agilité est la raison première de la « virtualisation des données ». La promesse du Big Data est alléchante mais on peut vite être échaudé devant le nombre de silos de données existants et de la prolifération de nouvelles sources de données. Migration, transformation, consolidation autant de projet longs et douloureux qui peuvent en rebuter plus d’un. Alors pourquoi ne pas fédérer simplement les silos de données existants ? C’est en quelque sorte le principe de la virtualisation des données

Fédérer les données pour faciliter leur utilisation

Cisco Datavirtualization est un logiciel d’intégration des données qui simplifie l’utilisation des données où qu’elles soient. Le principe est simple, le logiciel fournit une vue unifiée des données business. Avec cette visibilité centralisée de toutes les données, l’entreprise est capable de prendre de meilleures décisions et de s’adapter ainsi plus rapidement aux changements rapides de l’environnement économique et commercial. Les utilisateurs peuvent accéder et faire des requêtes sur toutes les données ou qu’elles se trouvent sur un réseau comme si elles étaient dans un lieu unique. On peut ainsi accéder à l’ensemble des données sans avoir à déplacer physiquement des données.

DV_Feb 2015

Pour réussir ce miracle la virtualisation des données utilise une approche agile des données qui permet une combinaison de données provenant de différentes sources et qui s’appuie sur :

  • Technologies d’intégration de données pour intégrer rapidement des données de multiples sources
  • Optimisation des requêtes en utilisant des algorithmes et des techniques qui permettent de restituer l’information en temps voulu sans affecter les performances des systèmes sources
  • Abstraction des données pour combler le gap entre les besoins business et le format d’origine des données sources et créer une vue business.

Le Big Data demande de la compétence et de l’expertise

Maitriser les données est essentiel et on sait que beaucoup de données sont dupliquées dans des entreprises. Il faut donc les répertorier, connaitre les systèmes qui les hébergent, identifier les duplications et définir par la suite ce que l’on souhaite en faire .C’est pour répondre aux besoins de maîtrise de l’informationIntrabases logo (cartographie, qualité, cycle de vie,…), de consolidation et d’accessibilité, que la société Intrabases a intégré dans son offre la virtualisation de données de Cisco. Le directeur délégué d’Intrabases , Gerard Simon, était bien sûr au salon du Big Data où j’ai pu discuter avec lui en compagnie d’Olivier Neraut membre du « Skill Center Big Data » chez Cisco. Forte de son expérience avec les outils ETL et BI, Intrabases offre ses compétences de la virtualisation de données, pour une intégration globale d’infrastructure de données.

Plus d’info sur Cisco datavirtualization

Mots-clefs :, , , ,

Meraki : une gestion dans le cloud avec des fonctions analytiques

Avec Meraki, Cisco offre une gestion souple dans le cloud des réseaux, des mobiles et de la sécurité. L’intégration avec des offres analytiques, des technologies Beacon et avec Facebook ouvre encore le scope des utilisations de Meraki de la petite à la très grande entreprise.

Gérer simplement ses infrastructures dans le cloud, c’est tout le sens de Meraki, société achetée par Cisco en Meraki cloud2012. L’offre porte sur :

  • Les réseaux sans fils
  • Les équipements de sécurité
  • Les commutateurs réseau
  • La gestion des mobiles

L’ensemble des équipements se gère de manière centralisée dans le cloud. On gère à partir d’un tableau de bord unique son réseau, on contrôle les utilisateurs, les applications et les équipements et la solution prend en compte aussi bien des petits sites que le déploiement de grandes entreprises.. On peut gérer des milliers de ports réseaux et des milliers de mobiles et les monitorer instantanément. On peut également provisionner des sites distants sans personne sur place, effectuer des modifications réseau à grande échelle et gérer facilement des réseaux de campus sans besoin d’équipes dédiées et formées.

meraki dasboard

Meraki c’est bien sûr la simplification et la réduction des coûts mais c’est aussi une richesse fonctionnelle qui ne cesse de s’accroitre.

Du cloud et de l’analytique. La semaine dernière se tenait le Mobile World Congress à Barcelone et cette semaine à Paris se déroule le salon du Big Data à Paris . L’enchainement est donc tout trouvé pour évoquer les fonctions, proposées dans le cloud par Meraki, d’analyse de localisation et d’interaction avec les utilisateurs de mobile.

L’intégration des technologies Beacon et Bluetooth permet un accès fluide des utilisateurs et des fonctions analytiques de localisation fournissent des opportunités inégalement pour interagir avec les clients de manière pertinente. Comment fonctionne la localisation analytique :

L’API (Application Programming Interface) Cisco Meraki CMX (Connected Mobile Experiences) utilise des points meraki analyticd’accès intelligent pour forunir aux clients de l’analytique de localisation en temps réel qui permet une intégration avec des produits tiers (applications analytique de commerce, CRM et applications sur mesure). Le composant CMX affiche en temps réel des statistiques de localisation afin d’améliorer l’engagement et le client sur différents sites. Les données collectées sont synchronisées dans le Cloud Meraki et intégrées automatiquement dans le tableau de bord. On a ainsi une vision des tendances du trafic visiteurs, les temps de dwelle et le ratio des nouveaux visiteurs versus les visiteurs réguliers.

Une intégration Meraki – Facebook. Meraki a réalisé également une intégration avec Facebook. Les clients peuvent ainsi se connecter à un réseau WI-FI par l’intermédiaire du Facebook entreprise. L’accès au WI-FI au travers du Login Facebook donne aux entreprises l’accès aux données démographiques anonymisées agrégées fournies par Facebook.

Avec Meraki, le cloud tient ses promesses et va encore au-delà en intégrant de fonctions qui contribuent à améliorer la connaissance des clients et l’interaction avec eux.

Mots-clefs :, , ,

Cisco et Informatica s’associent pour optimiser les datawarehouses avec hadoop

Etre capable de stocker et d’exploiter une quantité de données à des fins d’analyses décisionnelles devient incontournable. Disposer de plateformes performantes, efficace à coûts maitrisés est un enjeu auquel veulent répondre Informatica et Cisco. Plutôt que d’opposer entrepôt de données (datwarehouse) et plateformes de Big Data, il est possible de les combiner judicieusement avec une plateforme hadoop.

Hadoop a été conçu par les grands acteurs du Web comme Google et Yahoo pour répondre aux contraintes techniques et financières des bases de données relationnelles. Un des intérêts de Hadoop est de pouvoir intégrer et de traiter de grands volumes de données de manière plus économique en prenant en compte la diversité des sources de données et de leurs structures.

Un entrepôt de données optimisé et une informatique décisionnelle plus performante

En utilisant hadoop et les outils qui lui sont associés on réussit à alléger la charge de l’entrepôt de données et augmenter l’efficacité de l’informatique décisionnelle et de tous traitements analytiques.

  • Transférer les données peu utilisées de l’entrepôt vers un stockage moins coûteux. Le stockage de l’entrepôt de données s’en trouve optimisé.
  • Une plus grande variété de données peut être intégrée et stockée pour fournir des informations plus précises et plus pertinentes contrairement aux bases de données relationnelles contraintes par leur format et leur modèle de données.
  • La performance du réseau n’est plus un goulet d’étranglement dans un environnement distribué tel que proposé par hadoop
  • Les données structurées et non structurées peuvent être stockées et exploitées

Informatica et Cisco s’allient autour du Big Data

C’est dans le cadre de l’optimisation d’un entrepôt de données qu’Informatica et Cisco ont annoncé une solution commune (lire l’annonce). Cette solution propose une plateforme unique pour décharger le traitement et le stockage de l’entrepôt de données vers hadoop.

informatica Cisco

Cette solution d’optimisation d’un entrepôt de données fonctionne avec une distribution hadoop Apache du choix du client qui inclut Cloudera, Hortonworks et MapR. Elle comporte tous les éléments logiciels, réseaux et infrastructures pour utiliser le Big Data sous toutes ses formes :

  • Informatica Big Data Edition : Responsable de l’intégration des données et de leur nettoyage (ELT et ETL) nativement sur Hadoop. Informatica simplifie l’acquisition (ingestion) de tous type de données tels que les transactions clients, les données mainframes, des logs de serveurs, des données de capteurs que ce soit en mode batch ou en temps réel. Pour ce faire Informatica utilise une centaine de connecteurs. Pour assurer une ingestion des données très rapide vers hadoop, Informatica utilise les connectivités natives des applications, bases de données, réseaux sociaux et des « parsers » préconçus par format d’industrie qui incluent FIX, SWIFT, HL7, HIPAA, EDI, and ASN.1.
  • Cisco Data Virtualization– Cette plateforme fédère toutes les données de l’entrepôt et de Hadoop constituent ainsi un entrepôt de données logique. Les équipes ont de cette façon une vue complète de toutes les données couplée à un accès immédiat aux données. Tous les traitements analytiques peuvent ainsi s’effectuer sur l’ensemble des données. (lire La virtualisation des Données : un atout pour internet de l’objet , Cloud et Big Data)
  • Serveurs Cisco UCS pour le traitement des données.

Le Big Data par essence cherche à résoudre le problème du stockage en flux continu de volumes de données important à un coût qui ne soit pas prohibitif. On construit ainsi le socle de données qui sera exploité par diverses applications d’analyse, de visualisation etc… De l’ingestion à la restitution un large écosystème est nécessaire. Il s’étend de l’infrastructure à l’application et s’étoffe en permanence. Le partenariat entre Cisco et Informatica illustre parfaitement la complémentarité des acteurs de cet écosystème.

Lire également le white paper « Optimize Your Data Warehouse with a Joint Solution from Cisco and Informatica »

Mots-clefs :, ,

Cisco propose des webinars éducatifs sur S4HANA et SAP HANA

Run-simple-sap

Dans le monde SAP et HANA les innovations et les évolutions technologiques continuent à un rythme soutenu. La dernière en date a été annoncée par SAP le 3 février dernier : SAP Business Suite for SAP HANA (S4HANA). Il ne s’agit de rien de moins que de la refonte de toute la Business Suite SAP pour s’appuyer nativement sur SAP HANA et utiliser toute la puissance et les simplifications possibles de HANA, mais aussi de prendre en compte les évolutions du Big Data, de l’Internet des Objets (IoT) et du Cloud.

Pour vous aider à comprendre ces évolutions, Cisco propose une série de webinars éducatifs mensuels (en anglais) qui débuteront le 4 Mars prochain par une explication détaillée de ce qu’est S4HANA. Les webinars suivants aborderont les architectures pour HANA TDI, les dernières évolutions de la technologie HANA et une analyse des annonces du prochain Sapphire .

Ces webinars auront lieu le mercredi à 19h00, selon l’agenda ci-dessous:

Mercredi 4 Mars à 19h00: What is SAP’s Business Suite on HANA (S4HANA) ?  (inscription)

Mercredi 18 Mars à 19h00 : Deploying HANA via TDI (inscription)

Mercredi 15 Avril à 19h00 : HANA Containers and vHANA (inscription)

Mercredi 20 May à 19h00 : Digesting Sapphire (inscription)

Mercredi 17 Juin à 19h00 : SAP Technical Upgrade ‘Best Practices’ and Lessons learned from Cisco Advanced Services (inscription)

Inscrivez-vous dès à présent pour bloquer ces dates dans vos agendas.

 

Mots-clefs :, , ,

Le trafic des mobiles en 2014 représente 30 fois le trafic internet de l’année 2000.

La croissance des usages du smartphone, de la vidéo, du cloud et le développement des objets connectés nécessitent des opérateurs de s’adapter pour répondre aux exigences de consommateurs de plus en plus exigeants.

Les usages s’intensifient et évoluent au gré des nouvelles technologies.VNI growth

La mobilité est devenue une exigence de tout un chacun aujourd’hui. Impensable de ne pas pouvoir se connecter à internet ou que l’on soit. Pas étonnant donc que le trafic généré en 2014 ait atteint 24 exabytes de données soit près de 30 fois le trafic global Internet de l’année 2000 d’après l’étude Cisco, mise à jour le 3 février 2015, sur les prévisions de trafic des données lié à l’activité des mobiles sur la période 2014-2019

 

Tous les équipements mobiles contribuent à la croissance du trafic

  • téléphones portables de baseVNI comparatif mobiles
  • Smarphones
  • Ordinateurs portables
  • Tablettes
  • Equipements diverses : appareils photos, livres numériques, consoles de jeux etc.. qui peuvent se connecter et transférer de l’information.
  • Machine to Machine (M2M) : équipements qui communique avec d’autres systèmes (capteurs, télémesure, GPS , compteur intelligent, etc..)
  • Equipements « wearables » : des équipements que l’on porte sur soi et qui sont capable de communiquer soit directement soit par l’intermédiaire d’un smartphone.

 

Smartphone et Video en tête pour la génération du trafic mobile de données.

Parmi tous les équipements mobiles le smartphone s’impose comme indispensable à notre vie quotidienne. La multiplicité des usages permis par le smartphone explique qu’il représentera les trois quart du trafic des données de tous les équipements mobile en 2019.

Un pourcentage important lié également à une consommation de plus en plus fréquente de vidéos qui constituent 55% du trafic globale des mobiles en 2014 et représentera 72% en 2019.

Les objets connectés et les machine to machine se généralisent

Tout le monde en parle et les chiffres le confirment, ces fameux équipements que l’on porte sur nous (les wearables) nous rendent hyper connectés et offrent un énorme potentiel d’usages. Ces équipements se présentent sous des formes les plus variées allant de la montre intelligente, les lunettes intelligentes, des moniteurs de santé ou de sports jusqu’aux vêtements intelligents pour n’en citer que quelques-uns. Cette progression a été rendue possible par les innovations technologiques réalisées ces dernières années aussi bien en termes de miniaturisation des traitements que de techniques de géolocalisation.

En 2019 on estime qu’il y aura 578 millions d’équipements wearables (à comparer aux 109 millions en 2014) qui représenteront 9,1% du trafic mobile globale.

Le équipements machine to machine (M2M) sont présents dans de nombreux secteurs (sécurité et automatisation des habitations, compteurs intelligents, maintenance, industrie automobile, santé etc ..) . Leur croissance est impressionnante passant de 495 millions en 2014 à 3 milliards en 2019.

Les applications dans le Cloud compteront pour 90% du trafic global des mobiles en 2019.

La grande majorité des applications videos sur internet peuvent être classées dans la catégorie applications dans le cloud. Le trafic des mobiles dans le cloud suit par conséquent la courbe de croissance de la vidéo. Les limitations de mémoires et de vitesse des équipements mobiles renforcent l’intérêt du Cloud. Les applications telles que Netflix, YouTube, Pandora, et Spotify permettent d’amplifier l’expérience utilisateur au-delà de ce que permettraient les possibilités intrinsèques d’un mobile. .

VNI drivers

Les opérateurs doivent anticiper la progression du trafic mobile

La prolifération et la diversité des équipements mobiles font apparaitre de nouveaux modèles économiques avec de nouvelles formes de partenariat dans un écosystème de plus en plus riche dont les opérateurs doivent tenir compte. Développeurs d’applications, fournisseurs de contenus, opérateurs mobiles ; chacun cherche à monétiser le trafic vidéo qui transite sur les réseaux mobiles. Les attentes des consommateurs évoluent très rapidement et exigent plus de rapidité et de qualité.

Les technologies sans fils veulent fournir la même qualité que celle qui était disponible précédemment en technologies filaires. Les prochaines années vont être clé pour les opérateurs qui devront déployer les réseaux capables d’accompagner la croissance des équipements mobiles et des applications.

A lire également : La France entre dans l’ère des « ultra-connectés »

Mots-clefs :, , , ,

L’Analytique devra s’exécuter au plus près des objets et équipements connectés.

D’ici peu les objets et équipements connectés produiront la majorité des données, les fonctions analytique vont devoir évoluer et pouvoir s’exécuter dans le réseau au plus près des sources de données. C’est l’objet de l’annonce par Cisco des solutions Connected Analytics

De formidables opportunités qui s’accompagnent de défis à relever

Depuis la fameuse publication en 2010 de la revue The Economist, titrant “The Data deluge“ nous avons réellement pris conscience de l’incroyable volume de données créé chaque jour et dont la croissance va encore s’accélérer avec le développement des objets connectés qui vont à leur tour contribuer à générer des données. Bientôt la majorité de données sera créée par ces objets connectés. (lire Pourquoi la croissance du Big Data est liée à la transformation numérique)

En soi ce monde de données constitue un formidable potentiel d’opportunités que nous avons à peine commencé d’explorer. Pour ce faire de nombreux défis sont à relever et les technologies évoluent pour apporter des solutions de type “big data”

Nous rentrons dans une époque où les limites sont sans cesse repoussées. Si on aborde le problème d’un point de vue des bases de données on s’aperçoit que de nouvelles bases de données doivent être capables de supporter des données de toutes natures, structurées ou non structurées, et de proposer une scalabilité quasiment sans limite pour faire face à cette prolifération de données.

Des frameworks comme Hadoop ou des bases de données NoSql (pour les accès temps réel très performants) entendent répondre à ces besoins de diversité des données et de scalabilité tout en maitrisant les coûts.

Les processus analytiques devront se rapprocher des sources de donnéesconnected devices study

L’Analytique 1.0 consistait à analyser des données structurées qui avaient été préalablement migrées dans un data repository centralisé, l’Analytique 2.0 a rajouté la notion de données structurées et donné lieu au Big Data. L’Analytique 3.0 va reprendre toutes ces caractéristiques mais devra également comporter une gestion des données plus complète et proposer des capacités d’analyse plus proches de l’endroit où les données sont créées, aux extrémités du réseau. N’oublions pas que d’ici peu la majorité des données sera générée par des objets ou des équipements connectés.

Dans une étude réalisée récemment par Cisco, 40% des entreprises interrogées identifiaient les processus de capture, de stockage et d’analyse des données générées par les objets connectés (machines, appareils, équipements) comme étant le plus gros challenge pour réaliser la valeur de l’internet de l’objet.

Connected Analytics pour IoE (Internet of Eveything):

C’est en tenant compte de ce phénomène que Cisco a annoncé les solutions Connected Analytics pour IoE (Internet of Eveything) qui vont exploiter les technologies Cisco et les données pour en extraire en temps réel de la valeur . Ces solutions vont se décliner pour répondre à différents besoins :

  • Connected Analytics for Events : fournit des analyses sur l’engagement des clients grâce au suivi de l’utilisation du WiFi, des devices, des applications et des réseaux sociaux.
  • Connected Analytics for Retail : Permet des analyses sur les données opérationnelles et clients dans un environnement de grande distribution pour améliorer la satisfaction clients et les performances du magasin.
  • Connected Analytics for Service Providers : A partir des paternes dans les réseaux, des données clients et des données opérationnelles, cette solution permet d’améliorer la qualité du service client et de découvrir de nouvelles opportunités.
  • Connected Analytics for Network Deployment : Des analyses des équipements et des logiciels sont effectués pour détecter des incohérences qui perturbent les réseaux. Des recommandations sont proposées pour prioriser la planification du réseau et optimiser les activités.
  • Connected Analytics for Mobility : Des informations précises sont fournies à partir de l’analyse des réseaux mobiles pour aider les clients de solution Wifi à exercer une gouvernance proactive.
  • Cisco Connected Analytics for Contact Center : Obtenir une vue complète des clients sur l’ensemble des données en silos afin d’être capable de proposer la meilleure offre au moment approprié.
  • Cisco Connected Analytics for Collaboration : Mesure l’adoption des technologies de collaboration en interne. Cette solution exploite des données provenant de différentes sources comme WebEx, IP Phones, Video, Email et Jabber.

L’ensemble de la gamme inclue Cisco Connected Streaming Analytics qui est une plateforme temps réel évolutive qui combine une capacité de collecte simple et rapide de données variées avec des moteurs analytiques en streaming les plus rapides du marché.

On voit ainsi que la stratégie IoE de Cisco compte bien prendre en compte les divers aspects de l’Internet of Everything et complète les approches Big Data couvertes par les solutions Data Virtualization , Big Data Warehouse Expansion et Cisco Tidal Enterprise Scheduler

Les produits mentionnés dans ce billet peuvent être retrouvés sur la page Data and Analytics

 

Mots-clefs :, , ,

Vblock apporte l’agilité au cloud interne d’EDF

Pour répondre à la pression économique et concurrentielle, les entreprises doivent pouvoir compter sur leurs centres informatiques afin d’obtenir l’agilité nécessaire. En mettant en place un cloud interne avec un Vblock, EDF prouve que c’est possible

EDF cloud

Bien souvent les infrastructures matérielles des centres informatiques sont considérées comme des freins à l’agilité. Comme le démontre EDF dans cette vidéo ce n’est plus une fatalité. Les grands centres informatiques peuvent aussi revendiquer d’être agiles en mettant en place un cloud privé avec pour socle une infrastructure convergée Vblock. Ce cloud interne est accessible à l’ensemble des directions métiers.

Dans cette vidéo Jerome Ladet, responsable du cloud interne dans la filière informatique d’EDF, revient sur la genèse du projet, les bénéfices observés et la prochaine étape.

6 mois entre la commande et l’ouverture en production

C’est en 2012 qu’EDF a pris la décision de modifier la manière de fournir les infrastructures à ses utilisateurs pour s’orienter vers une approche plus souple et plus rapide de type IaaS (Infrastructure as a Services).

Suite au RFP lancé la même année, le choix s’est porté sur Vblock avec comme l’un des critères principaux le packaging unifié de l’ensemble des composants d’infrastructure (Stockage EMC, Virtualisation VMware, Réseau et serveurs UCS Cisco). Cette unification joue à la fois dans la simplification de mise en œuvre mais également sur la gestion cohérente des changements, durant le cycle de vie du Vblock, de tous les composants (matériel, microcode, logiciel) de la plateforme.

Concrètement 6 mois ont suffi entre la commande passée à la société Telindus et la mise en production. Mais l’intérêt de s’arrête pas là car une production est amenée à évoluer et les infrastructures aussi. Avec Vblock quelques jours suffisent pour mettre à jour la plateforme sans interruption de service.

Un service amélioré et plus de temps pour la valeur ajoutée

Jerome Ladet explique que l’équipe a pu être déchargée d’une partie des tâches de gestion du matériel et donc passer moins de temps dans des problématiques d’exploitation courantes. L’équipe a pu ainsi se concentrer sur d’autres missions à valeur ajoutée tout en gagnant en visibilité par une gestion propre des changements et de meilleurs niveaux de services. L’effort de l’équipe porte à présent principalement sur l’orchestration et le catalogue de services.

Prochaine étape pour l’année 2015, aller plus loin que la mise à disposition de l’infrastructure en proposant au catalogue de services un packaging applicatif qui permette de fournir la Machine virtuelle avec son applicatif

Mots-clefs :, , , , , ,

Cisco prend le virage du logiciel à l’occasion de l’évenement européen CiscoLive 2015

Alors que Cisco vient de fêter ses 30 ans existence, les annonces dans le domaine du logiciel la semaine dernière à CiscoLive témoignent de sa capacité à se renouveler en permanence pour accompagner la transformation numérique de ses clients.

Ces dernières années Cisco avait opéré quelques acquisitions logicielles pour augmenter sa proposition de valeur, en particulier dans le domaine du cloud et de la sécurité, et compléter les nombreux logiciels de gestion d’équipement réseaux et serveurs présents à son catalogue. Restait encore à ajuster le mode de commercialisation de ces logiciels pour franchir une nouvelle étape et revêtir les habits d’un véritable éditeur de logiciels.

Une Approche logicielle à la carte avec la suite Logicielle Cisco ONE : Objectif principal, simplifier la consommation des logiciels Cisco dont le nombre s’est Cisco ONE softwareconsidérablement étoffé en commençant par l’organiser avec la suite Cisco ONE en 3 grands domaines d’infrastructures ( Datacenter – WAN – Acces ) et en 3 sous-ensembles de fonctionnalités ( fondation, applications avancées, sécurité avancée)

A cette structuration de l’offre logicielle vient s’ajouter un assouplissement du mode de consommation puisque les lociciels sont disponibles sous forme de :

  • licences perpétuelles
  • abonnements
  • contrat cadre ELA

Cisco ONE offre également la portabilité du lociciel. Avec la portabilité des licences, il est désormais possible de les transférer sur un nouvel équipement informatique. On peut ainsi réduire les coûts et avoir l’accès constant aux dernières innovations lors de l’édition de nouvelles fonctionnalités.

Suite Cisco ONE Enterprise Cloud: Combiner la sécurité et le contrôle du cloud privé au libre-service et à l’automatisation du cloud public

                                    . 

Les clients ne veulent plus avoir à gérer la complexité de la mise à disposition de service dans le cloud qui se veut de plus en plus hybride. Pourtant les tâches sont nombreuses (catalogue de services à la demande, automatisation des politiques et des configurations, orchestration etc..).. Dans bien des cas on est amené à empiler des logiciels disparates dont il faut faire une intégration difficile à maintenir cohérente dans le temps.

     – Répondre aux besoins des organisations. La suite Cisco ONE Enterprise Cloud réduit cette complexité et répond aux attentes des trois principales parties prenantes d’un cloud hybride:

    • Les utilisateurs finaux : Ils bénéficient d’un accès rapide aux services informatiques stratégiques grâce à des plateformes à la demande, en libre-service.
    • Les directeurs informatiques : Ils peuvent automatiser leur infrastructure, tout en mettant à disposition et en gérant des applications. Ils obtiennent ainsi une visibilité et une capacité de gestion des services cloud, ainsi que la possibilité de déplacer des charges de travail à travers les clouds tout en respectant la même politique et le même niveau de sécurité.
    • Les développeurs d’applications : Ils ont accès à des outils simples fonctionnant par glisser-déposer, ce qui leur permet d’accélérer les développement d’applications.

La suite Cisco ONE Enterprise Cloud utilise le logiciel Cisco ONE for DataCenter et comporte les logiciels suivants :

Cisco ONE est disponible immédiatement à l’échelle mondiale, sous licence perpétuelle. Les offres d’abonnement seront commercialisées prochainement

Mots-clefs :, ,

Transformation numérique : Cisco France met en place des centres de compétences

La transformation numérique fait appel à de nombreuses technologies qui auront pour vocation de créer une valeur accrue pour l’entreprise. Pour tenir compte de cette mutation Cisco France met en place des centres de compétences ou « skill centers ».

Business et Technologies , de la cohabitation à la fusion :  Longtemps les technologies ont appartenu à un monde de spécialistes. Business et Technologies cohabitaient par nécessité tout en préservant des frontières culturelles et opérationnelles.

Avec les nombreuses innovations technologiques auxquelles nous avons assisté ces dernières années et l’utilisation d’un grand nombre d’entre elles dans notre espace privé et familial la technologie s’est démocratisée. La technologie s’est ainsi rapprochée progressivement du business non plus seulement pour en assurer le support et la logistique mais pour y contribuer en créant de la valeur additionnelle et de la différentiation. On n’hésite plus à parler d’entreprises numériques.

Le 14 janvier 2015 , Axelle Lemaire a encore rappelé l’importance du numérique lors du Débat d’orientation pour la stratégie numérique de la France à l’Assemblée nationale.

Les entreprises deviennent des « entreprises de technologies » : En devenant des entreprises numériques, leur activité va dépendre de plus en plus de leur capacité d’utiliser les technologies pour réinventer leur business et leurs relations aux clients. Le Cloud, le Big Data et l’internet de l’objets sont  à ce titre exemplaires dans leur manière de modifier les modèles économiques existants et de participer à la création de nouveaux marchés.

Les espoirs sont immenses mais les défis à relever sont également considérables pour réussir la transformation numérique.

Les fournisseurs de l’IT doivent accompagner la transformation numérique: Les entreprises attendent de leurs fournisseurs technologiques qu’ils s’adaptent également pour s’associer à leurs efforts de transformation. La technologie n’est plus dissociée de l’activité de l’entreprise et les approches des constructeurs doivent intégrer plus fortement le composant business des entreprises en veillant si possible à ce que les solutions proposées aient un impact mesurable sur la valeur créée par l’entreprise.

.    

Le numérique nécessite la mise en place d’écosystèmes : Les solutions par ailleurs gagnent en complexité en cherchant à répondre à ces nouveaux besoins liés au numérique. Difficile pour un fournisseur de concevoir toutes les pièces du puzzle numérique. Des alliances nombreuses et variées sont donc nécessaires entre constructeurs, éditeurs et intégrateurs.

Cisco met en place des « centre de compétences » pour accompagner la transformation numérique :      Face à cette mutation, Cisco France, sous l’impulsion d’Eric Greffier, membre du comité de direction, adapte son organisation en créant une dizaine de centres de compétences (Skill Centers) dont les principaux objectifs sont de:

  • Développer des approches pour associer business et technologies
  • Présenter les solutions dans le contexte business du client
  • S’assurer que les clients vont pouvoir concrétiser leurs investissements
  • Proposer des fournitures de solutions et des facturations souples et adaptées

Ces centres de compétences sont constitués chacun d’une équipe polyvalente (consultants et commerciaux) qui va devoir maitriser tous les aspects du sujet qui lui est dévolu, développer des alliances appropriées et impliquer le réseau de partenaires Cisco. Chacun de ces centres pourra être amené collaborer avec un autre, les technologies interagissant de plus en plus entre elles

Les centres de compétences couvrent aujourd’hui :

  • Expérience employé
  • Expérience client
  • Expérience Cloud
  • Mobilité
  • Réseaux de nouvelle génération
  • Sécurité
  • Internet de l’objet et Internet of Everything
  • Applications d’entreprises
  • Big data et analytique
  • IT Hybride

Dans de prochains billets je fournirai un éclairage complémentaire sur certains de centres de compétences

Mots-clefs :, ,

Cisco Live 2015 à Milan : une participation en hausse

CiscoLive MilanComme chaque année, CiscoLive, le grand rendez-vous Européen des utilisateurs et partenaires  Cisco aura lieu la semaine du 26 Janvier à Milan.  Cette année l’évènement grandit encore et la fréquentation est en hausse :

  • plus de 8000 participants en provenance de 115 pays différents
  • 110 sponsors et exposants
  • 70 executives de Cisco présents pendant la semaine
  • 1800 employés Cisco

Cette édition 2015 s’annonce exceptionnelle pour la France avec une participation record : plus de 400 clients français feront le déplacement. Pour les accompagner durant la semaine,  plus de 60 employés de Cisco France seront sur place également. N’hésitez pas à vous rapprocher de votre contact commercial ou technique Cisco pour savoir s’ils seront présents et les solliciter pour vous aider à profiter au mieux de l’évènement. Il y a aussi un nombre significatif d’experts techniques francophones que vous pouvez rencontrer sur place.

Comme chaque année, plusieurs centaines de sessions sont proposées durant la semaine. Ces sessions sont majoritairement techniques, et couvrent tous les domaines, tous les marchés et toutes les technologies proposées par Cisco.

CLMilanLivePour ceux qui n’ont pas la chance d’y participer sur place, vous pouvez suivre en live les sessions suivantes en vous rendant sur cette page:

Jan 26:

  • Academy Day – over 10,000 students joining in the World’s largest classroom

Jan 27:

  • Opening Keynote by Carlos Dominguez, Cisco SVP, Office of the CEO & Jeremy Bevan, Cisco VP EMEAR Marketing
  • Enterprise Networks Technology Trend Keynote, Jeff Reed, Vice President, Enterprise Infrastructure and Solutions, Cisco
  • Internet of Things / Internet of Everything Technology Trend Keynote, Mike Flannagan – VP/GM, Cisco, Tony Shakib, VP, Cisco, Kip Compton – CTO, Cisco
  • Security Technology Trend Keynote, David Goeckeler – SVP, Cisco

Jan 28:

  • Collaboration Technology Trend Keynote, Rowan Trollope – SVP/GM Collaboration Technology Group, Cisco
  • Cloud Technology Trend Keynote, Gee Rittenhouse – SVP/GM, Cisco, Faiyaz, Shahpurwala – SVP, Cisco
  • Application Centric Infrastructure Technology Trend Keynote, Soni Jiandani – SVP, Corporate Marketing, INSBU, Insieme Networks, Cisco
  • Service Provider Technology Trend Keynote, David Ward – Chief Architect/CTO, Engineering, Cisco

Les présentations et certains enregistrements des sessions techniques seront également disponible ici peu de temps après CiscoLive.

Mots-clefs :