Cisco France Blog – Data Center

Cisco annonce un serveur octo-processeurs C880-M4 pour SAP HANA

C880A l’occasion de l’évènement SAP Teched&d-code qui se déroulait la semaine dernière à Las Vegas, Cisco a annoncé le C880-M4, un serveur octo-processeurs (8 sockets) pour SAP HANA. Ce serveur vient compléter la gamme des solutions Cisco UCS pour HANA qui je vous ai présenté ici. Les certifications HANA  disponibles pour ce serveur sont:

  • scale-up 2 TB RAM pour usage analytique (appliance et TDI)
  • scale-up 2TB ou 6 TB RAM pour Suite on HANA (appliance et TDI)

Pour ces configurations appliance scale-up, le serveur est fourni avec une (ou deux) baies de disques (JBOD) connectées directement sur un contrôleur RAID dans le serveur.

Cette annonce est une excellente nouvelle car ce serveur vient compléter la seule pièce qui manquait au catalogue des solutions Cisco UCS pour SAP HANA. Cisco dispose maintenant d’une gamme complète de solutions pour SAP HANA, couvrant toutes les tailles HANA et toutes les architectures possibles (scale-up, scale-out, appliance et TDI).

 

Mots-clefs :, ,

OpenStack: une avancée considérable en peu de temps.

La semaine prochaine débute l’OpenStack Summit à Paris (du 3 au 7 novembre 2014).  OpenStack est de plus en plus souvent évoqué il n’en demeure pas moins que l’histoire est relativement récente et que le sujet reste encore nébuleux pour beaucoup.

Je saisis l’occasion au moment de la sortie de Juno, la dixième version d’OpenSatck, de me replonger dans les bases d’OpenStack et de vous en faire profiter sur ce Blog.

Commençons par un peu d’histoire :

OpenStack c’est tout d’abord un projet Open Source démarré en été 2010 par l’hébergeur Rackspace et la NASA. OpenStack facts

Rackspace avait travaillé sur le projet de stockage qui a donné lieu au projet Swift , et la NASA avait contribué à un projet de contrôleur de serveur qui a pris par la suite le nom de Nova.

En 2012 la fondation OpenStack est créée, en tant qu’entité indépendante, afin de promouvoir le développement, la distribution et l’adoption de la plateforme OpenStack.

A ce jour on compte 16.999 membres appartenant à 145 pays et représentant 430 entreprises qui supporte l’initiative OpenStack. Plus de 20 millions de lignes de code ont été écrites.

Quel est le rôle d’ OpenStack ?OpenStack control

 Pour dire les choses simplement OpenStack est un logiciel open source destiné à créer des clouds privés et publics. Il est développé par un nombre de contributeurs très variés agissant à titre individuels ou au nom de leurs entreprises.

Le logiciel OpenStack permet de contrôler un pool important de ressources d’un Datacenter (serveurs, stockage et réseau) par l’intermédiaire d’un tableau de bord ou d‘une API OpenStack.

Si à l’origine OpenStack comportait deux composants (Swift et Nova) avec la version Juno on en compte 11 dans la version Juno.

Les composants d’OpenStack compris dans la dernière version.

 Les différentes composantes logicielles d’OpenStack jouent chacune leur rôle dans l’ensemble OpenStack avec en particulier un focus sur le « multi-tenant » et la « scalabilité » pour les ressources à la demande. Trois projets concernent à proprement parlé les ressources (Nova, Swift et Neutron), un constitue le tabeau de bord (Horizon) et le reste des projets offre des services partagés.

OpenStack Overview

Les 11 composants d’OpenStack version Juno :

  • NovaOpenStack Compute  : Contrôleur qui regroupe les ressources physiques de traitements (CPU, memoire, etc).  Nova fournit les API’s pour controler la planification à la demande des instances de traitements (par exemple des machines virtuelles) sur des technologies de virtualisation, du bare metal ou bien encore des technologies de containers.
  • SwiftOpenStack Object Storage : permet un stockage objet redundant et évolutif s’appuyant sur des clusters de serveurs standards.
  • CinderOpenStack Block Storage : offer des services de stockage persistant au niveau block, pour les instances de traitement OpenSatck, utilisant une variété de technologies de stockage par block.
  • GlanceOpenStack Image Service : permet la découverte, l’enregistrement et la fourniture de services pour les images disques et serveurs sous différents formats.
  •  NeutronOpenStack Networking: API pour administrer les réseaux et les addresses IP utilisées par les instances de traitements. L’API s’appuie sur différentes technologies traditionnelles. Elle permet des services de couches hautes comme VPN-as-a-Service, Firewall-as-a-Service, et Loadbalancing-as-a-Service.
  • KeystoneOpenStack Identity Service : Annuaire utilisateurs central, catalogue de services et la correlation des utilisateurs avec leurs droits d‘accès en utilisant par exemple LDAP ou Active Directory.
  • HorizonOpenStack Dashboard: Interface graphique pour les tenats et les administrateurs du Cloud. Il fournit une interface simple basée sur un navigateur pour les opérations quotidiennes telles que le provisionnement des instances et des réseaux ou pour verifier l’utilisation des ressources.
  • Ceilometer - OpenStack Telemetry : service qui aggrège les données d’utilisation et de performances sur l’ensemble des services déployés dans un cloud OpenStack. On dispose également de toutes les mesures nécessaires pour la facturation.
  • HeatOpenStack Orchestration : programme basé sur des templates qui permet aux développeurs d’applications d’orchestrer et d’automatiser le déploiement de ressources d’infrastructure dans un cloud OpenStack.
  • Trove - OpenStack Database Service : offre du provisionnement à la demande de bases de données relationnelles sans s’encombrer de tâches administratives complexes.
  • Sahara - OpenStack Data Processing : fournit du provisionnement à la demande et de l’évolution élastique de clusters Hadoop. .

OpenStack : de nombreux autres projets liés à OpenStack au travers de StackForge

En plus de ces 11 projets il y a beaucoup d’autres projets qui gravitent dans l’écosystème OpenStack. La majorité de ces autres projets peuvent être trouvé dans StackForge.  StackForge joue un role important dans la communauté OpenStack en fournissant un forum pour les projets relatifs à OpenStack. On peut ainsi collaborer et utiliser les mêmes outils de développement que ceux utiliser dans les projets directement intégrés à OpenStack.

On va trouver dans les projets StackForge :

  • des services en phase d’incubation (service de partage de fichiers Manilla ou projet de services DNS Designate)
  • des projets de gestion d’installation et de configuration ( projets Puppet et Chef OpenStack )
  • Le support d’APIs additionnels (projets d’API  GCE et  EC2 )
  • Des outils de benchmarking et de tests (Rally et CloudCafe)

Ceci n’est qu’un aperçu des projets StackForge et la liste complète peut être trouvée sur , StackForge mirror on GitHub.

Comme on le voit OpenStack est une initiative ambitieuse qui draine directement ou indirectement un nombre important de projets visant à couvrir tous les aspects du Cloud.

Des acteurs qui préparent leurs offres autour d’OpenStack.

Pour couronner le tout de nombreuses sociétés commencent, ou s’apprêtent, à proposer leurs offres OpenStack comme par exemple :

Et la liste ne s’arrête pas là..

Indéniablement OpenStack est en mouvement. A suivre donc avec attention.

 

Mots-clefs :,

Cloud: OutScale poursuit son développement outre-Atlantique avec des serveurs Cisco UCS

Le savoir-faire français en matière de Cloud n’hésite pas à rivaliser avec ses concurrents sur le territoire américain.

outscale logoOutScale n’est pas un nouveau venu dans le Cloud et déjà en 2011 Laurent Seror , son président, avait accepté lors d‘une présentation à la convention CRIP (voir le billet La société Outscale adopte la solution UCS et la présente à la convention du CRIP ) d’expliquer les choix technologiques qui l’avaient conduit à utiliser des serveurs UCS.

Un Cloud français avec des implantations internationales.

OutScale, avec son un Cloud implanté en France  permet déjà de rassurer les clients français qui désirent  avoir leurs données sur le sol français. Je rappelle que La loi ‘‘USA Patriot Act’’ permet à la NSA d’accéder librement aux données stockées ou administrées par des entreprises américaines du cloud et leur filiales à l’étranger, sans demander l’accord de leurs clients.

OutScale presence

Avec le deuxième point de présence New Yorkais, après Boston (voir le communiqué de presse du 21 octobre 2014) OutScale peut également proposer une offre de service IaaS concurrente crédible à celle d’Amazon pour les entreprises françaises, américaines et européennes qui ont besoin d’être hébergées aux Etats unis pour différentes raisons (proximité, performances, réglementation etc..). .

40 serveurs UCS et du stockage NetApp dans la nouvelle plateforme américaineOutscale Telx

La plateforme est déployée au sein du datacenter de référence TelX NJR3 certifié Tier3. Dix baies dédiées dans une cage privative et sécurisée protègent 40 serveurs Cisco et 1 Peta octets de stockage NetApp .

Un Cloud industriel puissant et sécurisé

Pour répondre aux exigences de qualité de service et de sécurité OutScale s’appuie sur son logiciel d’orchestration entièrement intégrée Tina OS version 2.3.1 et garantit la conformité et l’étanchéité du service, et ceci aux quatre coins du globe.

 

Lire aussi:  Infrastructure as a Service une affaire de spécialistes

Mots-clefs :, ,

Automatisation et orchestration d’infrastructure avec UCS Director (4/5)

C’est désormais une tradition (voir ces premiers posts: Introduction globaleMise en oeuvre et utilisation Day-1, Opérations en environnement hétérogène), nous poursuivons notre illustration au travers de vidéos de démonstration des différentes facettes de notre solution d’unification des infrastructures, UCS Director.

Au menu de ce post, l’automatisation de tâches sur les différents domaines d’infrastructure. L’orchestrateur d’UCS Director compte pas moins de 1200 tâches unitaires (!!) ainsi que différents workflows fournis en exemples (entre autres pour FlexPod, vBlock, vPlex ou encore RecoverPoint), que vous assemblez très naturellement pour réaliser des opérations complexes et de plus haut niveau. Il est alors possible d’utiliser ou de construire votre bibliothèque de procédures opérationnelles et même d’enrichir les actions possibles dans votre interface UCS Director!

Dans cette démonstration, nous abordons:

  • La création d’un workflow au moyen de la bibliothèque de tâches
  • L’enrichissement de l’interface d’opération au moyen de ce workflow
  • Le lancement de ce workflow via l’API REST par un système externe

Pour illustrer l’appel de workflows par l’API, j’utilise notre Orchestrateur Cisco Process Orchestrator (présent dans notre solution Intelligent Automation for Cloud et dans SAP ITPA by Cisco dont nous vous parlions en mars dernier). CPO dispose évidemment de connecteurs natifs vers UCS Director, mais j’utilise le connecteur Web standard (comme le ferait un autre orchestrateur) pour ne pas faire de magie :-) .

Nous conclurons cette série la semaine prochaine, avec l’interface Self-Service d’UCS Director!

Mots-clefs :, , , ,

Juno, dixième version OpenStack avec un accent sur le Big Data et NFV

la dixième version d’Openstack , Juno, a été annoncée par la fondation OpenStack. (voir l’annonce Juno)

Environ 342 améliorations ont été apportées et on peut noter la prise en compte du Big Data puisque OpenStack fonctionne à présent avec Hadoop et Spark . Ces services de traitement de Big Data sont accessibles au travers d ‘APIs et d’un portail web

Network Function Virtualization (NFV) fait également partie des améliorations. NFV représente une évolution importante dans la manière de développer et de déployer des services réseau. Déjà en mai une équipe de développement NFV avait été formée à l’OpenStack Summit et avait identifié 9 cas d’usages pour NFV dans des environnements OpenStack. Les premières fonctionnalités arrivent dans la version Juno et seront suivie par d’autres.

Cisco a participé activement à la Version Juno comme on peut le voir sur le graphe ci-dessous je renvoie au billet Cisco and OpenStack: Juno Release – Part 2 pour plus de détails.

Openstack contributions

A titre d’exemple je voudrais souligner  les contributions au projet Neutron et aux modules Puppet

Contributions au projet Neutron avec Application Centric Infrastructure ACI

Cisco a ajouté Application Polcy Infrastructure Controller (APIC) ML2 MD et  Layer 3 Service Plugin  au cycle de développement de Juno. Le  ML2 APIC MD transforme  les appels des APIs Neutron en requêtes spécifiques du modèle de données de l’APIC et réalise ainsi une isolation de niveau 2 des tenants jusqu’au End  Point Group (EPG).

Les modules Puppet pour les  services OpenStack  avec Cisco et RedHat:

Les utilisateurs recherchent toujours à simplifier la gestion et le déploiement d’OpenStack. Cisco a travaillé avec des clients, des partenaires pour améliorer les modules Puppet pour les services OpenStack et les intégrer avec les infrastrcutures Cisco. Récemment une collaboration avec RedHat a été annoncée, Cisco UCS Integrated Infrastructure, qui combine les technologies Cisco (serveur, commutation et administration) avec les technologies  Red Hat enterprise-grade OpenStack platform.

Cisco sera présent à L’OpenStack summit du 3 au 7 novembre à Paris.

Ne ratez pas l’occasion d’écouter nos experts lors de présentations ou de les rencontrer sur le stand Cisco.

Plus d‘informations sur le site www.cisco.com/go/openstack

Mots-clefs :, , ,

La virtualisation des Données : un atout pour l’IoE, le Cloud et le Big Data

90% des données créées depuis l’origine des temps l’ont été ces deux dernières années. Depuis 2010, avec la publication par the Economist de l’article « The Data deluge », tout le monde y compris le grand public est au courant de ce formidable accroissement du volume de données qui a donné lieu au terme Big Data (ou Mega données en français).

Avec le développement des objets connectés le phénomène, dont le nombre devrait atteindre les 50 milliards en 2020, va encore s’amplifier. Cisco utilise le terme de « Internet of Everything » (IoE) pour qualifier cette hyper connexion entre personnes, équipements, processus et données.

Les données ne se cantonnent plus, loin s’en faut, à un entrepôt de données. Les données se répartissent sur des environnements hybrides qui s’appuient sur des sites clients, des clouds privés et des clouds publics.

« Cisco Data Virtualization Suite » pour faire face aux défis du Cloud hybride, du Big Data et de l’IoE

Pour faire face à ces nouveaux défis Cisco a fait en juillet 2913 l’acquisition de Composite Software, le spécialiste de la virtualisation de la donnée. Cisco Data Virtualization suite est un logiciel d’intégration de données qui va permettre de connecter toutes les sortes de données sur l’ensemble du réseau et les faire apparaitre dans une vue consolidée comme si elles étaient en un seul endroit. Le Cisco Infromation Server est la fondation du Cisco Data Virtualization Suite. C’est une  serveur basé sur Java. Il va accédé aux données d emanière non invasive et fédérer les données.

Les organisations vont pouvoir ainsi puiser dans ce pool de données et en tirer parti de manière stratégique pour surveiller les sentiments et les comportements des clients, identifier des nouveaux segments de marchés et anticiper des transitions de marché.

La virtualisation de données devrait représenter un atout supplémentaire pour l’IoE, le Cloud et le Big Data.

Cisco Information Server 7.0 , une nouvelle version encore améliorée

Ce mois-ci l’offre de virtualisation de données « Cisco Information Server » CIS a donné lieu a la nouvelle version  CIS 7.0 qui va encore accroitre l’audience de ce produit en prenant en compte des déploiements plus grands et plus complexes et en intégrant plus de sources de données

CIServer

Parmi les améliorations du Cisco Information Server CIS 7.0 on va trouver.

Business Directory: Une passerelle de données en libre-service pour le Businessbusiness directory

En utilisant les outils de business intelligence bien connus comme Qliktech, Spotfire et Tableau les utilisateurs des départements métiers sont devenus des adeptes de l’analyse et de la visualisation des données sans l’aide de la direction informatique.

Malgré tout trouver l’information et y accéder reste un challenge considérable. C’est ici qu’intervient CIS 7.0

Avec la Business Directory de CIS 7.0 l’utilisateur bénéficie de techniques de catégorisation et de recherche pour trouver rapidement la donnée qu’il recherche.

Cette Business Directory .facilite la coopération entre direction informatique et directions métiers. L’IT fournit des données sélectionnées et fiables aux métiers. Les métiers exploitent ces données pour créer de la valeur.

Connecter et contrôler globalement les données

Les données utilisables par une entreprise étant largement distribuées le Deployment Manager de CIS 7.0 a été amélioré pour simplifier la gestion dans des environnements importants et complexes et offrir de la scalabilité

Plus de sources de données pour de meilleures analyses

La nouvelle version de CIS offre un Data Source Software Development Kit (SDK) pour accélérer le développement d’adaptateurs de données. En utilisant ce SDK , les intégrateurs et les clients peuvent développer rapidement des adaptateurs pour prendre en compte de nouvelles sources de données.

 

A lire également Data Virtualization Overview

Mots-clefs :, , ,

Cisco présent à l’OpenStack Summit du 3 au 7 novembre à Paris

L’OpenStack Summit se déroulera au Palais des Congrès à Paris du 3 au 7 Novembre.

Openstack summit 2014

Cisco est engagé dans OpenStack et c’est donc tout naturellement qu’il sera sponsor de l’évènement.

Un évènement à ne pas rater pour comprendre la place que prendra Openstack dans l’univers du Cloud et se faire sa propre opinion. Encore récemment Cisco a fait l’acquisition de Metacloud permettant d‘offrir de l’Openstack as a service. Voir l’annonce Cisco acquire Metacloud

Si vous l’avez l’opportunité de participer voici quelques éléments qui vous permettront de mieux comprendre la stratégie et l’offre de Cisco concernant Openstack

Intervention de Lew Tucker Vice President Cisco et CTO cloud

Son intervention ,“A World of Many (OpenStack) Clouds” , qui aura lieu le 5 novembre à 13h50, expliquera comment Cisco travail avec les operateurs de services et les entreprises pour créer un monde de clouds interconnectés. Vous apprendrez par la même occasion comment Cisco offre une plus forte automatisation , de la programmmabilité et de l’ouverture pour les infrastrcuture IT afin de supporter la nouvelle génération de Clouds.

Des spécialistes Cisco à votre disposition sur le stand #C3

Profitez en, des spécialistes Cisco seront à votre isposition pour répondre à toutes vos question et dérouler des démonstrations sur :

-OpenStack Networking utilisant Cisco CSR et Nexus

-L’infrastructure Cisco UCS Integrated avec la plateforme Red Hat OpenStack

-Les politiques « Group-Based » pour le déploiement de cloud

-Cisco UCS Bare-Metal-as-a-Service Cloud

Differentes sessions pour couvrir tous les aspects

  • Session : Group Base Policy extension for Networking. Cette session aura lieu le 3 nov à 16h2O et sera présentée par Sumit Naiksatam, Principal Engineer, Cisco
  • Session : Deploying and Auto-Scaling Applications on OpenStack with Heat. Présentation le 4 novembre à 11h15 par Daneyon Hansen, Software Engineer, Cisco
  • Panel de discussion: OpenStack Design Guide.Le 4 novembre à 14h avec la presence de: Maish Saidel-Keesing, Platform Architect, Cisco Video Technologies
  • Panel Discussion: Tips and Tools for Building a Successful OpenStack Group Mardi 04 Novembre à 14h50 avec  Shannon McFarland, Principal Engineer et Mark T. Voelker, Technical Lead; Cisco
  • Session : Using Ceilometer Data to Detect Fraud in the OpenStack Cluster. Mercredi 5 novembre à  9h50 avec Debojyoti Dutta, et Marc Solanas Tarre, Principal Engineers, Cisco
  • Session: Under the Hood with Nova, Libvirt and KVM (deuxième partie). Mercredi 5 Novembre à 9h50 par Rafi Khardalian, CTO, Metacloud/Cisco
  • Session: Scaling OpenStack Services: The Pre-TripleO Service Cloud. Mercredi 5 Novembre à 16h30 avec Kevin Bringard et Richard Maynard Technical Leads, Cisco

Soirée avec RedHat :  Mercredi 5 Novembre de 20h à 2h du matin Chaque participant qui aura réalisé le concours de rallye des stands Cisco et RedHat (instructions sur place) recevra un ticket d’invitation pour une soirée mémorable …

 

Lire aussi :

ACI et Openstack: Des infrastructures DataCenter prêtes pour les enjeux du Cloud

Faciliter la mise en production d’OpenStack avec Cisco et RedHat

Mots-clefs :

Provisioning unifié en action, multi-hyperviseurs, multi-constructeurs avec UCS Director! (3/5)

Je suis sûr que vous êtes désormais impatients de suivre ce nouvel épisode de notre série de vidéos consacrée à notre solution d’unification de l’infrastructure UCS Director, série entamée par la présentation générale de la solution et sa mise en place pour une utilisation immédiate.

Cette semaine, nous allons faire le tour des opérations quotidiennes sur votre infrastructure. Au menu, diverses opérations représentatives sur notre laboratoire de démonstration d’Issy-les-Moulineaux:

  • L’infrastructure virtuelle VMware et Hyper-V (nous supportons également RedHat Enterprise Virtualization sur KVM)
  • Les serveurs avec les Services Profiles et autres policies d’UCS Manager
  • Le stockage avec NetApp et EMC
  • Le réseau LAN Physique et Virtuel (avec le Nexus 1000v)
  • Le réseau SAN FC & convergé FCoE
  • Et bien sur, l’API REST, dont l’utilisation est grandement simplifiée grâce à l’outil de génération intégré des appels

J’en profite pour pointer la matrice compatibilité avec les solutions de virtualisation, serveurs, équipements réseaux et services IP (dont Cisco et F5) et stockage (Cisco Invicta, EMC et NetApp) incluant des solutions de réplication et PRA.

Vous pourrez constater par vous même la simplification apportée à la consommation des ressources d’infrastructure et d’autant plus en environnement hétérogène. En effet, on peut trouver différentes filières technologiques (pour différentes raisons) qui induisent une surcharge d’exploitation liée à la maitrise des différents environnements, ce qui est souvent largement sous-estimé…

Rendez vous est pris pour le prochain épisode: l’automatisation et l’orchestration de votre infrastructure avec UCS Director!

Mots-clefs :, , , , , , , ,

Le Big Data porté par la transformation numérique

(Cet article est paru sous le titre Pourquoi la croissance du Big Data est liée à la transformation numérique)

La presse s’est emparée du sujet du Big Data depuis la fameuse publication en 2010 de la revue The Economist, titrant “The Data deluge“.

Depuis plus moyen d’y échapper. Le Big Data va transformer les entreprises et par la même occasion notre quotidien. Les écoles de commerces et d’ingénieurs adaptent leurs cursus pour former les « datascientists », ces fameux talents indispensables pour créer de la valeur à partir des données.

Car c’est bien de données dont on parle et d’une nouvelle manière d’aborder le fonctionnement de l’entreprise en se concentrant sur les données avant les processus.

En 1944 la croissance des données étaient identifiée

Si déjà en 1944 le bibliothécaire universitaire Fremont Rider s’était inquiété de lacroissance du flux des bibliothèques universitaires nord-américaines dont il prédisait un doublement tous les 16 ans, aujourd’hui l’enjeu est tout autre. Enseulement deux ans nous avons produit près de 90 % de toutes les données crées dans le monde entier depuis l’origine et pourtant seulement 1% de ces données est réellement exploité.

A la belle époque des entrepôts de données les banques, les opérateurs télécoms et la grande distribution cherchaient déjà à exploiter les données afin de mieux connaitre le comportement de leurs clients pour mieux les fidéliser. On était déjà alors confrontés à la gestion de grandes bases de données relationnelles.

Alors qu’est ce qui a changé pour que le Big Data arrive sur le devant de la scène et s’invite même au journal du 20h ?

Les innovations technologiques ont bouleversé l’ordre établi. Bigdata evol tech

Infrastructures performantes, internet, mobilité, GPS, Wi-Fi, réseaux sociaux, RFID, Beacon, objets connectés etc… Toutes ces innovations s’associent pour modifier considérablement :

  • Les modèles économiques
  • Le comportement des utilisateurs/consommateurs
  • Les sources de données

La globalisation amplifie encore ces phénomènes avec à présent des géants chinois du e-commerce comme Alibaba qui viennent concurrencer les géants américains du e-commerce ou un NetFlix qui remet en cause des modèles économiques. .Plus aucun acteur quelle que soit sa taille n’est à l’abri d’un retournement. De nouveaux acteurs surgissent rapidement et la mondialisation pèse sur la compétition. Plus que jamais les entreprises doivent se transformer et se réinventer pour gagner en compétitivité et créer de la valeur de manière différente.

La matière première est devenue la donnée, la valoriser et la monétiser sont les enjeux d’aujourd’hui.

Toutes les nouvelles sources de données sont autant d’informations qui vont venir enrichir les bases de données traditionnelles.

La mobilité, les smartphones et les applications mobiles ont révolutionnés le comportement des consommateurs. Il s’agit grâce au Big data de pouvoir interagir en temps réel avec l’internaute sur son parcours d’achat quel que soit le canal et l’équipement (PC, smartphone, tablette) utilisés. Mais cela ne s’arrête pas là certaines marques comme Heineken veulent également s’ancrer dans le quotidien des consommateurs en augmentant l’expérience utilisateur lors d’évènements sportifs par exemple.

L’enjeu du Big Data est la création de la valeur et de nouveaux services à partir de ces gisements d’informations.

Nous n’en sommes qu’au début, le Big Data, de la même manière que le numérique, s’adresse à tous les domaines de l’entreprise et à tous les secteurs d’activité .Les cas d’usage sont déjà nombreux et l’engouement des objets connectés et des applications associées ne va faire qu’accélérer l’augmentation du volume de données et le potentiel de services à créer.

Connaissance à 360° des clients, réduction des coûts, optimisation des processus, réduction des risques, sécurité, amélioration de la santé et quantité de nouveaux services profitent déjà du Big data

Une voiture connectée utilise à elle seule près de 1500 capteurs qui transmettent des informations toutes les minutes. Lors ‘un vol d’avion on enregistre prêt d’un téraoctets de données pour prévenir panne et incidents et agir préventivement sur la maintenance de manière plus efficace. L’être humain, déjà hyper connecté avec son smartphone va continuer à s’équiper de capteurs à son domicile ou dans ses vêtements pour alimenter des sources d’informations de tous genre.

Dans un billet intitulé quelles applications concrètes pour le big data , Nicolas Glady propose une manière intéressante de classer les applications du Big Data déclinée selon ces deux axes : (1) la nature du réseau, de machines ou d’humain, et (2) la proximité de la solution avec l’utilisateur final, avant-plan ou arrière-plan.

Plus de données moins de certitudes ? Big Data Certitudes

Certains n’hésitent pas à parler du big data comme d’un nouvel Elorado, attention toutefois à rester vigilant. Ce n’est pas pour rien qu’aux trois premiers V (Volume, Variété et Vélocité) caractérisant le Big Data on associe également le V de véracité. En enrichissant les données précises contenues dans les bases de données par des données extérieures à l’entreprise et en utilisant des outils statistiques le degré de certitude diminue.

Qualité des données en entrée, qualité des algorithmes et des hypothèses sont capitales dans l’analyse prédictive. Au-delà des plateformes technologiques, les nouvelles compétences comme celles des fameux datascientists pourront être déterminantes pour la réalisation de cas d’usage efficace.

Lire également:

Pour voir les offres de Cisco dans le domaine du Big Data cliquer ICI

@ericdebray

Mots-clefs :,

Raisons du succès des infrastructures convergées: entretien avec VCE

Les infrastructures convergées ont le vent en poupe à en croire les rapports des différents analystes. Le besoin de rationalisation et d’industrialisation n’y est sans doute pas étranger.

Rançon du succès, aujourd’hui beaucoup de solutions prônent la convergence et il n’est pas toujours aisé de saisir les différences non seulement technologiques mais également dans la conception même de chaque solution.

J’ai eu le plaisir de rencontrer Fabien Schvartz, responsable commerciale Europe du Sud pour  VCE qui a bien voulu répondre à mes questions. En espérant que cela contribuera à mieux comprendre l’intérêt d’une solution convergée je vous laisse regarder cet entretien sous forme de vidéo.

Mots-clefs :

UCS Director: Aussitôt déployé, aussitôt utilisé! (2/5)

Nous lancions la semaine dernière notre série de billets sur notre solution de provisioning unifiée de l’infrastructure UCS Director avec une vidéo de présentation générale, explicitant son usage global.

Cette semaine, nous allons entrer dans le vif du sujet avec la première étape, le déploiement d’UCS Director sur une infrastructure. Cette vidéo de démonstration présente:

  • La mise en oeuvre de la solution à base d’appliances virtuelles, disponibles sur vSphere ou Hyper-V
  • La déclaration de votre infrastructure: Virtualisation, Serveurs, Réseau et Stockage
  • L’immédiat inventaire de vos ressources d’infrastructure physique et virtuelle
  • L’API REST d’une prise en main aisée, donnant accès à ces données, pour vos outils et orchestrateurs existants

Vous pourrez constater la simplicité de mise oeuvre et l’unification apportée dans un environnement existant. Il est en effet possible de déployer UCS Director dès le début, par exemple lors de la mise en oeuvre d’un nouveau POD convergé, ou encore de le mettre en oeuvre sur votre infrastructure de Production.

Le « patching » pour apporter de nouvelles fonctions est tout aussi simple, au moyen du « shellmenu ». Ce « shellmenu » d’administration vous permet, entre autres, de sauvegarder la BDD d’UCS Director et d’appliquer automatiquement les mises à jour en pointant simplement l’URL du patch sur un dépôt HTTP ou FTP, UCS Director s’occupe de tout! Ainsi, vous pouvez profiter rapidement des avancées: par exemple, nous sommes passés de plus de 1000 à plus de 1200 tâches d’automatisation entre la version 5.0 et 5.1!

La semaine prochaine, nous illustrerons l’opération d’une infrastructure multi-hyperviseurs et multi-constructeurs.

Mots-clefs :, , , ,

F5 et Cisco collaborent à une sécurité plus efficace

Durant les Assises de la Sécurité qui se déroulaient la semaine dernière à Monaco il a souvent été répété qu’il n’existait pas de produit miracle. Il est crucial de connaitre les limites des produits de sécurité utilisés afin de ne pas surestimer les défenses mises en place.

En matière de sécurité il faut faire preuve d’humilité et ne jamais considérer les mesures de protections comme définitives. Les architectures doivent pouvoir s’adapter en permanence en corrélant des évènements de sécurité en temps réel.

Ces architectures doivent également être ouvertes pour accueillir de manière cohérente des produits d’un même fournisseur mais également d’autres fournisseurs.

F5 logoF5 et Cisco accélerent ensemble le traitement des évenements de sécuritéPierre et Cyrille

C’est ce qu’illustre le partenariat entre F5 et Cisco comme cela a été évoqué lors d’un échange aux Assises de la sécurité entre Pierre Castelnau, Country manager de F5 France,  et Cyrille Badeau Directeur Europe du Sud Cisco Sécurité.

Une architecture de déploiement a été conjointement développée par F5 et Cisco. Cette architecture aide les clients à adresser, tout en maintenant les performances optimales, les risques associés aux vulnérabilités en sécurisant les réseaux critiques, les applications et les points de terminaison.

L’architecture va bien au-delà des services traditionnels tels que visibilité SSL ou gestion intelligente du trafic. Elle offre également des possibilités de « remédiation » intégrées.

Un moteur de corrélation dans le centre d’administration Cisco FireSIGHT permet aux utilisateurs de configurer une variété d’actions en réponse aux événements provenant du Next-generation Intrusion Prevention System (NGIPS) et de l’AMP (Advanced Malware protection) de Cisco.

Les évènements et les corrélations réalisés, des règles pertinentes sont automatiquement configurées sur le système F5 BIG-IP pour renforcer intelligemment le contrôle sur les flux et les connexions.

Une architecture de référence commune

Pour rendre plus simple l’intégration F5 et Cisco ont défini et validé ensemble une architecture de référence avec le produit BIG-IP LTM et le Cisco NGIPS

 

A lire également: Une solution F5-Cisco pour automatiser, avec ACI, les services réseaux nécessaires à une application 

Mots-clefs :, , , ,

Martin Roesch, VP Cisco sécurité, clôture « Les Assises de la sécurité »

pouppard presLes Assises de la Sécurité avaient débuté avec Guillaume Poupard Directeur Général de Agence nationale de la sécurité des systèmes d’information (ANSSI ).

La cybersécurité représente 40.000 emplois en France et est l’un des 34 plans « pour une France industrielle » publiés par le ministère de l’économie. Le sujet est donc d‘importance et G.Poupard a rappelé que la France était le premier pays à disposer, dans le domaine de la Cybersécurité, d’une démarche réglementaire forte.

Cela concerne bien évidemment les infrastructures de l’état mais également toutes les entreprises qui concourent à la souveraineté et à l’économie de la France et qu’on appelle les OIV (Opérateurs d’Importance Vitale). C’est dans ce cadre que l’ANSSI participe à la définition de nouvelles règles réglementaires telles que précisées dans l’article 22 de la loi de programmation militaire (LPM) votée en décembre 2013.

(lire également Quelle sécurité pour les OIV et Data Centers ?)

Guillaume Poupard entend bien associer tous les acteurs concernés, publics et privés, dans une démarche collaborative indispensable pour être efficace face à la sophistication des menaces. Etre capable de détecter ces nouvelles formes de menaces est une des priorités pour Guillaume Poupard.

Une approche centrée sur la menace : c’était justement le thème de l’intervention de Martin Roesch de Cisco en clôture des Assises de la sécurité. La boucle était bouclée.

Martin Roesch un expert reconnu dans le monde de la Sécurité Martin Snort

Martin Roesch, que j’ai eu le plaisir de rencontrer aux Assises, fait autorité dans le domaine de la sécurité . Il est le créateur de SNORT, le système de détection et de prévention des intrusions dont le symbole graphique, un cochon « renifleur », jouit d’une forte notoriété dans le monde open source.

En 2001 il crée la société SourceFire qui par la suite est racheté par Cisco en 2013 complétant ainsi sa gamme.Martin Roesch avec SourceFire a apporté à Cisco sa vision de la sécurité centrée sur la menace. Il d‘ailleurs souligné l’importance de ces nouvelles menaces en illustrant son exposé de faits précis tirés du rapport « Cisco 2014 Mid Year Security report »

Avec Martin Roesch c’est un nouveau modèle de sécurité qui est proposé, centré sur la menace, présent à toutes les étapes, avant, pendant et après la menace. Voir le billet

Martin benefits

SourceFire Cisco :Une Intégration réussie

L’intégration de SourceFire n’aura pas tardé a porter ses fruits car tout récemment Cisco annonçait le FireWall de nouvelle génération associant une plateforme ASA avec, entre autre, le Next generation IPS et l’ Advanced Malware Protection (AMP).

La keynote de Martin est également disponible sur Youtube

Mots-clefs :, , ,

La sécurité peut s’appuyer sur la certification ISO 27001

Les Assises de la sécurité sont l’occasion de vraiment se faire peur !! Activisme, Cybercriminalité, cyberespionnage, Cyberguerre …..

Stand Cisco secuateliers assises

Chacun y va, et c’est justifié, de son couplet sur les risques, les menaces et surtout sur les conséquences toutes plus catastrophiques les unes que les autres. Heureusement, passée la crise d’angoisse, les intervenants évoquent les réponses. Des réponses qui reposent sur compréhension, stratégie, technologie et méthodologie.

Comprendre le principe des nouvelles menaces

On ne combat bien que ce que l’on connait bien et c’est bien là que le bât blesse. Les attaques prennent diverses formes, s’adaptent, se modifient et pour finir laissent la place à de nouvelles menaces toujours plus sophistiquées.

C’est une course de vitesse entre la menace et la défense. Pour la gagner il faut engranger toutes les connaissances qui peuvent l’être sur l’environnement et son contexte, constituer une base de connaissance intelligente mise à jour constamment et partagée entre tous les outils de sécurité.

La sécurité est une perpétuelle remise en cause, impossible de tout prévoir. Il faut donc des systèmes extrêmement réactifs et évolutif.

Des technologies qui doivent collaborer pour assurer une défense plus efficace

Les technologies sont bien sur clé dans la mise en place d’une stratégie de sécurité mais ne sont pas suffisantes. On voit aujourd’hui une évolution d’équipements spécialisés vers de nouveaux modèles de sécurité basés sur des plateformes évolutives et ouvertes qui limitnte la complexité et les risques de failles associées.

La sécurité demande avant tout de la rigueur et de la méthode et des certifications existent pour y aider

Des certifications pour garantir l’application des principes de sécurité

Avoir recours à une norme est un moyen volontaire qui s’inscrit dans la durée pour tendre à un objectif de performance, de développement et de prévention du risque.

Pour décrire les exigences de la mise en place d’un Système de Management et de Sécurité de l’Information(SMSI),  autour des principes de disponibilité, d’intégrité et de confidentialité, la certification ISO 27001 (remise à jour en 2013) est indiscutablement très utile. S’ajoutent à cette certification des obligations dictées par les auditeurs experts selon l’activité, l’équipement et la taille de l’entreprise contrôlée.

ISO 27001 historique

La norme ISO 27001 ne certifie pas un niveau de sécurité, mais la manière de gérer la sécurité

Le fournisseur de Cloud OutScale obtient la certification ISO 27001-2013

OutScale se positionne en Europe comme l’une des premières entreprises spécialisées dans le Cloud à détenir la norme la plus aboutie en matière de sécurisation des données.

A l’occasion de l’annonce ce 2 octobre 2014 de la certification par OutScale , Matthieu Bouthors Responsable de l’étude pour la qualité et la sécurité chez Outscale explique que « La sécurisation des données ne consiste pas seulement à renforcer ses équipements ou à répondre favorablement à une liste d’exigences, les menaces contre les flux de données auxquelles sont exposées les entreprises sont en perpétuelle évolution. Il s’agit d’adapter nos méthodes de travail et nos services pour une surveillance constante et minutieuse ».

outscale BSI

Outscale a souhaité également que BSI (en charge de réaliser l’audit d’OutScale) renforce son audit par une exigence de traçabilité des données transitant sur son Cloud. Cette démarche répond au besoin de plus en plus important des entreprises utilisatrices de services de Cloud, de contrôler à tout moment leurs flux de données.

 

 

 

Mots-clefs :, , ,

Gestion unifiée des infrastructures avec UCS Director en 5 épisodes

La gestion unifiée des infrastructures Data Center et l’automatisation des taches d’administration sont des éléments essentiels dans l’évolution vers le Cloud.  Cisco répond à ces besoins avec la solution UCS Director dont nous vous parlons régulièrement (ici, et ).

Une bonne solution de provisioning d’infrastructure doit présenter diverses qualités pour être pertinent en production:

  • Stack InfrastructureEtre simple et rapide à mettre en oeuvre pour en tirer immédiatement les bénéfices, et ce dans la lignée du succès des infrastructures convergées
  • Présenter une vision consolidée des resources en unifiant une stratégie multi-hyperviseurs et multi-constructeurs
  • Proposer une experience utilisateur consistante, pour permettre aux administrateurs de ne pas gaspiller leur polyvalence dans la maitrise d’outils hétérogènes
  • Automatiser les tâches récurrentes, en faisant en sorte que la création d’un workflow soit aussi rapide et naturelle que l’execution d’une procédure, et que son execution apporte gain de temps et de qualité
  • Permettre de proposer un catalogue d’actions simples dans leur utilisation et mise à disposition, mais fastidieuses ou complexes dans leur réalisation manuelle (VMs, Workflows de provisioning physique, réseau de bout en bout…)
  • Publier une API, simple d’utilisation (et ne nécessitant pas la lecture de 300 pages de Developer Guide…) pour mettre à disposition des outils d’orchestration et autres suites IT ces même aspects

Une série de vidéos pour toucher du doigt

Comme rien ne vaut une démonstration pour voir en action comment UCS Director se propose de répondre à ces enjeux, nous avons réalisé une petite série de vidéos disponibles sur YouTube qui expliquent les fonctions principales de UCS Director.

Nous commençons cette semaine avec cette video d’introduction globale au produit, afin de bien positionner les différents aspects d’UCS Director. Viendront ensuite 4 autres vidéos qui mettront UCS Director en situation.

La suite au prochain épisode!

Mots-clefs :, , , ,

Firewall de nouvelle génération : utile pour protéger les données et les applications de nos datacenters

Dans un précédent billet, Disponibilité et confidentialité des DataCenters : la sécurité doit être prise en compte, j’expliquai qu’une grande majorité des cibles et des attaques se trouvait dans les DataCenters.  Heureusement les solutions évoluent pour tenir compte des attaques de plus en plus élaborées.

Gartner prédisait, il y a environ 18 mois, que les nouvelles générations de firewall devraient intégrer une gestion complète de la menace ainsi qu’une nouvelle génération d’IPS (Intrusion Protection  System).  Voici qui est fait avec le Firewall de nouvelle génération de Cisco sans doute le plus abouti du marché à ce jour.

Des menaces qui se jouent des protections classiques

Les menaces se sont adaptées aux moyens de protection traditionnels. Elles avancent à présent masquées. Les attaques sont véhiculées au travers d’applications licites et autorisées qui ne permettent plus à un control applicatif d’être efficace à lui tout seul.

Un exemple ? Quand un pirate informatique cherche à récupérer des données, il va envoyer un mail de « phishing »  autorisé  ou utiliser une application autorisée pour rentrer dans le système et avoir accès aux données. Pour exfiltrer les données il va ensuite utiliser des flux autorisés comme HTTPS ou  SSH par exemple. On comprend donc que les contrôles protocolaires et applicatifs ne sont plus suffisants. Aujourd’hui pour répondre efficacement aux menaces (avant, pendant et après l’attaque) on doit être capable d’acquérir une connaissance de la menace et du contexte et corréler un certain nombre d’évènements de sécurité.

  Cisco ASA avec les services FirePower Firewall de nouvelle génération: A présent les firewalls ASA bénéficient de la prévention d’intrusion (IPS) de nouvelle génération et des protections avancées  contre les malwares (AMP).

NGFW

Les objectifs de ce Firewall de nouvelle génération sont clairement affichés : se focaliser sur la menace et apporter une visibilité la plus complète possible sur ce qui se passe dans le réseau et sur le contexte. Le tout basé sur une plateforme unique :

- Axé sur la visibilité :

  •  connaissance du contexte complète des utilisateurs, des périphériques mobiles, des applications côté client, des communications machine-to-machine virtuelles, des vulnérabilités, des menaces, des adresses URL, etc.
  • tableaux de bord et rapports détaillés sur les hôtes découverts, les applications suspectes, les menaces et des indicateurs de compromission pour une visibilité complète.

- Centré sur la menace :

  • Intégration du principal NGIPS du marché pour une protection complète contre les menaces connues et ciblées
  •  Intégration d’Avanced Malware Protection ( AMP) pour lutter contre les attaques zero-day et les menaces persistantes.
  • Analyses des données (Big Data) analyse en continu et Cisco Collective Security Intelligence (CSI). Ces fonctions travaillent ensemble pour assurer les fonctionnalités de détection, de blocage, de suivi, d’analyse et de remise en état du réseau pour protéger l’entreprise contre le spectre complet des attaques, connues et inconnues.

- Basé sur une plateforme unique :

  • Cisco ASA avec la technologie FirePOWER associe, dans un seul outil, des fonctionnalités de firewall et de contrôle applicatif, des fonctionnalités NGIPS, de détection des menaces ciblées et de remise en état du réseau.

Pour arriver à cette nouvelle génération Cisco n’a pas hésité à racheter l’année dernière SourceFire, un spécialiste du domaine.  Cette acquisition a permis rapidement de combiner la robustesse et la performance des équipements de firewall ASA avec la richesse des services FirePower de SourceFire.

 Les entreprises peuvent profiter des avantages de l’introduction de cette technologie de deux façons :

  • Cisco ASA avec la technologie FirePOWER : les clients peuvent acheter les firewalls ASA 5500-X Series et ASA 5585-X Series avec une licence FirePOWER,
  • FirePOWER pour Cisco ASA : les clients peuvent activer la technologie FirePOWER sur les firewalls ASA 5500-X Series et ASA 5585-X Series existants.

Pour plus d’information lire la fiche produit

 

 

Mots-clefs :, , ,

Disponibilité et confidentialité des DataCenters : la sécurité doit être prise en compte

Mercredi  1 octobre  débutent  les assises de la sécurité à Monaco. De nombreux sujets seront traités par Cisco , en séance plénière ou dans des ateliers , qui approfondiront  les thèmes que j’évoque rapidement ci-dessous. (pensez à vous inscrire aux ateliers) . Martin Roesch, VP et Architecte en chef pour la sécurité de Cisco, présentera la vision de Cisco sur le paysage actuel des menaces lors d’une keynote, le vendredi 3 octobre à 15h00.

.                                                                             * * * * *

Les DataCenters concentrant toute la puissance informatique, ils sont devenus les centres névralgiques de nos entreprises et de notre économie et la cible des menaces. Ces menaces peuvent soit mettre en jeu leur disponibilité soit mettre à mal la confidentialité et l’intégrité des données. L’importance de la  sécurité doit donc être comprise par toutes les équipes. Garantir la continuité de services impose de prendre en compte la cybercriminalité de la même manière que l’on cherche à se prémunir des incidents, des pannes ou des sinistres. Une grande partie des cibles des attaques sont dans le DataCenter comme le montre le rapport Data Breach 2013 de Verizon.

secu verizon 2

Une cybercriminalité sophistiquée et pernicieuse

Chaque médaille a son revers.  L’évolution de notre société vers un monde numérique améliore notre mode vie en apportant de nouveaux services. Malheureusement cette évolution s’accompagne inéluctablement d’une  cybercriminalité accrue.  Cette criminalité n’a plus rien à voir avec celle que nous connaissions il y a une dizaine d’années. Elle s’est modernisée et sophistiquée.  Elle peut gravement perturber le fonctionnement de grandes organisations et s’attaquer à des infrastructures au niveau national et international.

Des codes malveillants peuvent se dissimuler dans des pages web ou attendre  patiemment dans le but de collecter de nombreuses informations  pour  resurgir ensuite  n’importe où.  Selon certaines études près d’un tiers du trafic internet est suspect  (spam, kacking, scraping..)  !!!

Il y a longtemps que la cybercriminalité a quitté l’artisanat pour s’industrialiser.

Vous avez sans doute déjà expérimenté à titre personnel, tout comme moi, des tentatives de piratage :  Un email (piraté) d’un de vos proches qui bizarrement se trouve sans argent à l’autre bout du monde, le compte twitter (piraté) d’un ami  qui vous informe que des rumeurs circulent sur vous sur internet, une écran qui s’affiche sur votre PC et réclame un versement d’argent pour débloquer votre PC…..   En général les nombreuses fautes d’orthographe permettent de se rendre compte de l’arnaque.

A l’échelle d’une entreprise les dommages sont sans commune mesure et peuvent être catastrophiques.  La cybercriminalité d’aujourd’hui impose de revoir les approches sécuritaires.

Les approches traditionnelles montrent leurs limites. En général elles s’appuient sur un assemblage de solutions technologique qui augmente la complexité (et par conséquent le risque de failles) et freine l’évolutivité nécessaire pour s’adapter aux menaces qui elles ne manquent ni d’ingéniosité ni d’agilité.

Le nouveau modèle de sécurité doit être global et s’attaquer aux menaces avec une continuité dans le temps.

Avant : La qualité et l’efficacité des politiques et du contrôle de sécurité vont dépendre du niveau  de visibilité de l’équipe sécurité sur l’environnement et sur les évènements qui s’y produisent.

Pendant : En permanence le modèle de sécurité doit être capable de détecter les actes de malveillances et les bloquer.

Après : Le travail ne se limite pas à bloquer l’attaque il faut ensuite comprendre quelle faille elle a utilisée, déterminer son périmètre de nuisance et éviter qu’elle puisse se propager d’avantage directement ou indirectement.

Trois impératifs à prendre en compte pour être à la hauteur des menaces d’aujourd’hui

secu portfolio

Le  modèle de sécurité proposé par Cisco entend répondre à 3 impératifs :

1- Une visibilité accrue pour disposer des informations les plus complètes sur  tous les équipements (réseau, mobiles, environnements virtuels, cloud) et sur  les menaces. Ces  informations sont corrélées et exploitées pour comprendre le contexte et prendre les décisions appropriées. Les actions adéquates sont déclenchées  en conséquence soit manuellement soit de manière automatique.

2- Un focus sur la menace pour offrir le moins de prise possible aux attaques.  La mise en œuvre politique de sécurité et de contrôles est bien sur nécessaire mais cela ne supprime pas la menace. Le modèle de sécurité se  concentre sur la menace elle-même pour  la détecter, la comprendre et la bloquer. L’analyse est continue et s’effectue en temps réel.  L’ensemble des fonctions concourant à la sécurité se partagent les informations et constitue une intelligence collective qui augmente  l’efficacité.

3- Une Plateforme de sécurité unique, ouverte et évolutive La solution de sécurité ne limite plus à un type d’équipement. Elle se présente sous  la forme d’une plateforme ouverte et agile.  Des partenaires technologiques peuvent ainsi s’intégrer à la plateforme par l’intermédiaire d ‘APIs et ajouter ainsi des fonctions de sécurité  complémentaires dans une cohérence d’ensemble. On passe ainsi d‘un modèle d’ appliances  spécialisées par fonction de sécurité à une plateforme de sécurité unique et évolutive  unique qui réduit la complexité de l’ensemble, limite   les failles potentielles.

 

Mots-clefs :,

Le Big data remet il en cause les droits fondamentaux ?

(Ce billet est paru le 23 septembre sous le titre Big Data et droits fondamentaux)

 Etude 2014 du conseil d’état: Numérique et droits fondamentaux Le Conseil d’état a publié récemment l’étude annuelle 2014 qui porte sur le « numérique et les droits fondamentaux ». Cette étude a été rédigée par Jacky Richard, conseiller d’État, rapporteur général de la section du rapport et des études (SRE) et par Laurent Cytermann, maître des requêtes, rapporteur général adjoint. Ce rapport s’imposait avec l’essor du numérique car « la saisie croissante du numérique par le droit est à la fois une réalité et une nécessité ». conseil d'état rapport numerique Le développement du numérique s’accompagne de bouleversements techniques, économiques et sociales et remet en cause les règles du jeu et les positions établies. Les informations contenues dans cette étude sont nombreuses et j’ai voulu le lire sous l’angle du Big Data. Vous trouverez donc ci-dessous une synthèse reprenant ce qui pouvait se rattacher au Big Data. Le Conseil d’état constate que « L’explosion des usages des données personnelles et des risques associés conduit à en repenser la protection ». L’explosion des usages des données personnelles et des risques associés conduit à en repenser la protection. La collecte des données à tout va par des entités de diverses natures va plus loin que des caractéristiques objectives. Dans le cas des personnes ces collectes peuvent porter sur leurs gouts et leurs opinions et permettre ainsi de définir des profils très précis à des fins commerciales par l’utilisation de moteurs de recherche de plus en plus performants. Le Conseil d’état conscient des risques les a regroupés en 6 catégories

  1. la diffusion de données personnelles d’un individu en dehors de sa volonté.
  2. la réception fréquente de publicités de plus en plus ciblées et personnalisées.
  3. le développement de pratiques commerciales abusives, différenciant les clients à partir de l’exploitation de leurs données.
  4. les risques de réputation, pouvant conduire à des restrictions dans l’accès à des services (assurance, crédit, emploi…)
  5. les utilisations malveillantes, portant directement atteinte aux biens ou aux personnes.
  6. l’utilisation, lorsqu’elle est excessive, des données personnelles par les pouvoirs publics à des fins de sauvegarde de l’ordre public et de la sécurité nationale.

Le Conseil d’état rappelle dans son étude les principes fondamentaux de la protection des données (Ces principes sont explicités dans l’étude) :

  • Une définition large des données à caractère personnel
  • Le principe de finalités déterminées
  • Les principes de proportionnalité et de limitation de la durée
  • Le rôle du consentement de la personne

Protection des données et Big Data : selon le conseil d’Etat , les principes fondamentaux de la protection de données « ne sont pas une entrave au développement du Big Data » . D’une manière générale les usages du Big Data concernent l’exploitation statistiques des données et non pas les personnes elles-mêmes. Cela reste donc compatible avec la notion de principe de « finalités déterminées ». Par contre lorsque l’usage du Big data vise une personne en tant que telle pour déterminer par exemple un « profil prédictif de ses caractéristiques (solvabilité, dangerosité..) » on se doit d’appliquer les principes fondamentaux de la protection des données. Cela rappelle étrangement le thème du film Minority report avec Tom Cruise. Des propositions pour adapter les instruments de la protection des données Bien que ces principes gardent toute leur pertinence, les instruments de la protection des données doivent être adaptés et renouvelés. Le rapport du conseil d’état a donc exploré quatre voies complémentaires:

  • Renforcer la capacité des personnes à contrôler l’utilisation de leurs données par l’utilisation des technologies.
  • Définir une « chaîne de responsabilités », allant des concepteurs de logiciels et d’objets connectés aux utilisateurs finaux et complétant la responsabilité du responsable de traitement.
  • Porter une attention particulière à la circulation des données personnelles
  • Passer d’une logique formelle de déclaration à une logique de respect en continu de la réglementation, assuré par des contrôles internes et externes.

Un nécessaire encadrement de l’utilisation des algorithmes : L’étude consacre également un chapitre sur l’utilisation des algorithmes et précise qu’il ne se limite pas au seul Big Data. Si l’apport des algorithmes dans le monde du numérique est indiscutable le Conseil d’Etat souligne néanmoins 3 risques associés :

  • l’enfermement de l’internaute dans une « personnalisation » dont il n’est pas maître
  • la confiance abusive dans les résultats d’algorithmes perçus comme objectifs et infaillibles
  • de nouveaux problèmes d’équité du fait de l’exploitation toujours plus fine des données personnelles.

Ces nouveaux risques liés aux algorithmes nécessitent un encadrement de leur utilisation et représentent un nouveau domaine pour les pouvoirs publics. Le Conseil d’Etat préconise trois méthodes d’encadrement :

  • assurer l’effectivité de l’intervention humaine dans la prise de décision au moyen d’algorithmes;
  • mettre en place des garanties de procédure et de transparence lorsque les algorithmes sont utilisés pour prendre des décisions à l’égard d’une personne
  • développer le contrôle des résultats produits par les algorithmes, notamment pour détecter l’existence de discriminations Illicites.

Je n’ai fait ici qu’extraire quelques informations de ce rapport et je vous invite à le consulter dans sa totalité. @ericdebray

Mots-clefs :, , ,

Témoignages des utilisateurs des solutions Cisco UCS pour SAP et SAP HANA

IDC_wp_infographics

cliquer pour agrandir

Le cabinet d’analyses IDC a récemment publié les résultats d’une étude auprès de clients Cisco qui utilisent une infrastructure UCS pour SAP ou SAP HANA dans un white paper intitulé « The business value of Cisco UCS as a platform for SAP HANA and other SAP mission-critical Applications« . Les questions posées par IDC aux clients Cisco concernent les gains opérationnels et financiers apportés par Cisco UCS.  Les chiffres principaux sont résumés dans le synoptique ci-contre et ils parlent d’eux-mêmes. J’en retiens deux qui correspondent exactement aux chiffres collectés par Cisco sur les dizaines d’études de cas client que nous avons publié depuis le lancement de l’UCS il y plus de 5 ans:

  • gain de temps de 68% dans les taches d’administration des serveurs SAP
  • gain de temps de 84% pour déployer des serveurs SAP

Une confirmation supplémentaire de la pertinence des solutions Cisco UCS pour SAP et SAP HANA.

 

Mots-clefs :, , ,

La dépendance aux innovations technologiques nécessite de repenser la sécurité

La révolution numérique n’aura jamais autant été au cœur des conversations. La société entière,  de l’entreprise au particulier, prend le train du  numérique.

Les promesses et les attentes sont nombreuses : croissance économique, développement de nouveaux métiers et nouveaux usages qui tenaient de la science-fiction il y a encore quelques années.

Seule ombre au tableau la Cybercriminalité qui se développe au même rythme cherchant et exploitant les failles des systèmes.

security problem

De même que le numérique dépasse largement l’enceinte du DataCenter, la sécurité ne concerne pas uniquement les spécialistes de la sécurité. Tout le monde doit se sentir concerné même si les solutions requièrent de sérieuses compétences.

La dépendance aux nouvelles innovations technologiques  nécessite de repenser la sécurité attack continuum

Impossible de penser sécurité en se focalisant sur un seul aspect. La sécurité doit couvrir tous les aspects et s’adapter en permanence dans le temps. Se centrer sur la menace et agir tout au long du cycle du risque et de la menace (avant, pendant et après) c’est l’approche choisie par Cisco.

C’est conscient de ces enjeux qu’en 2103  Cisco a fait l’acquisition du spécialiste e la sécurité SourceFire. Un rachat qui permet à Cisco d’aborder la Cyber Securité avec une offre adaptée  qui s’est encore concrétisée récemment par l’annonce du 1er « Next Gen » Firewall du marché centré sur la menace.

Cisco présent aux assises de la sécurité du 1 au 4 octobre :

Les assises

C’est l’évènement sur la sécurité par excellence et Cisco se devait d’y participer. Pour ceux qui n’auront pas l’occasion d’être sur place nous relaierons les informations sur Twitter et sur les blogs sécurité et DataCenter. Sans transformer le Blog DataCenter en un blog sécurité, il m’apparait indispensable que chacun soit sensibilisé à ce sujet. J’aurai donc le plaisir d’être sur place et de vous faire partager mes impressions sur ce blog et sur twitter ( @ericdebray ) en compagnie de l’équipe sécurité de Cisco France.

Cisco sera présent au travers de différents ateliers et en séance plénière. Le descriptif complet figure sur le Blog Sécurité : Cisco et les Assises de la sécurité

 

 

Mots-clefs :, ,