Cisco France Blog
Partager

L’été du datacenter – 2/4 : 3 vidéos pour comprendre l’impact des données sur la DSI


9 August 2017


Puisque vous êtes 63% à regarder au moins une vidéo quotidiennement selon la dernière étude Médiamétrie/IAB, mais que vous n’êtes que 17% à le faire du bureau, je profite de ce deuxième épisode de notre série d’été pour vous suggérer trois contenus à revoir pendant vos vacances. Les heureux travailleurs peuvent également en profiter, de préférence en extérieur, comme 36% des répondants à cette même étude. D’autant que le grand air vous aidera à réfléchir à la meilleure manière d’aborder la rentrée, et avec elle les relations que vous souhaitez entretenir, au sein de la DSI, avec les équipes métiers.

DSI et métiers … Deux mondes qui se parlent enfin … pour le meilleur … comme le constate quotidiennement Jean-Marc Lazard, le CEO d’OpenDataSoft qui introduit cette deuxième rétrospective estivale. De teamworking et de process DevOps, il est également question avec ForePaaS. La startup, qui propose une plateforme-as-a-service d’application de data analytique, est aux premières loges de la transformation numérique et des exigences métiers qui se font de plus en plus pressantes. Selon Paul Sinaï, son CEO, l’innovation et la cloudification des infrastructures ont justement la capacité de simplifier les relations entre la DSI et des métiers en quête d’un accès toujours plus rapides aux ressources et aux données. Vouloir satisfaire les équipes métiers est une chose. Protéger et faciliter l’accès à ses ressources en sont deux autres. Pour vous aider à y parvenir, rien de tel que la vision d’une software-defined platform  telle qu’introduite par Eric Greffier lors du SDS Day, organisé par nos amis de Scality à Paris en juin dernier. Dans cette vidéo inédite, notre directeur général détaille comment le software-defined répond aux trois maîtres mots de l’IoT : automatisation, intelligence et sécurité.

A vos forfaits 4G et bel été !

Nouveaux usages, nouveaux services : quand la donnée révolutionne notre façon de collaborer

Interview de Jean-Marc Lazard, Fondateur et CEO OpenDataSoft

Entre la DSI et les métiers, une nouvelle relation binomiale s’est instaurée. Une relation dans laquelle, la DSI reste garante du niveau de service en matière de performance, mais où elle est doit également faire face aux contraintes de gestion et de protection du système d’information et de ses données. Des données dorénavant au coeur de la problématique métier. Le fondateur de la startup spécialisée dans l’Open Data le sait mieux que personne : la donnée n’est plus un sujet de spécialiste mais un enjeu de compétitivité, les métiers s’en sont donc emparés afin de personnaliser et de contextualiser les services proposés à leurs clients. A l’ère de l’IoT, la donnée ne se cache plus. Et puisqu’elle n’est plus confidentielle, les métiers veulent dorénavant en exploiter le plein potentiel. Oui, mais à quel prix ? Ou plutôt, à quel coût ?

 

A relire le témoignage de Swiss Life : DSI sous pression ? Misez sur l’esprit d’équipe …

 

Réconcilier DSI et métiers grâce aux plateformes-as-a-service (PaaS)

Interview de Paul Sinaï, Fondateur et CEO ForePaaS

A l’heure de l’IoT et des relations d’usage engendrées par la transformation numérique, la réconciliation entre métiers et DSI passe par la capacité à proposer un time-to-market applicatif le plus court possible. A tel point qu’a surgit de manière – soyons honnêtes – exagérée, le mythe du NoOps : un DevOps si parfait et si abouti que nous n’aurions même plus besoin de nous préoccuper de l’infrastructure. Sauf qu’une application, qu’elles soit containerisée ou purement logicielle, continue d’utiliser des ressources d’infrastructures. Et si un développeur réussit à embarquer son code dans un container et à l’envoyer en production, les opérations sont toujours nécessaires pour maintenir ce container ou s’assurer de sa conformité en matière de sécurité. Donc, à l’heure où les métiers veulent délivrer des applications de plus en plus rapidement, la DSI, elle, reste contrainte en matière de sécurité et de fournitures de ses ressources. Certes, le cloud a apporté un premier niveau de réponse via les IaaS et CaaS. Mais est-ce suffisant ? Et si l’étape suivante n’était plus de mettre à disposition une infrastructure, mais un véritable environnement  de développement ? C’est la conviction de Paul Sinaï, CEO de ForePaaS pour qui les plateformes-as-a-service possèdent un double avantage :

  • Proposer aux développeurs un ensemble d’outils de développement pré-intégrés sans avoir a se soucier des problématiques d’infrastructure ou de réseau
  • Rassurer les responsables d’infrastructures en garantissant un environnement de développement respectant leurs exigences en matière de sécurité et de compliance.

 

 

Pour en savoir plus : Processus DevOps et développement agile avec Cisco HyperFlex

 

La puissance d’une plateforme software-defined : à la confluence des données et des applications

Intervention d’Eric Greffier, Directeur Général Cisco au Scality SDS Day Paris

Paradoxalement, la complexité de l’IoT n’est pas annoncée dans son acronyme. Certes, l’IoT c’est d’abord une connexion à des objets. Mais derrière ces objets, l’IoT implique surtout une connexion à des personnes, à des process et à des données. Et avec une prévision de milliards de capteurs d’ici 2020, l’enjeu ne sera pas tant la captation de la donnée que son transport et son traitement. Car soyons clairs, vos applications ne rendront pas les services espérés à vos utilisateurs sans la garantie d’une qualité de service dimensionnée à la manipulation d’un flux important de données. Et cette qualité de service passe évidemment par le réseau.

Il n’est d’ailleurs pas anodin que les principales difficultés que vous nous remontiez soient liées au réseau. Le réseau est au coeur de l’IoT car il est le fondement de sa connectivité. Mais pas que ! Le Edge computing ne se limite pas à la collecte et au transport de la donnée, mais intègre dorénavant la dimension de traitement. Aujourd’hui, l’application est capable de tourner directement dans un routeur. On est bien loin de l’époque ou le device se connectait à un data center renfermant les applications et traitant les données, via un réseau qui ne servait que de jonction entre les deux. L’intérêt de traiter ses données au niveau du routeur est double :

  • Ne renvoyer au data center ou dans le cloud que les données qui doivent l’être, et uniquement celles-ci,
  • Investir le champ du “temps réel” sur des chaînes applicatives de plus en plus complexes, en indiquant l’action à apporter à ma donnée directement au niveau du réseau.

La clé du succès des projets IoT va donc résider dans ce lien entre l’application et la collecte et le traitement de ces données. Dans des environnements de plus en plus distribués, c’est ce qui conditionnera l’échec ou le succès de la chaîne applicative. D’autant que la nouvelle façon d’écrire les applications tient déjà compte de ces nouvelles architectures : les milliards d’objets connectés à venir reposeront sur toujours plus d’applications développées en mode micro-services, sur des containers, et parleront sans doute un langage autre que IP. Ce qui va impliquer de dimensionner le réseau, de comprendre le comportement de ces applications (ou de leurs micro-services) entres elles et d’analyser leurs performances.

En cela, les applications et leurs données ont aidé le software-defined à gagner en maturité. Dans sa définition simple, le  software-defined est une sorte d’intelligence codée qui repose sur un automate alimenté par des templates désignés par l’homme. Le but est noble : gérer les opérations de l’infrastructure de manière à ce qu’elle se construise et évolue automatiquement. Mais cette proposition du software-defined reste incomplète si on omet sa capacité à extraire les analytiques nécessaires à la bonne compréhension de ce qui se passe, et à communiquer sur les événements en cours. En s’appliquant aussi bien au réseau (SDN ou software-defined networking) qu’au stockage (SDS ou software-defined storage), c’est la plateforme dans son ensemble qui  bénéficie aujourd’hui de cette capacité. Une ambition qui résonne fortement auprès des Service Providers qui doivent manipuler des flux vidéos, mais également des entreprises au sens large, amenées à gérer des flux croissants de données dont le délai de traitement se rapproche de la milliseconde.

 

 

A découvrir sur le site de Scality : le cas client Natixis

 

 

Tags:
Laisser un commentaire