En 2016, le paysage des collectivités françaises se redessine autour des fusions de région et de l’apparition de nouvelles métropoles. L’intégration des régions pourrait ressembler à un modèle intégré similaire à une fusion d’entreprises de tailles équivalentes. Comme pour les fusions acquisitions, la rapidité à converger les systèmes d’information devrait être un facteur clé de succès.
En ce qui concerne les nouvelles métropoles, elles seront clairement plus visibles au niveau européen. La convergence des mairies et EPCI dans un puzzle unifié reste un long chemin. A court terme, la complexité est augmentée par le nombre d’acteurs assemblés dans une nouvelle structure… qui correspond elle-même à une nouvelle strate territoriale.
Pendant les travaux d’intégration, l’exploitation continue et chaque entité poursuit l’exploitation de ses systèmes métier, véritables sources de données.
Un des challenges est donc pour la nouvelle entité d’accéder en temps réel aux données des différents acteurs du territoire à des fins de pilotage du nouvel ensemble.
Comment gouverner efficacement dans un contexte parcellisé ?
On doit considérer que les approches d’analyse des données traditionnelles (Data Mining, Data Warehouse…) ne sont pas adaptées à ce contexte d’une métropole sur la voie d’une mutualisation progressive. Leur modèle impose en effet des coûts financiers, de l’expertise élevée et onéreuse et la réplication de données sur des espaces de stockage performant, multipliant les volumes et les coûts d’opérations et s’avérant ainsi comme un frein à l’agilité.
Elus et services sont confrontés à de vraies questions opérationnelles et pragmatiques:
– Comment établir rapidement un catalogue fournisseur global à l’échelle de la nouvelle métropole ?
– Comment assembler les données relatives aux équipements du territoire, lorsqu’ils sont gérés par des identités différentes, avec des logiciels de gestion différents ?
– Comment dé-doublonner les bases et structurer une vue unifiée des données ?
– Comment être sûr de l’intégrité des données, malgré les besoins d’actualisation permanente ?
Cisco Data Virtualization vise à apporter des réponses pragmatiques à ce questionnement.
Qu’apporte Cisco Data Virtualization ?
Cisco Data Virtualisation est une solution efficace et rapide pour collecter les données à la volée et proposer un tableau unifié actualisé simple à mettre en forme. Un outil à considérer pour le pilotage d’une collectivité bâtie sur différents système d’information!
D’après Forrester Research, la mise en œuvre de Cisco Data Virtualization pour une entreprise est amortie en moins de 9 mois.
La solution, issue du rachat de Composite Software, est simple à mettre en œuvre. Elle s’appuie sur des connecteurs non intrusifs qui lancent des requêtes vers les systèmes de bases de données, que les applications métier soient hébergées en local (datacenter privé) ou en mode cloud. Cisco DV ne nécessite pas d’infrastructure lourde et adresse tous les types de données, structurées ou non.
Un grand nombre de bases de données du marché et d’applications ont déjà des connecteurs disponibles. Un moteur d’intelligence artificielle découvre les différentes bases et comprend la logique de chaque base. Le moteur permet ensuite de rapprocher des bases tierces, et d’identifier les champs communs (même si les en-têtes sont différentes), les doublons,… Il limite ainsi fortement le travail de structuration des bases.
Une fois la découverte automatique réalisée, des requêtes prédéfinies sont mises à la disposition d’un utilisateur-métier. Derrière l’activation d’une requête, une série de demandes sont adressées en tache de fond par Cisco DV aux différentes bases métiers concernées. En quelques instants, l’utilisateur obtient un tableau unifié de méta-données actualisées qui seront mises en forme à l’aide d’outils de présentation du marché.
La capacité de gérer des droits d’accès à un catalogue de services prédéfinis par la DSI (gestion de droits d’utilisateurs par requête) permet de contingenter le risque de profiling inapproprié, parfois envisagée comme une conséquence du big data.
Cisco data Virtualization est l’une des composantes de l’offre Big Data et Analytics de Cisco.
L’avantage d’une vue unifiée des données dans une organisation silotée
Fournir les données nécessaires au pilotage sans chambouler les systèmes d’information de chaque entité, tel est l’apport de Cisco Data Virtualization.
Avec des données actualisées à la demande et en facilitant l’unification des données multi-acteurs, Cisco Data Virtualization efface la complexité d’une intercommunalité en silos. Les décideurs peuvent ainsi se focaliser sur la gouvernance du nouvel ensemble.
Pour en savoir plus :
Etude Forrester sur le gain économique de Cisco Data Virtualisation
Vidéo explicative (2 minutes)
Fiche produit
Espace Cisco Data Virtulisation sur le site Cisco
Apercu Cisco Data Virtualisation
Solutions Cisco Data & Analytics