Cisco France Blog

Témoignage Bruno Baule, DSI R&D Schneider Electric : « Grâce au Big Data, nous sommes en mesure d’établir des corrélations entre chacun de nos tests unitaires. »

5 min read



Transformation numérique ? Transition énergétique ? Même pas peur. C’est peu ou prou le message délivré par le PDG de Schneider Electric, Jean-Pascal Tricoire après l’annonce à la mi-février d’un bénéfice record en 2018. (Lire les Echos) Quinze années après avoir démarré sa mutation, le spécialiste mondial en gestion de l’énergie est aujourd’hui devenu un acteur reconnu du digital, de l’IoT et de l’intelligence artificielle.  « Dans un paysage où les grands équipementiers de l’énergie ont été chamboulés par la transition énergétique, (…) notre stratégie accompagne un monde plus électrique, plus décentralisé et plus digital. »

Le Big Data, vecteur d’accélération des tests en laboratoire

Au cœur de cette stratégie, le centre de R&D de Schneider Electric, basé à Grenoble et spécialisé dans la recherche sur les matériels de moyenne et basse tension. Regroupant 1500 personnes, il se compose principalement de chercheurs (80% de l’effectif), mais également de fonctions marketing et administratives qui les accompagnent. « Les chercheurs constituent le premier pool d’utilisateurs de données en provenance des différents laboratoires de test, devant les fonctions marketing qui les exploitent à des fins de développement », explique Bruno Baule, DSI de l’informatique technique. C’est pour servir l’ensemble de ses utilisateurs que la DSI R&D de Schneider Electric a mis en place un projet Big Data.

Ici, pas de date de fin de projets mais un enrichissement perpétuel. Les tests menés par le centre de recherche grenoblois sont permanents, qu’il s’agisse de mesurer l’endurance ou de déterminer la fiabilité d’un produit. Ces données accumulées pendant le cycle de développement d’un produit sont conservées pour alimenter la base de connaissance de l’appareilleur. A cette base, s’ajoutera l’ensemble des données issues des tests d’échantillonnage réalisés sur les centres de production. En matière de Big Data, le besoin principal se trouve en amont de la réalisation et de la commercialisation du produit, comme l’explique M. Baule. « Si on prend l’exemple d’un processeur intégré dans un disjoncteur, cela révèle de la protection des personnes. Nous sommes contraints de mener une batterie de testsTraditionnellement, nous réalisions des tests d’endurance mécanique, d’endurance électrique, voire de coupure. Et si tout se passait bien, le produit était validé. Mais lorsque six mois plus tard, nous découvrions un problème récurrent, nous n’étions pas en mesure d’établir des corrélations entre chacun de nos tests unitaires. Dorénavant, nous sommes en mesure de le faire et d’identifier certains problèmes en amont ». Les besoins en puissance de calcul et en stockage vont crescendo selon le DSI, qui anticipe une croissance des données et des paramètres à corréler.

Solutions Cisco pour le Big Data et l'Analytique - Présentation de la solution

Solutions Cisco pour le Big Data et l’analytique – brochure


Data Scientists et Data Analysts : le binôme incontournable au service de l’expertise métier

Comme souvent dans ce type de projets, le succès repose aussi sur la prise en compte des enjeux en matière de compétences. Qu’il s’agisse de former ses talents internes aux nouvelles compétences nécessaires ou d’attirer de nouveaux talents pour répondre à de nouveaux besoins. En la matière, le campus isérois s’est doté à la fois de data analysts et de data scientists. Côté informatique, les data scientists fournissent les premières analyses et identifient ce qui peuvent leur paraître incohérent. Véritables spécialistes métiers, les data analysts, eux, extraient et analysent les données en provenance de ces tests pour valider ou invalider les propositions. Ils peuvent même établir de nouvelles pistes de réflexion ou proposer une spécification plus fine de la recherche menée. « C’est un vrai travail de binôme entre une personne qui gère les programmes d’analyse et une personne experte des produits et technologies, plus pertinente sur l’aspect métier, confie M. Baule. Nous comptons aujourd’hui une vingtaine de ces experts. »

https://youtu.be/8TwdcP2wBjc

Pour le DSI, le danger dans ce type de projet Big Data est d’interpréter les données de manière biaisée, notamment lorsque la corrélation des bases n’est pas pertinente. « Cela ne sert à rien de corréler la couleur d’un produit avec sa résistance de chauffe », préfère-t-il préciser. Et pour cause, un volume de données important peut amener à des conclusions plus ou moins logiques. Selon M. Baule, c’est justement ce travail en binôme qui va permettre de garantir la cohérence des corrélations nécessaires. « La vraie pertinence des données, c’est eux qui la donnent. C’est en associant une personne maîtrisant le programme à un expert maîtrisant le métier que l’on arrive à comprendre les corrélations que l’on doit faire ». Car pour l’heure, le DSI fait un constat simple : peu de data scientists sont suffisamment spécialistes des produits et des technologies pour lesquels ils travaillent au quotidien. Souhaitant conclure le sujet sous la forme d’un conseil : « Les data scientists doivent aussi être proches du métier, et pas que de l’informatique ».

Une expertise d’autant plus importante à l’ère de l’IoT où les données sont plus nombreuses et surtout plus variées. « Les données qui nous remontent proviennent de différents types de capteurs et vont alimenter nos automates et systèmes de traitement. Dans le cas d’un ascenseur, par exemple, nous testons simultanément des millions de manœuvres en provenance de dizaines d’appareils tous les six ou douze mois : les valeurs de tension, le courant du contacteur, le temps qu’il met à s’ouvrir ou à se fermer etc. » explique Bruno Baule.

Big Data  : quand l’infrastructure on-premise reste clé

A l’heure où les workloads Big Data devraient continuer de progresser dans le cloud plus rapidement que la plupart des autres segments (Etude IDC Worldwide Storage in Big Data Forecast, #US40991216), Schneider Electric a fait le choix du on-premise. « Un choix politique », selon Bruno Baule, en lien direct avec le statut d’entreprise stratégique de l’équipementier. « Nous travaillons avec la Direction Générale de la Sécurité Intérieure (DGSI) qui nous conseille dans certaines pratiques pour tout produit sensible. Certains savoir-faire doivent être protégés ». Le projet a donc été l’occasion de poursuivre une phase de modernisation, démarrée lors d’une première migration de serveurs traditionnels avec stockage embarqué vers un stockage en réseau NAS, puis un réseau de stockage SAN. « Notre partenariat avec notre intégrateur Scasicomp est solide et dure depuis plus de 15 ans. Lorsque nous avons explicité notre besoin Big Data, leurs experts nous ont préconisé l’infrastructure convergée FlexPod. Nous avons été séduits par son ergonomie, la facilité de mise en œuvre, sa grande facilité de manipulation et son changement de capacité exceptionnel. »

A lire : Livre Blanc IDC : Les bénéfices de Cisco UCS pour le Big Data et l’analytique

Après une première expérience concluante, le DSI R&D de Schneider Electric confirme son choix pour l’infrastructure convergée Cisco / NetApp qui répond à la fois à un fort besoin de virtualisation et à un accès rapide des données par les utilisateurs. Le centre de calcul ne desservant pas moins d’une quinzaine d’autres sites dans le monde : en Chine, en Inde, au Danemark, au Canada, aux Etats-Unis, au Mexique et évidemment en Europe. « Avec les serveurs UCS, nous disposons d’une large gamme de lames pour un même rack. En fonction de nos besoins, on peut faire appel à des disques multiprocesseurs. Les vitesses de transmission disque-serveur sont bluffantes, selon les mots du DSI R&D. Nous pouvons simplement basculer des VMS d’une lame vers une autre, et bénéficions d’une mise à disposition d’une vm en moins d’une heure, parfois même en dix minutes seulement. » (L’équipementier dispose d’un administrateur dédié – NDLR). Une performance d’autant plus cruciale que la Direction Informatique prévoit une augmentation rapide des données en provenance des tests. Pour l’heure, les tests menés en laboratoires génèrent un volume de données dont la taille de sauvegarde quotidienne se limite à 100 To selon M. Baule(*).

Mais le DSI R&D prévoit déjà ses besoins futurs : « Avec la transformation numérique et la stratégie du tout-connecté, nous anticipons de plus nombreuses données à remonter et à traiter ». Quant à la question de l’innovation et de la containerisation, le directeur conclue ironiquement : « Avant nous avions le temps de faire beaucoup de veille techno. Mais nous n’avons pas eu le temps de nous y consacrer. Sur ces sujets, il faut aussi savoir se freiner et prendre le temps nécessaire ». Une amusante rançon du succès pour un fleuron national de la R&D.

(*) A noter : Depuis notre entretien fin-janvier, la DSI R&D de Schneider Electrics a décidé  d’accroître ses capacités de stockage afin pouvoir sauvegarder quotidiennement 200 To de données. Des besoins doublés en un mois à peine.

Le projet en résumé

Client : Schneider Electric

Solution déployée : Infrastructure convergée Flexpod. Cluster Hadoop, base SQL MongoDB, tableau, différents moteurs sont actuellement testés.

Partenaire : Scasicomp

Authors

Jean-Marc Eskenazi

Responsable Field Marketing, EMEA

Cisco Capital

Laisser un commentaire