Cisco France Blog
Partager

[Symposium 2017 – #4] Intelligence artificielle : son impact sur les réseaux


12 May 2017


Article sponsorisé – Auteur: Pierre Guyot,  rédacteur, Usbek & Rica
Le symposium « Recherche et Innovation des Réseaux de Nouvelle Génération » Cisco – École Polytechnique 2017

Où en est l’intelligence artificielle (IA) ? « À une place extrêmement intéressante de son évolution ! », répond Ben Goertzel, multi-entrepreneur et évangéliste du concept d’intelligence artificielle générale. La question de la valeur de l’IA pour les entreprises étant désormais tranchée, nous sommes aujourd’hui dans une phase de transition technologique.

L’« intelligence artificielle générale » de Ben Goertzel, c’est celle qui vise à dépasser l’apprentissage des réseaux de neurones artificiels (les fameux “deep neural networks”), ce sous-domaine de l’IA qu’il estime « devenu extrêmement populaire car il résout des problèmes très parlants, la reconnaissance faciale, le traitement du langage, la traduction automatique ou même le jeu de go », mais qui s’avère être une forme d’« intelligence artificielle étroite ». Celle-ci serait en effet « seulement » capable d’identifier des schémas dans de grands jeux de données, mais pas de reproduire le spectre, bien plus large, de l’intelligence humaine, qui est aussi affaire de perception, de raisonnement, d’émotion, d’empathie, de créativité… Tournez le plateau du jeu de go, et l’intelligence artificielle étroite ne peut plus battre l’homme !

L’intelligence artificielle générale et le réseau du futur 

Ce qui rend toutefois optimiste Ben Goertzel, c’est qu’après avoir échangé avec un grand nombre de chercheurs réseaux rencontrés lors du symposium, il lui semble qu’ils « partagent la même intuition que [lui] sur la bonne direction à suivre pour la recherche de l’IA à l’avenir : les réseaux de neurones sont précieux et feront partie des solutions, mais d’autres idées et d’autres architectures auront besoin d’être intégrées ».

Jusqu’à faire de l’infrastructure réseau une IA en soi ? Ben Goertzel estime en tout cas que son intelligence artificielle générale rejoint la philosophie qui sous-tend l’information-centric networking (ICN), soit celle d’un vaste réseau distribué d’intelligence artificielle et de systèmes multi-agents cognitifs. De plus, ICN et IA se complémentent : schématiquement, avec l’ICN, l’information n’est plus adressée que par son contenu et les services et programmes qui fonctionnent sur le réseau peuvent alors être distribués depuis n’importe quel point de celui-ci ; l’IA pourrait alors utilisée pour déterminer le meilleur point à partir duquel délivrer ces services. En attendant, dès aujourd’hui, l’IA permet déjà d’améliorer la sécurité du réseau, l’efficacité du transport d’information et sa gestion par l’administrateur humain.

Toutefois, la plateforme open source développée par Ben Goertzel, gère des graphes d’informations très complexes, autour d’algorithmes cognitifs agissant chacun sur un type de connaissance différent mais dans un même espace commun. Ces « graphes », qui trouvent leur application dans la médecine, la robotique ou la finance et qui pourraient préfigurer de l’avenir de l’IA, nécessitent une architecture-réseau elle aussi plus complexe : cognitive, intégrante et « neuro-symbolique », non attachée à une tâche en particulier mais conçue pour un accès en autonomie et pour des environnements imprévisibles, grâce notamment aux méthodes du raisonnement symbolique.

« Finalement, avec l’information-centric networking, le réseau tout entier va devenir une sorte d’intelligence artificielle »  – L’interview vidéo de Ben Goertzel, président de Novamente LLC

Les besoins en infrastructure des machine et deep learning

C’est à une autre référence de la recherche en intelligence artificielle, Andrew Ng, que James Jones, architecte de solutions clients pour Cisco, fait allusion à l’heure d’évoquer les challenges d’architecture pour le déploiement à grande échelle du machine learning et du deep learning. Selon ce chercheur de Stanford, en effet, et alors qu’en 2008 il prêchait pour que le deep learning utilise les capacités des processeurs graphiques (GPU), ce qu’il a depuis largement fait, « il est maintenant temps que le machine learning adopte le calcul à haute performance (HPC) ».

Mais quels sont les besoins en infrastructure, à date, de l’IA ? Depuis une dizaine d’années, les grands industriels de l’intelligence artificielle, gros demandeurs en puissance de calcul, se sont lancés à la recherche de moyens d’accélérer toujours plus le traitement de leurs opérations, et en particulier l’entraînement de leurs réseaux neuronaux. Ils s’appuient pour ce faire principalement sur les GPU : c’est le cas notamment d’AlphaGo, le programme de Google qui avait défait l’homme au jeu de go en mars 2016. Cette vague GPU, lancée dès 2006, n’est pas prête de s’arrêter – le constructeur Nvidia a 13 fois plus de partenaires en la matière qu’il y a deux ans, et recense sur la même période trois fois plus de développeurs GPU… Mais les industriels s’appuient désormais aussi sur des puces intelligentes (IPU), plus naturellement dédiées à ce type de calcul, et enfin, puisque ces processeurs, seuls, ne suffisent pas, sur des mémoires externes : des machines virtuelles autorisant des capacités computationnelles avancées dans le cloud, avec un nombre considérable de nœuds de calcul, permettant, autour d’une multiplicité d’instances, de « scaler » ses tâches à distance.

Rémi Coletta et Benoît Gourdon, respectivement data scientist et CEO de la start-up d’objets connectés prédictifs Tell Me Plus, en conviennent eux aussi : le progrès de l’IA est exceptionnel. Et, pour obtenir un système d’IA prédictif performant pour l’utilisateur final (que ce soit un particulier pour des usages domotiques avancés, ou une entreprise exploitant des éoliennes et qui souhaite mettre en place une maintenance prédictive), il faut… utiliser l’IA. Celle-ci optimisera l’architecture et l’énergie utilisée pour le calcul. C’est en particulier le machine learning qui est utilisé ici, et même le machine learning embarqué, accessible dans le cloud depuis le terminal connecté. Un champ applicatif vaste pour les sociétés d’IA de demain.

Martin Raison, ingénieur pour Facebook AI Research, l’entité de Facebook dédiée à l’intelligence artificielle et qui a ouvert un siège à Paris en 2015, évoque quant à lui un besoin en ressources « virtuellement illimité » : les plateformes hardware, sur ce point, progressent, tant en termes de stockage que d’efficacité, mais les besoins continuent en parallèle d’augmenter. Ceux-ci, tant qu’ils restent cantonnés à ce que Ben Goertzel nomme l’intelligence artificielle « étroite », sont, quoiqu’il en soit, contraints par le contexte et doivent bien se limiter à un nombre fini d’informations accessibles. Mais, même dans ce champ, la taille des modèles utilisés pour entraîner les réseaux neuronaux ne cesse de grandir – Facebook cherche par exemple depuis peu à faire répondre ses algorithmes à des questions complexes, qui nécessitent du raisonnement, à partir de l’analyse textuelle des articles de l’encyclopédie en ligne Wikipédia, par exemple.

Aussi, les techniques pour optimiser la mémoire requise par le deep learning se diversifient : certains réécrivent les données sortantes sur les données entrantes ; d’autres, pendant le traitement des données, trouvent par le calcul des dépendances entre celles-ci et optimisent en conséquence la mémoire, en réutilisant un espace jusque-là occupé par des données finalement inutiles ; d’autres encore sur-optimisent les capacités de calcul ou celles de mémoire, grâce par exemple aux réseaux neuronaux dits récurrents. Des « accélérateurs de GPU », couplés à des CPU, font également leur entrée sur le marché et, côté architecture, les clusters de deep learning utilisent une grande diversité de serveurs (jusqu’à huit nœuds par cluster) pour répondre à tous les besoins. L’heure, enfin, est à l’hyper-convergence : le traitement, le stockage, le réseau et la virtualisation opérée sur une même plateforme, promettant d’accélérer le deep learning quel que soit le framework utilisé. Les nouveaux supercalculateurs dédiés au deep learning, comme SaturnV, semblent bel et bien correspondre au souhait d’Andrew Ng, et un standard proposé par divers fabricants, définissant un serveur GPU adapté au supercalcul des data centers, est même en voie d’être défini.

 

Téléchargez les présentations des intervenants de cette session.

 

 

 

 

 

 

 

Pour en savoir plus sur l(intelligence artificielle et son impact sur les réseaux, regardez l’intervention de Ben Goertzel:

Revivez le symposium dès maintenant en regardant notre playlist.

 

Retrouvez tous les articles du Symposium sur notre blog:

 

Tags:
Laisser un commentaire