Machine Intelligence Summit : Le deep learning au cœur des enjeux scientifiques

, Partager

Re-work a tenu le Machine Intelligence Summit à San Francisco le 23 et 24 mars. Conférence à l’intersection des communautés académique et industrielle, cette rencontre a couvert les sujets connexes à l’intelligence artificielle. Le machine learning, le traitement du langage naturel, le deep learning, la reconnaissance de la voix, la reconnaissance des schémas ainsi que les véhicules autonomes et la robotique sont quelques-uns des aspects de l’intelligence artificielle qui ont été présentés. Les acteurs incontournables œuvrant dans les domaines de l’intelligence artificielle, comme Intel, Google, Apple, IBM, Amazon, le MIT ou encore le Berkeley Lab, étaient présents pour communiquer sur les dernières avancées de leurs travaux.

Re-Work

En 2012, Nikita Jonhson crée Re-work avec pour vision de rassembler des acteurs académiques et industriels pour tenir des conférences sur des thématiques centrées sur les technologies émergentes. Son but est de présenter les opportunités et l’impact de technologies émergentes sur le monde des affaires et la société. Elle favorise la tenue de rencontres entre la recherche académique et la recherche et développement de la sphère industrielle. Cette organisation est agnostique en terme de thématiques d’évènements et couvre des domaines allant de l’internet des objets jusqu’aux biotechnologies.

Périmètre du Machine Intelligence Summit

Le périmètre de cet évènement inclut la plupart des disciplines de l’intelligence artificielle au sens large. A ce titre, les sous-ramifications de celle-ci étaient représentées par des acteurs venant des communautés du machine learning, du deep learning, du traitement automatique du langage naturel, de la vision par ordinateur, de la reconnaissance du langage ou encore de la reconnaissance de schémas conceptuels. Les acteurs participant à cette rencontre comptaient parmi eux des représentants d’Apple, d’Amazon, de Google Brain, d’eBay, Netflix, Uber ou encore du Berkeley Lab et du MIT.

Un sommet centré sur le deep learning

Le deep learning (apprentissage profond en français) est une ramification de l’apprentissage automatique basée sur l’apprentissage de modèles, notamment de modèles de données. Le programme des exposés était centré sur le deep learning et ses applications dans différentes disciplines, aussi bien scientifiques qu’industrielles. Un accent particulier a été mis sur l’approche des problèmes non-linéaires et multivariés, qui représentent un enjeu majeur du deep learning car la majorité des problèmes du monde réel suivent des modèles multifactoriels qui ne sont pas linéaires.

Outre les applications du deep learning pour des domaines aussi variés que la détection de phénomènes météorologiques extrêmes par le Berkeley Lab et les systèmes de recommandations dans le cadre du visionnage multi-écrans [1] par Netflix, d’autres aspects se rapportant à l’entrainement des réseaux de neurones [2] ont été exposés. Quelle que soit l’application envisagée, l’amélioration de l’entrainement des algorithmes de deep learning fait partie des prérequis pour affiner les résultats. Les optimisations ne sont pas toujours à destination directe des utilisateurs finaux d’une plateforme logicielle. Ainsi, l’entrainement de ces algorithmes sert aussi à optimiser le fonctionnement d’infrastructures contenant des données massives. Uber démontre cette approche du deep learning pour optimiser sa plateforme et mettre en place un système de prédiction des temps d’exécution des requêtes sur ses clusters de bases de données.

Des applications diverses

L’apprentissage automatique se répand de plus en plus dans l’industrie et dans la recherche académique pour des applications de plus en plus diverses. Cette conférence a montré que l’intelligence artificielle devient un avantage concurrentiel sur le plan industriel en permettant de développer des systèmes de recommandations et de classifications toujours plus précis et apporte une grande contribution à la recherche en automatisant la détection de schémas et en garantissant l’entrainement des réseaux de neurones, notamment pour des problèmes dit "non-convexes". Ces problèmes, comme celui du voyageur de commerce [3], se modélisent à l’aide de fonctions dites non-convexes et représentent un enjeu scientifique majeur car il est difficile de minimiser ces fonctions par des algorithmes traditionnels. Le deep learning, via l’entrainement des algorithmes, permet d’envisager la résolution de ces types de problèmes qui touchent aussi bien l’industrie que la recherche académique.

Des entreprises toutes puissantes

Les entreprises comme Google, Apple, IBM, Amazon ou encore eBay se posent en leaders de cette industrie en mettant à profit leurs infrastructures existantes. Elles agrègent en effet les ressources scientifiques et matérielles nécessaires pour être à la pointe de l’innovation dans l’intelligence artificielle. De plus, pour ces compagnies qui ont la gestion et l’accès à de très grandes quantités de données, l’intelligence artificielle représente également un enjeu économique et financier. Cependant des structures plus modestes, comme Reality AI qui utilise l’intelligence artificielle pour la reconnaissance de signaux issus de capteurs, arrivent à prospérer dans des niches du secteur.

L’intérêt des fonds de capital-risque

Ces 15 dernières années ont vu l’avènement du big data puis de la science des données ainsi que les progrès du machine learning (au sens large) nous rapprochant du développement d’une « machine intelligente » que Turing a déjà imaginée dans les années 50. La rencontre entre l’intelligence artificielle et le machine learning pour exploiter les données issues de la bulle du big data est un secteur en plein développement et présente donc des défis et des opportunités. Les enjeux économiques de l’exploitation de nos données par des machines capables d’en assimiler les modèles et d’en déduire d’autres modèles de plus haut niveau attirent de plus en plus l’attention des sociétés de capital-risque. La question de l’accès et de l’exploitation de ces données pose néanmoins des questions sur les volets éthiques et légaux puisque les modèles issus de l’apprentissage pourraient être exploités à des fins diverses.

En bref

Le Machine Intelligence Summit est une conférence qui permet de se rendre compte, à la fois dans et en-dehors de la sphère académique, des problèmes que peuvent poser certaines situations rencontrées par des acteurs industriels ou académiques. Cet évènement permet également de rencontrer et d’échanger avec des personnes à la tête des gros programmes dans l’intelligence artificielle au sein des grands acteurs du secteur tels qu’Amazon, Google, eBay, Netflix, Uber etc. La richesse des domaines tels que le traitement du langage naturel, les calculs distribués et le machine learning et le deep learning fournissent un aperçu des dernières innovations permettant d’apporter des éléments de solutions aux problèmes auxquels font face les acteurs œuvrant dans l’intelligence artificielle.
Plus d’informations sur re-work.co, sur les évènements à venir (Boston, Londres, Singapour). Les articles présentés sont disponibles sur le blog de Re-Work [4].


Rédacteur
- Marc-Emmanuel Perrin, Attaché adjoint pour la Science et la Technologie, San Francisco, deputy-sf@ambascience-usa.org

Notes

[1Lorsque l’on commence à visionner un film sur un appareil et que l’on continue à le regarder sur un autre par exemple

[2Les réseaux de neurones sont des ensembles d’algorithmes dont la conception s’inspire du fonctionnement des neurones biologiques. Comme les algorithmes génétiques qui fonctionnent selon un processus similaire à la sélection naturelle, les réseaux de neurones reprennent une métaphore biologique dans leurs structures et leurs fonctionnements

[3Problème classique de la théorie des graphes qui consiste à trouver le plus court chemin passant par des points de passages imposés, sans passer plusieurs fois par la même étape. Il est appelé problème du voyageur de commerce car il est très similaire à l’optimisation de trajet que recherche un représentant qui doit passer par plusieurs villes sans jamais passer deux fois dans la même