Intel lance sa puce dédiée à l’intelligence artificielle

, Partager

Intel se lance dans la course au matériel dédié à l’intelligence artificielle en annonçant la création d’une puce utilisant une structure neuromorphique.

Une réponse à la concurrence

Au mois de mars, le fondeur Nvidia annonçait les successeurs de ses puces embarquées ainsi que les mises à niveau de ses cartes de calcul de la famille Tesla, toutes orientées vers les besoins de l’intelligence artificielle. Dans la même veine, ARM, en tant que plus grand fournisseur de spécifications de puces au monde, notamment pour les sphères du mobile et de l’embarqué faible consommation, avait emboité le pas en créant des puces conçues pour le calcul parallèle.

La réaction récente d’Intel a été l’annonce d’une puce spécialement conçue pour les taches afférentes à l’apprentissage automatique. Ne pouvant rivaliser face à la continuelle montée en puissance des puces ARM, et à l’accessibilité des solutions Nvidia, Intel réserve sa nouvelle création au monde des architectures hautes performances et aux datacenters. Intel se positionne ainsi dans un segment que l’entreprise maîtrise et tire parti de son expérience pour créer une technologie nouvelle : l’Intel Nervana Neural Network Processor (NNP).

Un nouveau modèle technologique dédié à l’apprentissage automatique et à l’intelligence artificielle

Développée en partenariat avec le CalTech de Pasadena, la première puce de cette nouvelle famille, baptisée Loihi, a la particularité de prendre en charge son propre apprentissage statistique. Elle adopte une structure neuromorphique, imitant le fonctionnement du cerveau de l’être humain, ce qui lui offre des capacités d’auto-apprentissage. Capable de s’adapter aux changements de contexte et d’apprendre à partir de ses propres calculs, cette unité de calcul est annoncée comme ne nécessitant pas de mises à jour externes.

L’adoption d’une architecture similaire à celle du cerveau rend ce type de puces beaucoup plus performantes que les processeurs traditionnels en palliant les quelques lacunes des processeurs de calculs graphiques dans les tâches d’apprentissage.

En termes de caractéristiques techniques, la puce d’Intel utilise la gravure de quatorze nanomètres, et est constituée de 130 000 neurones et 130 millions de synapses. En outre, la technologie d’Intel adopte une structure de mémoire cache différente, ainsi qu’une mémoire embarquée contrôlée par un logiciel interne. Pour faire face à la contrainte mémoire que représente l’entrainement d’un réseau de neurones, Intel a développé un nouveau format numérique nommé « Flexpoint » qui gère de lui-même les mouvements de virgules flottantes lors des calculs. D’après les tests réalisés par les chercheurs qui l’ont développée, elle serait un million de fois plus rapide et mille fois plus économe qu’un processeur traditionnel, à l’instar de la puce TrueNorth d’IBM (2014). Les performances globales de ce type de puces, qui seraient disponibles en grand nombre d’ici 5 à 7 ans d’après Marie-Noëlle Semeria (ex-directrice du LETI et récemment nommée à la tête de la R&D de Total), ouvrent la voie vers un nombre illimité de nouvelles applications, en regard de leurs capacités d’auto-apprentissage.

Un impact dans différents domaines liés à l’IA

L’auto-apprentissage en continu offert par ces architectures ouvre donc la voie à une formidable variété d’utilisations. Une plateforme d’apprentissage basée sur cette puce pourrait, par exemple, être l’une des clefs de l’arrivée d’une voiture autonome apprenant de tous ses trajets. Dans le domaine de la météorologie, cela pourrait permettre une analyse et une prédiction plus fine de la trajectoire des ouragans. D’autres applications, comme la détection d’anomalies dans des flux de données pourraient apporter une plus grande sécurité sur les réseaux.

En donnant la capacité d’apprendre à apprendre à une puce informatique, Intel dévoile également les fruits de la stratégie mise en place dès les rachats de Nervana Systems, de Mobileye et de Movidius : acquérir les compétences nécessaires en intégrant des entreprises leader en l’intelligence artificielle pour embarquer l’apprentissage automatique et l’apprentissage profond directement sur le matériel.


Rédacteur

- Marc-Emmanuel Perrin, Attaché adjoint pour la Science et la Technologie, San Francisco, deputy-sf@ambascience-usa.org

Sources

- https://www.theverge.com/circuitbreaker/2017/10/17/16488414/intel-ai-chips-nervana-neural-network-processor-nnp
- https://www.theverge.com/2017/1/11/14236236/nvidia-amd-intel-machine-learning-future
- https://newsroom.intel.com/editorials/intel-pioneers-new-technologies-advance-artificial-intelligence/
- https://www.lesechos.fr/tech-medias/hightech/030738558846-intelligence-artificielle-intel-travaille-sur-une-puce-ultra-rapide-2123165.php