Supercomputing 2013 : quoi de neuf dans le monde du Calcul Haute Performance (HPC) et du Big Data ?

, Partager

Du 17 au 22 novembre 2013, les acteurs et passionnés du HPC et de ses applications se sont rassemblés à Denver, Colorado. Pour sa 25e édition, la conférence a accueilli plus de 10 600 participants et proposé un programme technique rassemblant plus de 250 évènements en 6 jours, de groupes de travail techniques aux conférences en passant par des tutoriaux ou tables rondes. La conférence a également réuni 350 exposants. Les grands industriels du HPC étaient présents bien-sûr : Intel, Bull, Cray, IBM, Hewlett-Packard ou encore NVidia. Plusieurs autres choses sont à noter. D’une part la présence importante des universités, avec plus de vingt cinq universités américaines, mais aussi une douzaine d’universités japonaises, trois universités chinoises et quelques universités européennes, sud coréennes ou russes, qui montrent l’intérêt du monde académique pour le domaine du HPC mais surtout pour ses applications. A noter aussi l’important stand du département de l’Energie américain [1] qui utilise la puissance de calcul pour de multiples domaines d’applications. Enfin, à noter la présence d’un pôle français composé des industriels Bull, CAPS et Sysfera, ainsi que du CEA, de l’INRIA et du CNRS (représenté par IN2P3).

La conférence a donc eu lieu à un moment où l’économie du HPC retrouve une seconde jeunesse. En 2012, les revenus générés par le secteur ont dépassé les onze milliards de dollars, selon des éléments présentés par l’IDC [2], une organisation d’étude et d’analyse de marché, durant la conférence. Les premières tendances 2013 montrent un secteur en pleine croissance durant le premier trimestre. Les études semblent montrer que, pour un dollar investi dans le HPC, le profit serait de 38 dollars en retour.


Les stands de l’université de l’Indiana et du pionnier du HPC Cray côte à côte
Crédits : MS&T


Des pétaFLOPS à volonté, pour un Exascale à porté de main ?

La course aux pétaflops [3] et au Saint Graal de l’HPC, l’Exascale [4], semble battre son plein cette année, notamment à cause de l’émergence du domaine applicatif du Big Data et des avancées technologiques en matière d’accélération matérielle, toujours selon IDC. Quant au Cloud Computing HPC, le marché semble avoir une croissance plus faible mais plus régulière. Côté matériel, une évidence semble se dégager selon Bill Gropp [5], Président de l’édition 2013 de la conférence et professeur à l’Université de l’Illinois à Urbana Champaign [6] : la conjecture de Moore semble atteindre ses limites [7]. Le maintien des cadences historiques n’est plus possible, et ce qui était une tendance ces dernières années devient une évidence : les technologies actuelles et la miniaturisation des composants ne semblent plus suffisantes pour repousser les limites comme avaient pu le faire les circuits CMOS depuis les années 1980 [8].

Pour autant, l’Exascale semble toujours être l’objectif de ces prochaines années, prévu théoriquement pour 2020. A ce titre, le Département de l’Energie américain, en partenariat avec L’Administration Nationale de la Sureté Nucléaire américaine [9], ont annoncé l’attribution de fonds pour la recherche et développement en HPC [10], à hauteur de 25,4 millions de dollars, que se partageront cinq grands acteurs américains du HPC : AMD, Cray, IBM, Intel Federal et NVIDIA.

Un Top 500 peu bousculé…

Mais rien de dramatique à l’horizon pour le HPC, les applications émergent, les besoins sont là et surtout, le Top 500 [11] a encore réservé son lot de nouveautés pour cette 42e édition du classement qui recense, comme le laisse deviner son nom, les cinq cents plus puissants supercalculateurs du monde. Pas de surprise dans le top 5 de ce classement qui ne vacille pas d’un FLOP. Le supercalculateur chinois Tianhe-2 garde une large tête d’avance sur son rival américain Titan, appartenant au Département de l’Energie. Il faut regarder la sixième place pour voir un nouvel arrivant dans le top 10, le suisse Piz Daint, qui a vu ses performances améliorées pour devenir le plus puissant calculateur d’Europe. Il prend ainsi la place du supercalculateur Tempede du TACC de l’Université du Texas auquel nous avons fait référence dans un précédent article [12]. Les américains renforcent leur présence dans ce classement avec 73 nouveaux arrivants, aux dépends de la Chine, notamment. Cinq nouvelles entrées seulement pour la France qui compte maintenant vingt-deux appareils dans ce classement. Le top 500 montre en outre une forte disparité dans ces machines puisque les dix-sept premiers représentent près de la moitié de la puissance de calcul total des 500 supercalculateurs additionnés, dont 14% pour Tianhe-2 à lui seul et ses 33 pétaFLOPS de moyenne au test de performance Linpack [13] !

… mais un test de performance mis sur la sellette

L’avenir de Linpack, vieux de plus de trente ans et utilisé depuis toujours pour le Top 500, semble d’ailleurs être remis en cause par l’annonce [14] du laboratoire Sandia [15] du Département de L’Energie deux jours avant l’ouverture du Supercomputing 2013. Le nouveau test de performance HPCG mis au point par un chercheur du laboratoire, Mike Heroux, semble mieux correspondre aux réalités scientifiques d’aujourd’hui. Avec les années, les architectures des supercalculateurs sont devenues plus sophistiquées, offrant plus de possibilités qui affectent les performances de résolution des problèmes toujours plus complexes. C’est cela que le test Linpack ne met pas suffisamment en avant, à l’inverse du HPCG.

Des pétaFLOPS, mais pas que !

Au vu des éléments précédemment cités, on observe donc une conjecture de Moore mise à mal, des architectures de plus en plus complexes pour répondre aux nouveaux besoins… Au-delà de la course au pétaFLOPS, c’est l’importance du matériel annexe qui a été mis en avant cette année. L’influence de la mémoire sur les performances et la gestion des erreurs restent toujours un sujet de débat primordial. C’est ainsi que Vilas Sridharan, un chercheur de chez AMD, a mis en avant l’influence de la localisation géographique - l’altitude notamment - du supercalculateur sur le taux d’erreur de la mémoire. Son équipe a en effet relevé une différence importante du taux d’erreur entre deux machines intégrées de la mémoire SRAM, l’une située à 249 mètres d’altitude et une autre située à 2 151 mètres. Plus l’altitude est importante, plus le taux d’erreur est important. Ceci serait notamment dû à l’impact, déjà connu, des neutrons composant les rayons cosmiques. L’étude a aussi mis en avant un taux d’erreur plus élevé, et moins explicable, entre les serveurs situés dans les racks supérieurs et ceux situés au milieu ou en bas de la baie.

D’autre part, le stockage semble devenir de plus en plus un frein à la performance, notamment dans le domaine du Big Data. La gestion d’une masse importante de données implique de pouvoir gérer de manière optimale le stockage en bande ou hors bande de celles-ci. C’est donc un des gros challenges des années à venir.


Une des nombreuses conférences du Supercomputing 2013
Crédits : MS&T


Vers plus d’efficacité énergétique

La conférence Supercomputing 2013 a vu aussi les regards converger de plus en plus vers la maîtrise de la consommation électrique des supercalculateurs et de leur efficacité énergétique. Et pour cause, "les supercalculateurs sont souvent sous-utilisés dû à leur coût extrêmement élevé en plein régime", selon Kai Dupke, Responsable Produit chez SUSE Linux [16]. De plus en plus d’efforts sont donc faits pour abaisser au maximum le rapport watts/petaFLOPS. Ainsi, Piz Daint, le supercalculateur le plus rapide d’Europe et sixième au classement du Top500, est aussi le plus efficace en matière de consommation électrique de tout le top 10. Un nouveau classement, débuté en 2008, commence ainsi a attirer l’attention, il s’agit du Green500, le classement des 500 supercalculateurs les plus efficaces énergétiquement au monde [17]. L’institut Riken a annoncé avoir pour objectif d’atteindre l’exascale d’ici 2020 en consommant moins de 30 MégaWatts. A titre de comparaison, Tianhe-2 consomme actuellement 18 MégaWatts environ pour une puissance de 0,034 exaFLOPS.

Rdv fixé à la Nouvelle-Orléans en 2014

C’est donc au milieu de milliers de participants, encouragés par des centaines d’annonces et d’évènements que s’est clos une semaine riche en rebondissement pour le secteur du HPC. Il serait dommage de terminer cette article sur le SC 2013 sans parler du partenariat annoncé à l’occasion de la conférence entre IBM et Nvidia. Avec sa nouvelle Tesla K40, Nvidia affute sa gamme de processeurs graphiques et d’accélérateurs graphiques, ce qui devrait permettre de venir renforcer les supercalculateurs de son partenaire, IBM, et sa couche logiciel d’analyse de données [18] et ainsi offrir des machines plus complètes et performantes. Les aficionados du HPC et de ses applications ont maintenant rendez-vous pour la prochaine édition de la conférence Supercomputing qui se déroulera du 16 au 21 novembre 2014 à la Nouvelle-Orléans, en Louisiane.

Sources :


- [10] "DOE Funds Exascale Interconnect R&D" - HPC Wire - Tiffany Trader - 15/11/2013 - http://www.hpcwire.com/2013/11/15/doe-funds-exascale-interconnect-rd/
- [15] Sandia Labs https://share.sandia.gov/news/resources/news_releases/computer_test/#.UpWB1sQjI5T
- [16] "China still has the world’s fastest supercomputer" - Forbes - Alex Knapp - 21/11/2013 - http://www.forbes.com/sites/alexknapp/2013/11/21/china-still-has-the-worlds-fastest-supercomputer/
- [18] "IBM and NVIDIA Announce Data Analytics & Supercomputer Partnership" - AnandTech - Ryan Smith - 18/11/2013 - http://www.anandtech.com/show/7522/ibm-and-nvidia-announce-data-analytics-supercomputer-partnership
- "Supercomputing’s big problem : what’s after silicon ?"- http://www.computerworld.com/s/article/9244179/Supercomputing_s_big_problem_What_s_after_silicon_

Pour en savoir plus, contacts :


- [1] DoE : Department of Energy
- [2] IDC : International Data Corporation
- [3] PétaFLOPS est une unité de mesure de vitesse d’un système informatique, dont l’acronyme FLOPS (FLoating point Operations Per Second) et le préfixe péta- (10^15) forment le mot.
- [4] Exascale fait référence à un système informatique capable d’atteindre une vitesse de calcul de l’ordre de l’exaFLOPS, soit 10^18 opérations en virgule flottante ou 1000 pétaFLOPS.
- [5] Fiche wikipedia de Bill Gropp : http://en.wikipedia.org/wiki/Bill_Gropp
- [6] Université de l’Illinois à Urbana-Champaign : http://illinois.edu/
- [7] Decades ago, computing was saved by CMOS. Today, no hero is in sight - The Register - Rik Myslewski - 19/11/2013 - http://www.theregister.co.uk/2013/11/19/decades_ago_computing_was_saved_by_cmos_today_no_hero_is_in_sight/
- [8] CMOS : Complementary metal-oxide-semiconductor, est une technologie d’élaboration de circuits imprimés. Source, wikipedia : http://en.wikipedia.org/wiki/CMOS
- [9] NNSA : National Nuclear Security Administration
- [10] Top500 : http://www.top500.org/
- [11] "Du renfort au Texas pour les supercalculateurs !" - BE Etats-Unis 330 - Catherine Marais - 03/05/2013 http://www.bulletins-electroniques.com/actualites/72951.htm
- [12] Linpack http://en.wikipedia.org/wiki/LINPACK
- [13] HPCG : High Performance Conjugate Gradient. Plus d’informations : http://www.sandia.gov/~maherou/docs/HPCG-Benchmark.pdf
- "Le point sur les supercalculateurs : atelier du laboratoire commun INRIA-NCSA pour une informatique à l’échelle du PetaFlop" - BE Etats-Unis 230 - Frédéric Lohier - 07/01/2011 - http://www.bulletins-electroniques.com/actualites/65526.htm
- [17] "HPC Power Efficiency and the Green500" - HPC Wire - Kirk Cameron - 20/11/2013 - http://www.hpcwire.com/2013/11/20/hpc-power-efficiency-green500/
Code brève
ADIT : 74429

Rédacteurs :


- Thomas Debacker (deputy-ntics@ambascience-usa.org) ;
- Suivre le secteur Nouvelles Technologies de l’Information, Communication, Sécurité sur twitter @MST_USA_NTICS ;
- Retrouvez toutes nos activités sur http://france-science.org.

Voir en ligne : http://www.bulletins-electroniques….