Nvidia Pascal : le GPU taillé pour le Big Data et le machine learning

Nvidia Pascal : le GPU taillé pour le Big Data et le machine learning A l'occasion de sa GPU Technology Conference, le géant des cartes graphiques a dévoilé sa feuille de route 2016. Une vitesse de bande passante mémoire de 1000 Mb/s est évoquée.

Très bien implantées sur le marché grand public, les solutions graphiques de Nvidia sont également présentes dans l'univers du calcul haute performance (HPC) depuis quelques années maintenant. Dans le cadre de son événement GTC (GPU Technology Conference) qui se déroule en ce moment à San José en Californie, le géant américain a levé le voile sur plusieurs innovations à venir, taillées pour répondre notamment à ces besoins, allant au-delà de l'annonce de sa nouvelle carte graphique GeForce GTX Titan Z.

Des innovations qui ne devraient pas manquer d'intéresser les acteurs (fournisseurs, éditeurs, laboratoires, universités...) travaillant dans des projets très gourmands en ressources systèmes et graphiques, et faisant appel au machine learning ainsi qu'au Big Data. 

La nouvelle génération de GPU "Pascal" présentée par Nvidia repose ainsi sur un cocktail de plusieurs innovations allant de la mémoire empilée (stacked DRAM), permettant de concevoir des puces graphiques plus compactes et performantes, à la mémoire unifiée (allocation de mémoire commune entre CPU et GPU). Sans oublier NVLink : une technologie conçue pour faire sauter la limitation de la bande passante mémoire entre CPU et GPU (de 16 Gb/s actuellement à 80 Gb/s).

La génération de GPU "Pascal", prévue en 2013, succéderait ainsi à l'actuelle "Maxwell". Elle pourrait permettre d'afficher à terme une vitesse de bande passante mémoire, interne cette fois, de 1000 Mb/s, contre 288 Gb/s actuellement.