Une informatique virtualisée et haute performance : c’est possible !

L’informatique haute performance n’est plus le lot de quelques acteurs de l’industrie lourde, l’aéronautique ou la défense. Aujourd’hui, de plus en plus d’entreprises souhaitent disposer de suffisamment de puissance pour faire tourner des applications gourmandes, notamment multimédia.

Des besoins multimédia de plus en plus importants

Bien entendu, le commun des salariés n’a pas besoin de la force de calcul nécessaire pour étudier la fusion nucléaire ou les évolutions climatiques. En entreprise, les applications typiques qui nécessitent de la puissance sont la retouche d’image dans les services marketing et les maisons d’édition, la CAD/CAM (conception assistée par ordinateur / production assistée par ordinateur) en génie mécanique, ou dans le domaine médical, comme en radiologie.

Le développement des usages multimédia dans l’entreprise a également fait naître d’autres besoins en termes de performances : la formation en ligne (ses podcasts, ses vidéos HD), les webcasts, les conférences vidéo ; les interfaces utilisateur de plus en plus sophistiquées ; les postes de travail double-écran, réputés pour leur praticité et leur capacité à stimuler la productivité, et qui trouvent communément leur place dans les départements comptables ou merchandising, les points de production ou de contrôle logistique.

Des solutions virtuelles qui combinent puissance et rentabilité

Il y a encore quelques années, pour tous ces usages, les entreprises adoptaient le réflexe PC. Qu’ils soient autonomes, lame ou en rack, ils constituaient en effet la meilleure réponse aux besoins exprimés de performances graphiques. Encore aujourd’hui, la puissance est au rendez-vous. Mais elle a un coût, et même des coûts : d’achat, de maintenance, de support.

Une alternative plus rentable ? L’informatique légère et la virtualisation. La standardisation générée offre en effet des avantages significatifs tant organisationnels qu’économiques, grâce à une gestion centralisée et à distance, des coûts d’acquisition, de maintenance et de support bien moindres, et une durée de vie jusqu’à deux fois plus longue qu’un PC traditionnel. Et les performances sont aussi au rendez-vous, car le matériel (ses processeurs multi-cœurs et ses chipsets graphiques) comme les solutions de virtualisation ont beaucoup évolué en la matière.

Tout est question d’interaction entre le serveur et le client

Entre les différents acteurs de la virtualisation, les technologies et les techniques se multiplient et se combinent pour offrir aux entreprises la meilleure performance pour leur applications et usages multimédia.

Pour réduire la charge des serveurs, ils proposent par exemple la mise en cache côté client, c’est-à-dire le stockage des données, images ou contenus vidéo sur une base temporaire, et une lecture en local. Cette redirection peut également être utilisée pour contourner les faiblesses d’une connexion internet si la bande passante et les temps de latence empêchent la transmission en temps réel. Indispensable notamment pour les conférences vidéo, où l’image et le son doivent impérativement être transmis de manière synchrone !

Le décodage variable et dynamique des contenus multimédia s’adapte quant à lui à la bande passante disponible, en prenant également en compte les attentes de l’entreprise en termes de coûts, de sécurité et de performances. 

La puissance du partage GPU (carte graphique) sur serveur permet de supporter jusqu’aux graphiques 3D professionnels. Cette solution peut être configurée pour qu’un GPU soit partagé par plusieurs utilisateurs, dédié à un utilisateur unique, ou pour qu’un utilisateur unique puisse accéder à plusieurs GPU pour les demandes les plus exigeantes. Grâce à cette accélération graphique, même les applications de conception assistée par ordinateur, la fabrication et l’ingénierie (CAD/CAM/CAE), les systèmes d’information géographique (GIS) ou les systèmes de transmission d’images (PACS) peuvent en effet être provisionnés de manière centralisée, sans variation ni perte de puissance.

Longtemps, multimédia et virtualisation n’ont pas fait bon ménage. Images saccadées, problèmes d’affichage, décalages dans l’exécution et la fermeture… autant de mauvaises expériences qui ont freiné la popularisation des infrastructures de bureaux virtuels dans des entreprises de plus en plus consommatrices de multimédia. Cette période est révolue : les évolutions des technologies de virtualisation, tant matérielles que logicielles, permettent désormais d’offrir aux utilisateurs une performance et un rendu graphiques comparables, voire supérieurs à ceux obtenus par les clients lourds.

Autour du même sujet