Nous suivre Industrie Techno

OÙ EST PASSÉ MON PC ?

Ridha Loukil

Avec la virtualisation, le poste de travail se cache dans le serveur. Une révolution qui remet au goût du jour le bon vieux "client léger".

Le poste de travail actuel, basé en général sur le PC avec, en local, son système d'exploitation, ses applications et ses données, est-il à terme condamné ? Pour Franck Seimann, directeur général de Sistema Strategy, la réponse ne fait plus de doute. Selon ce consultant informatique, le poste de travail de demain sera un PC virtuel, une image du PC actuel centralisée sur le serveur et accessible de n'importe où, à partir d'un simple client léger (terminal dépourvu de disque dur et de processeur). Cette révolution trouve son essence dans la virtualisation ou VDI (pour Virtual Desktop Infrastructure), une technologie développée par VMWare et poussée par des constructeurs informatiques comme NEC, IBM, HP ou Sun.

En réalité, la virtualisation est un concept ancien. Il remonte aux années 1960, au bon vieux temps de l'informatique centralisée à base de gros ordinateurs - les "mainframes". Victime de la décentralisation de l'informatique qui a suivi la banalisation du micro-ordinateur dans les années 1980, elle a été remise au goût du jour dans les années 2000 par VMWare. L'éditeur américain de logiciels en fait sa spécialité, non pas pour un retour à l'informatique centralisée, mais d'abord pour la consolidation de serveurs.

Avec l'explosion des applications informatiques en entreprise, les serveurs se sont en effet multipliés dans les salles informatiques. Dans le schéma classique, un serveur correspond à une application : messagerie, annuaire, Web, FTP, etc. Avec cette approche, les serveurs restent mal exploités. Les statistiques montrent qu'ils ne sont utilisés qu'entre 10 et 25 % de leur capacité. Or l'entreprise en paye 100 % du prix. Et s'ils ne consomment pas toujours 100 % de leur puissance électrique, ils dissipent tout le temps de la chaleur qu'il faut évacuer par un coûteux système de climatisation.

économies de place, de matériels et d'énergie

La virtualisation remédie à cette situation en consolidant plusieurs applications sur le même serveur. Chaque application tourne sur une machine dite virtuelle, artificiellement créée au-dessus de la machine. Tout se passe comme si elle disposait de son propre matériel. Les différentes machines virtuelles, isolées entre elles, se partagent de façon dynamique les ressources du serveur. D'une centaine, le nombre de serveurs dans la salle informatique peut être ainsi réduit à dix ou vingt. Et le taux d'utilisation des machines grimpe entre 60 et 85 %. À la clé, des économies substantielles de matériels, de place et d'énergie.

Rationalisation du parc de PC

Ces avantages sont particulièrement sensibles dans les data centers, gros centres d'hébergement informatique. Face à la montée régulière de la densité de puissance des serveurs, ils font appel à la virtualisation pour dégager de la place, augmenter l'espacement entre les matériels et surtout baisser la consommation d'énergie électrique, un point critique dans cette application. Pour un 1 kW d'électricité consommé par les serveurs, il faut en effet 1 kW de climatisation. La réduction de 1 kW de la consommation des serveurs génère donc en réalité une économie de 2 kW sur la facture d'électricité.

Après avoir conquis les serveurs, la virtualisation s'applique aujourd'hui aux postes de travail. Là, son principal intérêt est de rationaliser l'administration du parc de PC. Le PC se révèle en effet un véritable gouffre financier pour les entreprises. « Son coût total de possession atteint 5 000 dollars par an. Sa gestion devient un casse-tête pour les responsables informatiques disposant d'un parc de plusieurs milliers de postes », explique Damien Buisson, directeur technique chez IBM. Réduire le coût total de possession en simplifiant l'administration, tel est le premier bénéfice de la virtualisation. Plus besoin d'envoyer des techniciens faire le tour des bureaux pour mettre à jour, un par un, les postes de travail, installer de nouvelles applications, nettoyer les virus ou éteindre les machines laissées allumées le soir. Toutes ces tâches deviennent réalisables de façon centralisée au niveau de la salle informatique. « Prenons l'exemple du passage de Windows XP à Windows Vista. Cette migration nécessite au préalable une mise à niveau des matériels, avec notamment l'extension de la mémoire vive. Dans la configuration classique de postes de travail, il faudrait ajouter dans chaque PC une barrette de mémoire. Avec des PC virtuels, cette opération est réalisée une fois pour toutes sur le serveur. D'où un gain significatif de temps et bien sûr d'argent », explique Arnaud Gardin, directeur marketing chez NEC.

La mutualisation des ressources informatiques ne fait qu'amplifier ces économies. Un serveur moderne supporte vingt à cinquante PC virtuels. Sa capacité de traitement est allouée de façon dynamique aux utilisateurs en fonction de leurs besoins. En cas de saturation, un autre serveur prend le relais de manière à ce que les ressources informatiques mobilisées correspondent toujours de près à celles consommées. Parce qu'ils sont rarement utilisés à 100 % de leur capacité, les PC représentent une ressource souvent gaspillée.

L'impact énergétique est considérable. Arnaud Gardin a fait ses calculs : « Pour une configuration de cinquante postes virtuels, la consommation d'électricité est divisée par un facteur quatre à six par rapport à des PC classiques. » L'économie d'énergie sur le poste de climatisation est équivalente. En effet, une moindre consommation d'énergie par l'informatique, implique moins de chaleur dégagée et donc moins de climatisation nécessaire pour l'évacuer. Le remplacement des PC par des clients légers consommant jusqu'à cinq fois moins d'énergie atténue le désagrément d'une climatisation déficiente sur le lieu de travail. « Dans une salle de formation, par exemple, la présence de trente PC se traduit, selon les usages, par un réchauffement de 2 à 4 °C, ce qui peut être gênant l'été », note Arnaud Gardin.

Impact environnemental favorable

Facteur de rationalisation des coûts informatiques, le PC virtuel s'impose également comme un outil de développement durable. Les économies d'énergie qu'il génère se doublent d'un impact environnemental réduit du fait de l'allongement de la durée de vie des matériels et d'une aptitude plus forte au recyclage. Dépourvus de pièces fragiles ou sensibles, comme le disque dur ou le microprocesseur, les postes clients durent plus de six ans, soit 50 % plus longtemps que les PC. Leur démontage est simplifié par la réduction de leur électronique à des fonctions d'affichage et de connexion au réseau.

Autre avantage du PC virtuel : la sécurité. Parce que les données résident dans la salle informatique et non plus dans les postes de travail, elles deviennent plus difficiles à voler. De même, les risques d'attaque, d'intrusion et d'infection par des virus sont contenus. L'expérience montre qu'ils transitent à 65 % par les postes de travail. En proposant un poste client dépouillé au maximum, sans port USB, ni lecteur de CD-DVD, NEC supprime les risques liés à l'importation de contenus extérieurs. La politique de sécurité gagne en proactivité. En matière de virus, par exemple, plus besoin d'attendre le retour des collaborateurs itinérants au bureau ou que les postes soient allumés pour procéder à une mise à jour urgente. Cette opération s'effectue à temps au niveau du serveur, avant que le virus n'ait le temps de se propager dans le réseau.

Ces avantages suffiront-ils à chasser le PC des bureaux ? Pas si sûr. Il n'y a qu'à se rappeler les concepts de NetPC ou Network Computer, promus par Sun ou Oracle dans le passé. Ils se sont tous terminés par un grand flop. Certes, la technologie a gagné en maturité, les réseaux ont vu leur bande passante gonfler, les coûts de gestion de parc informatique ont explosé... Mais le PC virtuel est loin d'être la panacée. « C'est aujourd'hui une solution intéressante pour les grandes entreprises gérant des milliers de postes de travail, voire des dizaines de milliers. Mais pas pour les PME-PMI », estime Damien Buisson, d'IBM. Toutefois, « dans des applications pointues, comme les salles de marché bancaires ou les centres d'appels, elle se justifie même pour une centaine de postes », modère Arnaud Gardin, de NEC. Le PC virtuel ne convient pas, non plus, à tous les usages. S'il est adapté aux applications bureautiques courantes, il est exclu pour des postes nécessitant des fonctions spécifiques comme le graphisme, la simulation ou la CAO.

La virtualisation ne manque pas de paradoxe. Si elle optimise les ressources informatiques, elle a pour effet pernicieux de dégrader les performances. Sa mise oeuvre nécessite l'installation sur les serveurs de logiciels intermédiaires qui consomment tout de même jusqu'à 20 % de la puissance de la machine. Certes, Intel et AMD tentent de remédier à ce problème en intégrant dans leurs dernières générations de processeurs pour serveurs les instructions les plus courantes de virtualisation. Les exécuter de façon câblée au niveau de la puce, et non plus par logiciel, fait gagner de la vitesse. Mais on est loin du compte.

Controverse sur la sécurité et l'économie

L'argument de sécurité ne convainc pas tout le monde. Gartner vient d'ailleurs d'appeler à la prudence les entreprises tentées par cette technologie. Selon ce cabinet d'études, la couche logicielle de virtualisation constitue une cible potentielle d'attaques de nature à accroître la vulnérabilité du système d'information. Laurent Montaigne, responsable des plates-formes d'assistance technique des clients en infogérance chez Steria, va dans le même sens : « Accéder à son environnement de travail par un poste externe à l'entreprise, chez un client par exemple, ou le transporter sur soi dans une clé USB, présente de sérieux risques. »

Sur le plan économique, l'intérêt à long terme de la virtualisation est contrebalancé par le besoin d'une grosse mise de départ. Certes le client léger coûte moins cher que le PC : 200 à 500 euros. Mais ce gain est négligeable face au surcoût induit par les serveurs, les logiciels et les services d'intégration. Aux dires d'Arnaud Gardin toutefois, le jeu en vaut la chandelle. Chez les clients de NEC, qui ont mis en place cette technologie, il observe une baisse du coût total de possession de 30 à 40 % sur trois ans et un retour sur investissement de quinze à dix-huit mois.

Enfin, le marché manque encore de maturité. Et de standards. Les logiciels d'intermédiation entre les postes clients et les serveurs ne sont disponibles que depuis un an. « L'offre est mal structurée et il n'existe pas encore de solutions packagées », constate Nathaniel Martinez, analyste chez IDC Europe.

Dans les moteurs de virtualisation, VMWare (groupe EMC) s'impose comme la référence. Son logiciel est au coeur des solutions VDI proposées par NEC, IBM, HP ou Sun. Mais sa domination est contestée par les tenants du logiciel libre et bientôt par Microsoft. L'hyperviseur XEN, issu du monde des logiciels libres, entre dans la réalité. Novell, fournisseur d'alternatives Linux à Windows, l'intègre dans son logiciel pour serveurs SLES 10. Red Hat en fait de même avec son logiciel Entreprise Linux 5. IBM le propose aussi. Mais c'est l'évolution de Microsoft qui focalise l'attention. L'éditeur de Redmond a pris le train en marche en achetant en 2006 Softricity, un éditeur de solutions de virtualisation d'applications. Après avoir tenté de freiner le marché par une politique restrictive de licences, il a aujourd'hui assoupli sa position notamment concernant Windows Vista. Il prépare ainsi le terrain à son hyperviseur Viridian, qui devrait sortir en 2008 dans la suite de Longhorn, le pendant serveur de Vista. Microsoft s'ouvre aussi aux logiciels libres puisque, selon les termes de l'accord avec Novell, conclu en 2006, son système pourra exécuter des machines virtuelles sous Linux, comme le fait déjà le logiciel de Novell avec Windows.

UN MARCHÉ EN EXPLOSION

- Selon le cabinet d'études IDC, le marché des serveurs, logiciels et services de virtualisation en Europe devrait bondir de 1,1 milliard de dollars en 2006 à 5,4 milliards de dollars en 2011.

RÉPONSE : IL EST DANS LE SERVEUR

- Appliquée depuis peu aux serveurs, la virtualisation s'attaque maintenant aux postes de travail. - Avec cette technologie, les fonctions vitales du PC sont déportées au niveau du serveur. - À chaque utilisateur correspond une machine virtuelle, avec son système d'exploitation, ses applications et ses données. Elle est accessible de partout à partir d'un simple client léger.

DEUX TECHNOLOGIES CLÉS

Moteur de virtualisation - Il se compose d'un hyperviseur (logiciel de création des machines virtuelles sur le serveur), d'un outil d'allocation dynamique des ressources et d'autres fonctions de gestion. Fournisseurs : VMWare, Novell, Red Hat...Intermédiaire de connexion - Connection Broker est un logiciel d'intermédiation entre les postes clients et le serveur. Il assigne lors de la connexion une machine virtuelle au poste de travail. Fournisseurs : Citrix, Leostream, HP, Propero, Sun, Provision Networks...

QUATRE FAÇONS D'ACCÉDER À SON PC VIRTUEL

1. Par un client léger intégré Comme ceux proposés par Wyse, Sun ou HP. Il se réduit à un écran, un clavier, une carte vidéo et un dispositif de connexion au réseau. 2. Par un boîtier de poche Comme ceux commercialisés par NEC, Sun ou Wyse.Il donne accès au poste de travail sur le serveur en le raccordant au réseau et à n'importe quel écran et clavier. 3. Par un terminal portable Comme le TMC 160 de NEC ou le m100 Neoware. Sorte de PC portable sans disque dur. 4. Par une clé USB, un disque dur externe ou un baladeur portant une copie de votre machine virtuelle. En le connectant à n'importe quel PC, ce dispositif vous donne accès, de n'importe où, à votre environnement de travail. Lors de votre retour au bureau, il se synchronise avec la machine virtuelle sur le serveur.

DEUX ALTERNATIVES À LA VIRTUALISATIONLe Blade-PC ou PC-lame

- À chaque poste de travail correspond un PC complet. Mais au lieu de se trouver sur le bureau, il est rangé comme les serveurs à lames dans les armoires de la salle informatique. Ne restent sur le bureau que le clavier et l'écran. Cette architecture, poussée par IBM et HP, s'inscrit dans une logique de centralisation visant à simplifier l'administration, à améliorer la sécurité et à réduire les coûts d'exploitation.

Le Server Based Computing ou informatique partagée

- Les applications sont centralisées au niveau des serveurs. Elles deviennent accessibles depuis n'importe où, à partir d'un PC ou d'un simple client léger. Contrairement à la virtualisation, l'utilisateur ne dispose pas d'un environnement de travail dédié. L'accès au serveur s'effectue en mode partagé comme pour un serveur Web grâce à un navigateur. Cette architecture, développée notamment par Citrix, vise à mutualiser les applications de l'entreprise.

vous lisez un article d'Industries & Technologies N°0889

Découvrir les articles de ce numéro Consultez les archives 2007 d'Industries & Technologies

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

Au Sido, les start-up misent sur l'IA pour séduire l'industrie

Au Sido, les start-up misent sur l'IA pour séduire l'industrie

Les start-up n'ont pas manqué le rendez-vous du salon international des objets connectés (Sido) de Lyon pour présenter leur[…]

Longévité des batteries, Microsoft IA, laser ultra-puissant… les innovations qui (re)donnent le sourire

Longévité des batteries, Microsoft IA, laser ultra-puissant… les innovations qui (re)donnent le sourire

Microsoft IA, cybersécurité IBM, ralenti vidéo… les meilleures innovations de la semaine

Microsoft IA, cybersécurité IBM, ralenti vidéo… les meilleures innovations de la semaine

La première Ecole IA Microsoft de Lyon

La première Ecole IA Microsoft de Lyon

Plus d'articles