Se connecter avec
S'enregistrer | Connectez-vous

Un PC virtuel est 11 % plus cher qu'un PC réel

Par - Source: Microsoft | B 22 commentaires

Selon une étude conduite par Microsoft, le coût global d'un PC virtualisé est 11 % plus élevé que celui du même PC réel.

Cette étude bat donc en brèche un des arguments des défenseurs à tout crin de la virtualisation : elle ne permet pas toujours de faire des économies. L'étude de Microsoft se focalise néanmoins sur le VDI (Virtual Desktop Infrastructure) soit la virtualisation des postes de travail en bureautique standard au sein d'entreprises. C'est dans ce cadre que le coût total de possession (TCO) d'un environnement virtuel est plus élevé que celui d'un poste de travail réel.

Plus précisément, Microsoft conclut que pour atteindre le même niveau de performances qu'un PC normal, un bureau virtuel voit son coût rapidement augmenter. Par ailleurs, le prix des logiciels de virtualisation indispensables est plus élevé que les économies réalisées sur les investissements en matériel. Enfin, bien que le VDI rende l'administration des PC plus simple (et donc moins couteuses), le département IT voit sa tâche compliquée par le déploiement de l'infrastructure sous-jacente. Globalement, le bilan sur les dépenses du service informatique est donc nul.

Afficher 22 commentaires.
Cette page n'accepte plus de commentaires
  • zyphos , 7 juillet 2010 11:24
    Forcément s'il faut payer toutes les licences de la virtualisation Microsoft...
  • mitch074 , 7 juillet 2010 12:01
    Perso, j'ai un PC, avec en moyenne 3 machines virtuelles dessus; une machine du lot fait tourner un Windows, le reste est constitué entièrement de Linux et FreeBSD.

    Ca m'a coûté le prix d'un seul PC.

    Ensuite, c'est sûr, l'infrastructure nécessaire pour faire tourner un bureau distant de type Windows avec les mêmes performances qu'une machine locale sont, à la pièce, supérieure à faire tourner un PC local: il faut un gros serveur et un débit réseau maousse pour faire passer ces images compressées!

    C'est aussi vrai sous GNU/Linux en VNC.

    Par contre, quelles économies sont réalisées dans une grande infrastructure qui utilise des postes de travail standardisés, qui peut tous les virer pour utiliser des terminaux actifs? Un schéma inutilisable chez 'Crosoft, où une application doit tourner sur la machine où elle est installée.

    Simple: vous prenez le nombre d'administrateurs nécessaires pour un réseau 'Crosoft (1 admin pour 12 serveurs, 1 admin pour 20 postes) et le nombre d'admins pour un réseau UNIX semi-passif (1 admin pour 20 serveurs, 1 admin pour 50 postes) et vous comptez (on considérera que, comme c'est une entreprise, le prix de l'assistance genre RedHat ou Suse est équivalent au prix des licences+support 'Crosoft - c'est pas vrai, mais bon): y'a deux fois moins d'admins requis.

    Les terminaux semi-passifs n'ont pas besoin d'un disque dur (peuvent booter en réseau depuis une image compressée, puis charger les applications à distance; avec un bon système de proxy caches, c'est même pas lourd) ni d'une grosse carte graphique, ce qui diminue les besoins en énergie et le nombre de pièces d'usure, et comme tout le software et les données sont sur les serveurs il n'y a même pas besoin que l'admin se déplace pour les dépannages software; le dépannage hardware est aussi simplifié, il suffit de remplacer le terminal, l'utilisateur aura de nouveau accès à ses applications et données.

    Et, oui, c'est encore plus simple à administrer sur le cloud.
  • maxix , 7 juillet 2010 13:11
    mitch074Perso, j'ai un PC, avec en moyenne 3 machines virtuelles dessus; une machine du lot fait tourner un Windows, le reste est constitué entièrement de Linux et FreeBSD.Ca m'a coûté le prix d'un seul PC.Ensuite, c'est sûr, l'infrastructure nécessaire pour faire tourner un bureau distant de type Windows avec les mêmes performances qu'une machine locale sont, à la pièce, supérieure à faire tourner un PC local: il faut un gros serveur et un débit réseau maousse pour faire passer ces images compressées!C'est aussi vrai sous GNU/Linux en VNC.Par contre, quelles économies sont réalisées dans une grande infrastructure qui utilise des postes de travail standardisés, qui peut tous les virer pour utiliser des terminaux actifs? Un schéma inutilisable chez 'Crosoft, où une application doit tourner sur la machine où elle est installée.Simple: vous prenez le nombre d'administrateurs nécessaires pour un réseau 'Crosoft (1 admin pour 12 serveurs, 1 admin pour 20 postes) et le nombre d'admins pour un réseau UNIX semi-passif (1 admin pour 20 serveurs, 1 admin pour 50 postes) et vous comptez (on considérera que, comme c'est une entreprise, le prix de l'assistance genre RedHat ou Suse est équivalent au prix des licences+support 'Crosoft - c'est pas vrai, mais bon): y'a deux fois moins d'admins requis.Les terminaux semi-passifs n'ont pas besoin d'un disque dur (peuvent booter en réseau depuis une image compressée, puis charger les applications à distance; avec un bon système de proxy caches, c'est même pas lourd) ni d'une grosse carte graphique, ce qui diminue les besoins en énergie et le nombre de pièces d'usure, et comme tout le software et les données sont sur les serveurs il n'y a même pas besoin que l'admin se déplace pour les dépannages software; le dépannage hardware est aussi simplifié, il suffit de remplacer le terminal, l'utilisateur aura de nouveau accès à ses applications et données.Et, oui, c'est encore plus simple à administrer sur le cloud.

    Un admin pour 20 postes? Ah ca doit etre pour ca que je cours partout! :D 
  • zyphos , 7 juillet 2010 14:07
    "C'est aussi vrai sous GNU/Linux en VNC."
    Heu non, VNC pour faire du remote desktop c'est complètement dépassé. C'est lent, et ça transfert beaucoup trop de données.
    Il faut faire:
    - Sous Windows du RDP.
    - Sous linux du X11 forwarding, "ssh -X login@ip_du_server", sous n'importe quel Linux, très pratique quand on a plusieurs écrans, vidéo fluide même sur un écran HD 1080p (sur réseau local).
    - Sous linux du NX http://www.nomachine.com, ca consomme un peu de RAM (réglable) de base 64Mo/client. Très pratique sur les connexions lentes. (A travers internet)
    - Pour tout OS, SPICE http://www.spice-space.org/ , mais bon, même limitation que VNC, limité à un seul client par serveur pour le moment.
  • papamike62 , 7 juillet 2010 14:16
    zyphosForcément s'il faut payer toutes les licences de la virtualisation Microsoft...

    A mon avis ils ont plutôt compté le prix des licences VMWare.
  • mitch074 , 7 juillet 2010 14:25
    @zyphos: j'allais pas entrer dans les détails; comme Windows ne permet pas d'utiliser une architecture client-serveur comme X, VNC était la solution la plus connue et qui se rapprochait le plus de RDP, à titre d'exemple uniquement, et qui a l'avantage d'être cross-plateforme pour le client comme pour le serveur.

    De plus, les hôtes de VM actuels procurent des pilotes invité optimisés, qui permettent de virtualiser n'importe quel OS et d'y accéder via VNC de manière relativement efficace; un OS Windows capable de se comporter en véritable serveur RDP, c'est obligatoirement un haut-de-gamme. D'où le fait que je ne me sois pas cassé la nénette pour donner une explication plus complète.

    Sinon, c'est sûr, exécuter une appli X via ssh, c'est le pied: intégration complète au système, utilisation des resources locales pour le rendu, transit optimisé... C'est ce type de terminal client diskless (le noyau, init, bash, X tout seul, l'environnement de bureau et un browser, ça fait pas lourd dans une image réseau compressée bootable) qui serait peinard à entretenir.
  • Anonyme , 7 juillet 2010 15:18
    L'année passée nous avons fait une analyse d'impact sur les solutions VDI dans notre entreprise. La conclusion était que le coût moyen d'un poste virtuel revient à 120% de celui d'un poste physique.
    Par contre en ce qui concerne la virtualisation de serveurs, les éconnomies réalisées sont très importantes.
  • Anonyme , 7 juillet 2010 16:52
    Non, mais il faut arrêter de mélanger virtualisation de serveurs et virtualisation de postes de travail...

    L'article explique bien que le bénéfice est nul quand il s'agit de virtualiser les postes de travail (pdt). Effectivement, les constructeurs et les éditeurs ont calé leurs prix le plus haut possible mais sans dépasser "de prime abord" le coût d'un PC. Quand vous comptez le cout d'un client léger + licence citrix + licence CAL TSE + licence du serveur windows, ca reste rentable. Mais si on ajoute le coût de "l'expertise" nécessaire pour faire tourner plus de truc que MS Office, la rentabilité s'effondre...

    Après, la vitualisation reste intéressante au niveau des serveurs pour tout plein d'autres raisons (plan de reprise, plan de continuité, Haute dispo, équilibrage des ressources, modularité, sauvegardes, snapshots. etc...) mais cela n'a rien a voir avec la virtualisation des pdt. Au final, je ne pense pas qu'on puisse dire d'une manière générale si c'est plus rentable de virtualiser les serveurs. Ca dépend des usages et des fonctions demandées (et donc des licences !).

    Enfin, y'a toujours un malin pour dire "Linux c'est mieux et ca coute moins cher"...
    ouais.. effectivement, d'un point de vue purement technique, Linux c'est idéal, c'est beau, ca plante pas, pas de virus, etc... Mais là, on parle d'informatique d'entreprise, pas de passion de geek ou de l'info d'une fac...
    Le monde réel, c'est que ta copine et ton père surfent avec Microsoft et pas avec Tux. Malheureusement 95% des pc sont sous windows. Les utilisateurs sont autonomes sous windows alors qu'ils ne captent rien à linux... Au final ton linux te coûtera aussi cher (voire plus) qu'un Windows car tu devra y passer des heures de formation et d'assistance.

    Alors, oui, windows c'est caca, mais faut reconnaitre que Billou, il t'a formé tes utilisateurs et que t'a même pas à leur expliquer pourquoi pour éteindre faut cliquer sur démarrer...
  • mitch074 , 7 juillet 2010 17:37
    Marrant, j'ai installé une infrastructure client/serveur 100% Tux dans mon entreprise (incluant un accès distant à une VM sous WinXP pour deux utilitaires métier peu utilisé), et j'me suis barré deux mois: à mon retour, j'aurai à faire:
    - validation et installation des paquetages mis à jour (parce que la MàJ auto, c'est le meilleur moyen de s'en prendre plein les gencives quel que soit l'OS)
    - remplacement d'une alim ATX grillée.

    Mon démon de sauvegarde, les suites bureautiques, macros etc. tout ça tourne très bien sans moi. Et les utilisateurs, une fois qu'ils ont compris qu'il suffit de savoir lire ce qui est marqué à l'écran, ils se débrouillent tout seul (on n'est plus à l'époque de Win95 où cliquer sur 'OK' pouvait résulter en un BSOD, une corruption du MBR et l'effacement irrémédiable de toutes les données disque).

    Si "informatique d'entreprise" = Windows, je ne sais pas où je bosse depuis 7 ans. Ce que je sais par contre, c'est que nos partenaires qui nous disent "je peux pas, l'informatique est en rade" sont légion, alors que nous pas de souci depuis des années. GNU/Linux c'est peut-être moins léché, mais niveau productivité ça nous gêne pas du tout.
  • mum1989 , 7 juillet 2010 17:43
    le problème c'est microsoft qui a fait cette étude donc surement leurs logiciels
    si on mettait un pc sous GNu/linux ou autre freeBSD+ logiciel de virtualisation gratuit peut être ça ne couterais pas aussi cher.
  • kyrios , 7 juillet 2010 19:05
    Il y a 135 postes virtuels vmware "windows XP" dans notre entreprise. Les chiffres montrent qu'ils sont 135% plus cher que les postes réels (sans compter le poste réel qu'il faut ajouter en supplément pour faire un RDC sur le poste virtuel).
    Malgré le coût plus élevé, cette solution offre une certaine flexibilité bien pratique (proviisionning rapide, suppression facile des postes de travail, ...).
    Ces VMI sont utilisés pour l'outsourcing en inde, comme machines de test ou pour permettre des accès à distance pour certains fournisseurs.
    Il est évident que le modèle économique - notamment des licences - doit être revu pour que les solutions VDI puissent pleinement se développer.
  • kyrios , 7 juillet 2010 19:10
    Err.. J'ai pas relu... ce que je veux dire en c'est que prix d'un poste de travail virtuel équivaut à 135% du prix d'un poste réel (et encore, par défaut on alloue 15Gb d'espace disque à un poste virtuel alors qu'un poste réel est livré au minimum avec un disque dur de 80Gb)
  • zorro3364 , 7 juillet 2010 19:22
    hé mitch, t'es gentil de nous parles de tes 3 machines virtuelles, bien sur que c'est plus économique dans ce cas, j'utilise aussi entre 2 et 5 machines sur un serveur domestique 4 cores.
    il est bien évident que virtualiser une station de travail puissante n'est pas rentable car il risque de saturer le serveur à lui tout seul, en revanche un petit desktop qui fait juste de la bureautique, on peut en mettre plusieurs dizaine sur le même serveur.
    c'est comme pour toute chose, la virtualisation n'est pas la solution miracle universelle: il y a des situations où elle est utile, et d'autres non.
  • mitch074 , 7 juillet 2010 21:05
    @zorro: mes trois VM sont sur mon propre poste de dev; les autres machines tournent sous Linux en install complète (mon réseau n'est pas assez costaud pour supporter la charge d'une architecture client léger et boot via réseau). Je citais cela pour dire que c'est pas parce que c'est du Linux qu'on peut pas bosser avec. Quand tu sais t'en servir, OpenOffice est supérieur à MS Office au niveau du traitement de texte, Firefox et Thunderbird n'ont plus vraiment besoin d'être présentés, le Gimp suffit pour notre créa graphique, notre com' papier se gère parfaitement avec Scribus etc.

    Et mes utilisateurs, qui ne savaient pas à quoi servait le bouton à droite de la souris avant que je ne leur dise: "essayez, il va pas vous bouffer le PC! Vous savez lire, oui?", pestent désormais quand, chez eux, ce qu'ils font en un rien de temps au boulot sur 'mes' machines sans que je leur explique leur fait s'arracher les cheveux.

    D'ailleurs, la moitié sont passés sous Linux à la sortie de Vista.

    Pour revenir au sujet d'origine: la virtualisation d'une structure 100% MS coûtera 20% plus cher que la même structure avec des clients lourds - parce que, avec MS, la virtualisation du poste client n'est pas prévue dans le système.

    Sous environnement UNIX/X11, où il n'est pas besoin de virtualiser un système pour pleinement s'en servir à distance et où le nombre de licence utilisateur ne signifie pas forcément des espèces sonnantes et trébuchantes, l'économie se fait au niveau du hardware et de la maintenance.
  • kyrios , 8 juillet 2010 14:15
    @mitch074: La cible principale des VDI sont les grandes entreprises qui n'achètent pas leurs licences à l'unité. Quand on a un "site license" installer 100 postes de plus n'a aucun impact sur le prix.
    Deplus même si linux est gratuit à la base les entreprises veulent du support et le coût du support de solutions linux (workstations) est plus élevé que celui de windows. A celà il faut ajouter les coût de formations (aussi bien des utilisateurs que du support), du support matériel, du fait que de nombreuses applications ne sont pas supportées sous linux, etc...

    Pour calculer le coût des VDI il faut compter :
    - license VDI (peu importe l'OS, il faut payer les licences)
    - stockage (100 VM's avec 15Gb HDD -> 1,5 TB + le mirroring, backup, ...)
    - Resources hardware pour les serveurs qui sur lesquels tournent les VM's
    - Maintenance (support du PC "client" + procédure de support niveau serveur. Pour faire un support end-to-end, de nombreux composants peuvent être impactés.
    - Capacité réseau
    - Analyse/formation: Virtualiser des centaines de postes ca ne s'improvise pas (mais bon si on virtualise déjà des serveurs, on a déjà une certaine expérience et ces coûts deviennent négligeables).

    Pour faire tourner une centaine de postes de travail virtuels nous avons:
    - 3 serveurs VMware, 256Gb de RAM, 48 CPU's 2.4Ghz.
    A cela, il faut ajouter les PC clients nécessaires pour se connecter aux VM's !

    Contrairement à la virtualisation de serveurs, il n'y a aucun gain énergétique (au contraire!), Peu d'optimisation niveau ressources est possible avec les VDI (contrairement aux serveurs), etc.

    Peu importe l'OS, les coûts sont là !

    PS: En quoi OpenOffice est-il supérieur à MS-Office? Il est plus lourd/lent, consomme plus de resources, est moins bien maîtrisé par la majorité des utilisateurs, et il y a toujours des problèmes quand il faut retravailler des documents ms-office un peu complexes.
  • mitch074 , 8 juillet 2010 19:59
    @kyrios:

    - prix des licences/prix du support: c'est pour cela que je ne l'ai pas compté dans mon calcul. Relis mon commentaire. Si je le prenais en compte (faut pas être un grand gourou pour savoir installer une Debian, non plus), MS aurait mal.

    - stockage: un système VDI n'a justement pas besoin de stocker 15 Go par machine. Les applications peuvent être hostées une fois, les seules données à répliquer sont les données utilisateur - ce qui ne dépend pas de l'OS. L'économie est donc nette (8 Go de moins à sauvegarder par utilisateur: ceci représente la place prise par un Vista/Seven light et un MS Office hyper allégé; on peut compter double pour des images complètes)

    - ressources hardware: d'expérience, il faut 2 procs' et 1.5 Go de RAM pour faire tourner une image NT6.x correctement; il n'en faut que la moitié pour une VM Linux.

    - je n'ai jamais dit qu'il y avait besoin de VMware pour tout faire tourner; en effet, Linux contient son propre hyperviseur (KVM), tu as donc ta solution de virtualisation fournie avec le système. Celle-ci permet d'ailleurs de n'émuler que l'espace utilisateur, et non pas une machine entière (Qemu, par exemple, permet de faire des trucs sympas).

    - capacité réseau: parce qu'un serveur Sharepoint et Exchange, ça bouffe pas de bande passante... Sans compter les splendides paquets corrompus constamment envoyés par les services de découverte du réseau et autres NetBios, qui représentent à eux seuls la moitié de mes logs d'incidents iptable.

    Bon, ensuite on en vient aux outils de prod'. Voyons OOo VS MSO. On va comparer les versions 32-bit Pro complètes.

    - MSO 2010 requiert 1.5 Go d'espace disque, sur CHAQUE machine installée. OOo requiert moins de 500 Mo, et peut être installé sur un partage réseau (seuls les réglages utilisateurs sont hostés sur la VM, soit 20 Mo). Tu as 30 utilisateurs, la place requise par MSO est de 45 Go. La place requise par OOo (en comptant une install pour 10 users et économiser de la bande passante sur le backbone) et de 2.1 Go.

    - Espace mémoire: OOo 3.2 requiert 256 Mo de RAM pour fonctionner plein pot (100 Mo alloués aux binaires, 150 Mo alloués aux documents et opérations). Il faut 1 Go pour MS Office 2007 et 2010. Dans les deux cas, je mentionne l'ouverture et le traitement prolongé de documents complexes (il faut 80 Mo à OOo pour ouvrir un document de 72 pages, en tout et pour tout).

    - compatibilité des documents; si tu installes OOo sur toutes les machines, il y a fort à parier que tu n'auras pas souvent à travailler sur des documents MS Office. Lesquels sont beaucoup mieux traités par OOo que par MSO (si tu essaies, par hasard, d'ouvrir un fichier Word 2003 'lourd' avec Word 2010, tu comprendras ta douleur; bizarrement, OOo l'ouvrira très bien. Word 2003 est par contre incapable d'ouvrir un fichier Word 2007, alors que OOo y arrive). Il y a 6 ans, mon boulot était de restaurer des documents MS Office qui n'avaient pas supporté la migration de MSO 2000 à 2003: j'ai tout réglé via OOo 1.1.3 - formatage et compatibilité. L'équipe d'OOo a d'ailleurs fait remonter plus d'un rapport de bogue dans les spécifications des formats MS Office (anciens et nouveaux).

    - moins maîtrisé par la plupart des utilisateurs: d'une part, y'a pas le ruban (OOo est donc plus simple d'accès pour les personnes habituées à MSO 2003); ensuite, les histoires d'admins qui se sont contentés de changer l'écran d'accueil de OOo (un fichier PNG) pour afficher 'MS Office Special' avec à peine un haussement d'épaule des utilisateurs sont assez nombreuses pour affirmer que ce que tu dis, c'est une légende urbaine. Mes utilisateurs, une fois compris à quoi sert le panneau 'style' (à peu près 30 minutes de formation, ce panneau est présent depuis OOo 1.0 et Word XP), sortent des documents de qualité et sans sourciller sur n'importe quelle suite, et n'importe qui peut les ouvrir et les éditer à leur tour. Et tu ne me feras jamais croire que 30 minutes de formation perso sur son poste de travail coûte plus cher que la licence MS Office.

    - plus lent: j'ai les deux (Office 2010 et OOo 3.2) sur la même VM (biproc', 1.5 Go). Sans rien précharger, MS Word met 13 secondes à démarrer (à froid) et ouvrir un document ODF 1.1 de 1 Mo (format reconnu nativement, je le rappelle); OOo 3.2 met exactement le même temps (à froid aussi). A chaud, les deux mettent aussi exactement 3 secondes pour atteindre la dernière page du document. Pour la lenteur, tu repasseras.

    Et, perso, j'en chie comme un dingue pour faire piger à Word 2010 que, pour moi, 'Titre 3' est hiérarchiquement inférieur à 'Titre 2', que dans un bloc de texte, si je définis une image comme attachée au texte, le flux de texte devrait continuer ininterrompu - et non s'aligner avec sa bordure inférieure, ou que j'aimerais que ma table des matières s'affiche et s'autoformate sur deux colonnes; bizarrement, OOo s'en sort très bien.

    Mais bon, je dois être le seul sysadmin du coin à utiliser un traitement de texte pour traiter et formater des documents texte, et à me soucier de la productivité de mes utilisateurs avec les outils mis à leur disposition...
  • kyrios , 9 juillet 2010 10:41
    Tu parles de SBC et pas de VDI...
    Les ressources HW nécessaires ne dépendent pas de l'OS mais de l'utilisation faite de la machine. Je peux t'assurer que WSAD par exemple consomme autant de ressources sous windows que linux/unix.
    J'ai outlook+word+excel+office communicator ouverts pour le moment et au total ca consomme environt 200Mb de RAM. D'ailleurs la plupart des laptops utilisés dans notre entreprise ne sont équipés que de 1Gb de RAM et tout le monde arrive à travaillier. MS Office occupe 559Mb sur mon PC d'espace disque (word, excel, ms-access, visio, outlook, ms-project, powerpoint + qq language packs).
    On est loin de tes affirmations. Essaye au moins d'être un minimum crédible dans tes affirmations !
  • mitch074 , 9 juillet 2010 12:17
    @kyrios:

    - tu as oublié de compter le répertoire caché MSOCache: une installation complète (tout sur le disque) de MSO 2010 Pro Plus requiert (je cite le setup) 2.49 Go - soit 1 Go dans 'Programmes', un joli lot dans System32 aussi, et MSOCache. OOo 3.2+addons de Novell, avec les packs anglais et français, prend 650 Mo - pour une installation locale. Comme dit, une installation serveur est impossible avec MSO, qui requiert tout installé sur le client. Tu veux des captures d'écran? Si tu ne me crois pas, MSO 2010 ProPlus est gratuit en version de test: vois toi-même. OOo est toujours gratuit.

    - OOo, tous modules ouverts avec un doc vierge (Writer, Calc, Draw, Base, Formula, Impress) prend 128 Mo de RAM (jeu de travail+allocation) - soit la moitié de ce que te prend MSO, pour le double d'applis ouvertes. OOo précharge un max de module au démarrage, la conso RAM n'augmente donc que peu au fur et à mesure de l'utilisation. MSO charge les modules à la demande, la demande de RAM au fur et à mesure de la journée augmente donc.

    - WSAD prend les mêmes ressources: oui, et alors? Que vient faire WebSphere dans l'histoire? Tes 40 utilisateurs s'en servent tout le temps? Si oui, alors effectivement tu as besoin de clients lourds. C'est le cas de tout le monde?

    - MS Windows (du moins, jusqu'à Vista et 2008, 7 et 2008 R2 changent un peu la donne) ne permettent pas de gérer un modèle comparable au système unixien: sous Windows, une application doit s'exécuter là où elle est installée. Sur un système UNIX, l'espace mémoire dans lequel s'exécute une appli n'est pas lié à son emplacement sur disque. Tu peux donc avoir une appli installée sur le serveur, et elle est exécutée par le client léger! La seule chose qui passe par le réseau, c'est les requêtes disque. Tu peux cumuler ce système pour une appli (qui s'exécute dans le contexte du client) avec du X forwarding (qui s'exécute dans le contexte du serveur, mais le rendu est fait par le client) et du remote desktop (tout est exécuté sur le serveur) de manière transparente, et dans AUCUN CAS (excepté l'image de boot) tu n'as besoin d'une image virtuelle complète par utilisateur! C'est un truc difficile à imaginer sous Windows, mais rien, absolument rien n'empêche de démarrer une image système réduite, de connecter l'utilisateur, et de monter ensuite dynamiquement les images disque (en lecture seule) contenant les applications (chacune peut être utilisée par plusieurs utilisateurs) et les données utilisateurs.

    Mais non, c'est tellement plus simple de se faire un ghost d'un Vista/7 complet avec toutes les applis installées, et de patcher chaque instance de cette image, en bouffant donc au passage une image complète par utilisateur (qu'on sauvegarde chaque fois intégralement, parce que c'est plus facile)... Ce qu'est une architecture client lourd sous Windows.
  • fa_netk , 11 juillet 2010 22:20
    pour mettre tout le monde d'accord,allez tester www.dotriver.eu :-)
    Au moins avec Linux nous avons la chance d'avoir un OS nativement multi utilisateurs, optimisé pour Java etc...
    Bon tests
    fa
  • Anonyme , 12 juillet 2010 16:17
    Je pense que le mieux est de retourner au crayon papier..
    Au moins on met a la trappe tout ces fourbis technologiques qui ont une durée de vie de 2 ans avant la prochaine release , et cela met plus de concivialité dans l'entreprise..
    Plus besoin de mail pour parler avec son voisin.
    Un nouveau arrive dans la boite ? Tu lui donnes du papier , un crayon, une gomme et c'est tout..
Afficher plus de commentaires