Au travers de cette acronyme (VDI – Virtual Desktop Infrastructure), j’évoque la nouvelle ère post-PC qui est à ses débuts. Ces derniers temps, nous pouvons constater quelques événements symboles de manœuvres dans le domaine.
Le VDI est un rêve des années 2000. Avec la possibilité de virtualiser les systèmes d’exploitation, il devenait possible de virtualiser le poste de travail et revenir à une “informatique” totalement centralisée :
- Plus de systèmes tournants locaux : Localement les systèmes mécaniques potentiellement fragiles sont moins nombreux (disque, ventilateurs, …)
- Réduction importante des interventions locales : La suppression des fonctions fragiles augmente la fiabilité et réduit les interventions physiques
- Faible coût du terminal : le coût des ThinClient est dans une fourchette 200-500 € donc moins coûteux qu’un PC
- Forte mutualisation des ressources : Un PC sur un bureau est un silo car il partage rarement son Processeur, sa Mémoire, son Disque. En le centralisant, le partage et l’optimisation deviennent possibles. Cela apporte également une réduction de coûts car le 1 pour 1 (processeur, utilisateurs) n’est plus indispensable
- Meilleures performances dans l’utilisation des ressources centralisées : L’utilisation distante nécessite une bande passante presque contente. Les interactions avec les ressources centralisés sont facilités par la bande passante entre le poste de travail virtualisé et les ressources. Pour l’administrateur, c’est aussi plus simple car le calibrage de la bande passante requise est directement en fonction du nombre d’utilisateurs et pas de l’usage qui en est fait.
- Meilleur niveau de sécurité : Le contrôle des flux (copie de données sur une clé USB) et la sauvegarde de données (pas possible quand l’ordinateur est éteint) sont mieux gérés et supervisés.
Bref, un retour à l’ère pré-PC où les systèmes étaient totalement centralisés. Mais les freins ont été nombreux dans le déploiement de ces solutions de VDI :
- Infrastructure centralisée encore coûteuse : la puissance des processeurs ne permettait pas une densité suffisante, le coût des disques pour un stockage mutualisé était encore trop important.
- Des difficultés de performances sur le réseau et le stockage : Le flux constant à une influence directe sur l’architecture réseau et il vient se cumuler au trafic entre le poste de travail avec les ressources communes. Les réseaux d’entreprise n’étaient pas nécessairement près à cela. L’optimisation du stockage a également été une problématique car les solutions n’étaient pas encore prêtes en termes de performances.
- Des solutions pas encore matures : Jusqu’à il y 2-3 ans, les solutions n’avaient pas encore atteint le niveau de maturité suffisant à des déploiements massifs.
- Réticence des utilisateurs : Il y a une barrière psychologique à franchir : la perte de son PC, de certaines de ses fonctionnalités (son / vidéo) et d’une certaine forme d’autonomie. L’utilisation des services SaaS de plus en plus fréquente par les utilisateurs a maintenant changé en partie la donne.
- Coût de la conduite de changement : Toutes les actions à mener pour assurer la conduite de changement ne permettaient pas de disposer d’un retour sur investissement dans un délai raisonnable (<18 mois).
Jusqu’à il y a peu, deux modèles de VDI s’affrontaient. On n’avait pas d’un côté les éditeurs de solutions de virtualisation (XEN, VMWare, Microsoft) qui déplaçait le poste de travail et de l’autre côté les solutions SaaS (Google Docs, Zoho, …). Certainement les solutions de bureautique en ligne sont plus pauvres que la mythique suite Microsoft Office, mais qu’utilise-t-on réellement de ces outils puissants ? De plus, le PC n’est pas pour tout le monde limité à l’utilisation de la suite bureautique. Quid des outils métiers ? Dans un monde IT, il n’y a jamais de solutions idéales.
L’activité sur ce segment de marché est toujours forte. Il y a quelques jours DELL vient de racheter WYSE (constructeur indépendant de terminaux légers). Des acteurs de niche arrivent sur le marché basant leurs solutions sur des briques OpenSource. VMWare a déjà présenté sa solution appBlast qui permettra le streaming d’applications en HTML5 pour arriver à un client universel, le navigateur. Si on ajoute à cette activité l’évolution des mentalités sur le BYOD (Bring Your Own Device), on voit se distinguer une utilisation tout azimut des outils et données de l’entreprise. Des solutions sont à trouver et à déployer !
En ajoutant à ces solutions l’arrivée des solutions de cloud, le marché du VDI se prédit une très forte progression surtout si on ajoute une facilité d’accès à des modèles OPEX. On pourrait ainsi poser l’équation suivante : VDI + Cloud = DaaS (desktop as a service).
Chez VirtualFanatic, nous préparons ce type de service pour les PME & Start-up. Imaginez une solution où une personne sans compétence IT réponde à un simple questionnaire :
- Combien d’utilisateur ?
- Windows ou Linux (prix différent) ?
- Quels sont les noms de ces utilisateurs ?
Et qu’à la suite de cela en quelques minutes, à partir d’un navigateur sur une tablette, un client léger ou un vieux PC (windows ou Linux) accède à son environnement de travail externalisé, sécurisé, sauvegardé. N’est-ce pas un rêve à exhausser ?