La virtualisation permet de faire fonctionner simultanément plusieurs systèmes d’exploitation (Windows, Linux, Mac OS, etc) sur une seule et même machine physique. Dans l’idée, il faut s’imaginer plusieurs machines virtuelles (Windows 7, ou un serveur Windows 2012 par exemple) sur une seule machine physique, les machines virtuelles se partagent alors les ressources matérielles du serveur physique.
Au lieu de multiplier les machines physiques avec un seul système d’exploitation installé, on utilise une machine physique pour virtualiser plusieurs systèmes d’exploitation. La virtualisation a notamment été créée pour répondre à la problématique de la sous-utilisation des ressources matérielles.
Historique de la virtualisation
Les années 70 : Une bonne part des travaux sur la virtualisation fut développée au centre scientifique de Cambridge d’IBM en collaboration avec le MIT, où fut mis au point le système expérimental CP/CMS, devenant ensuite le produit (alors nommé Hyperviseur) VM/CMS. Par la suite, les mainframes (serveurs IBM) ont été capables de virtualiser leurs systèmes d’exploitation avec des technologies spécifiques et propriétaires, à la fois logicielles et matérielles. En 1979 fut annoncé par exemple sur les IBM 4331 et 4341 un accélérateur VM optionnel et microcodé.
Les années 80-90 : Dans la deuxième moitié des années 1980 et au début des années 1990, on a créé des embryons de virtualisation sur des ordinateurs personnels. Ces solutions pouvaient être soit purement logicielles, soit couplées à du matériel additionnel (ajout de processeur, carte réseau, etc.). Et c’est sur des ordinateurs Amiga équipé de processeur hétérogène comme le 80386 et 80486, 68xxx, et PPC qu’il était possible de lancer d’autres OS comme un Windows, Mac OS, voire des solutions Linux. Le tout en multitâche sous AmigaOS. Pour les PC, il y avait des émulateurs comme le SideCar et PC Task. Sur Macintosh, Emplant et ShapeShifter.
Fin des années 90, début 2000 : Dans la seconde moitié des années 1990, les émulateurs sur x86 des vieilles machines des années 1980 ont connu un énorme succès, notamment les ordinateurs Atari, Amiga, Amstrad et les consoles NES, SNES, Neo-Geo AES. La société VMware développa et popularisa à la fin des années 1990 et au début des années 2000 un système propriétaire de virtualisation logicielle des architectures de type x86 pour les architectures de type x86. Les logiciels libres Xen, KVM, QEMU, Bochs, Linux-VServer, Virtual Box et les logiciels propriétaires mais gratuits VirtualPC, Virtual Server et VMware Server ont achevé la popularisation de la virtualisation dans le monde x86.
Pourquoi virtualiser ?
La virtualisation répond à de nombreux besoins :
- Rentabiliser son infrastructure et ses ressources du fait d’une utilisation plus intelligente
- Exécuter plusieurs types de systèmes d’exploitation (Linux, Mac OS, Windows)
- Réduire son coût de possession du matériel (électricité, leasing serveur, climatisation)
- Administration logique/physique centralisée
- Rapidité de déploiement.
- Souplesse d’évolution du matériel.
- Allocation des ressources et load-balancing.
- Cloisonnement, sécurité.


Excellent présentation. Moi, j’ai réussi à faire la virtualisation grâce à un tutoriel vidéo sur http://www.alphorm.com/formations/virtualisation qui m’a donné un coup de pouce. J’ai envie de faire la virtualisation car ça m’a toujours passionné dans le domaine de l’informatique.
Bonjour Valentin effectivement les formations Alphorm sont pas mal 🙂 Je suis d\’accord sur le fait que la virtualisation est une spécialisation passionnante de l\’informatique !