IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

VMware vSphere 5.5 : Déploiement de l'Appliance virtuelle vCenter

N'hésitez pas à commenter cet article ! Commentez Donner une note à l´article (5)

Article lu   fois.

L'auteur

Profil Pro

Liens sociaux

Viadeo Twitter Facebook Share on Google+   

I. vSphere 5.5 : Quoi de neuf ?

Annoncée lors du VMworld 2013 de San Francisco fin août, la prochaine mouture de vSphere sera donc la 5.5 et devrait arriver Q4 2013 (probablement après le VMworld de Barcelone mi-octobre) vraisemblablement donc en novembre.

Cette nouvelle mouture apporte avec elle son lot de nouveautés, mais alors, qu'y a-t-il dans vSphere 5.5 ? Petite revue des nouveautés et améliorations.

I-A. Améliorations apportées à l'hyperviseur ESXi

I-A-1. Support des périphériques SSD hot plug

La prochaine version de ESXi supportera les SSD Hotplug SATA et SAS (vous savez ces petites bêtes qui devraient enterrer les disques mécaniques dans un avenir proche et qui se démocratisent de plus en plus en entreprise).

I-A-2. Support de la technologie RMT (Reliable Memory Technology)

La RMT ou Reliable Memory Technology est une fonctionnalité CPU qui permet de scanner les pages mémoire et de les flaguer comme « sûres ». Fonctionnalité intéressante pour la résilience du Kernel ESXi qui est directement chargé en mémoire.

Image non disponible

I-A-3. Améliorations des C-States CPU

Là où la Power Policy « balanced » de ESXi 5.1 ne prenait en compte que les P-States CPU (capacité à diminuer la fréquence CPU et donc le voltage), ESXi 5.5 gérera également les C-States pour améliorer la gestion énergétique des hosts.

Image non disponible

I-B. Améliorations apportées aux VM

I-B-1. Compatibilité avec vSphere 5.5

vSphere 5.5 introduit la compatibilité avec les fonctionnalités les plus récentes (dernières architectures CPU…).

I-B-2. Support des vGpu étendu

Le support des vGpu a été étendu en 5.5, désormais en plus de l'accélération matérielle des GPU Nvidia, vSphere 5.5 supportera les GPU Intel et AMD. Trois modes de support 3D seront proposés : Automatique, Hardware ou Software.

I-B-3. Accélération graphique pour Linux

Les VM sous Linux pourront désormais bénéficier de l'accélération graphique pour peu qu'elles hébergent une des distributions suivantes :

  • Ubuntu 12.04 et versions ultérieures ;
  • Fedora 17 et versions ultérieures ;
  • RHEL 7.

Les technologies suivantes seront ainsi supportées pour ces distributions :

  • OpenGL 2.1 ;
  • DRM Kernel ;
  • Xrandr ;
  • Xrender ;
  • Xv.

I-C. Améliorations apportées au vCenter

I-C-1. SSO

VMware à beaucoup travaillé à l'amélioration du SSO pour la 5.5, désormais la connexion au SQL Server ne nécessite plus le UserID/Password habituel. Désormais le vCenter interagit avec la BD en utilisant l'identité de la machine qui l'héberge, ce qui améliore (on le conçoit aisément) la sécurité. Bien sûr pour cela il faut encore que le serveur soit membre d'un domaine.

I-C-2. Le Web client

Le client Web est désormais supporté sur Mac OS X via les browsers Firefox ou Chrome. Les fonctionnalités suivantes font leur apparition :

  • Drag&Drop d'objets ;
  • filtres d'affichage ;
  • objets récents.

I-C-3. Appliance vCenter

Grosse surprise là aussi. L'Appliance vCenter a été grandement améliorée. Avec la 5.5, la bdd embarquée de l'Appliance permet de gérer jusqu'à 500 hosts ou 5000 VM.

I-C-4. AppHA

Nouvelle fonctionnalité qui comme son nom l'indique permet de faire de la HA au niveau applicatif (et plus seulement au niveau de l'OS comme le HA des versions précédentes de vSphere). Cette fonctionnalité se base sur vFabric Hyperic et requiert une Appliance dédiée (en plus de l'Appliance vFabric) et la présence d'un Agent sur les VM protégées.

I-C-5. HA and DRS : anti affinité VM-VM

Les versions précédentes de vSphere, HA ne détectait pas les règles antiaffinité VM-VM qui pouvaient se retrouver by-passées lors d'un failover HA. vSphere 5.5 a donc été amélioré pour que HA prenne en compte les règles antiaffinité VM-VM en contrôlant le placement des VM redémarrées par HA.

I-C-6. Extensions big data

Pour les éditions enterprise et enterprise plus de vSphere 5.5, les Extensions Big Data (BDE) seront disponibles et permettront d'administrer des clusters Hadoop via un plug-in du vSphere Web client. Les opérations suivantes pourront ainsi être réalisées sur les clusters Hadoop :

  • créer, supprimer, démarrer ou arrêter des clusters Hadoop ;
  • contrôler l'utilisation des ressources sur les clusters ;
  • spécifier les informations concernant la topologie physique des serveurs ;
  • gérer les distributions Hadoop disponibles pour les utilisateurs ;
  • automatiquement redimensionner les clusters en fonction des ressources disponibles et de la charge de travail.

I-D. Améliorations côté stockage

I-D-1. Support des VMDK/RDM 62TB

La taille maxi des vmdk/RDM passe désormais à 62 terras, cas d'usage : serveurs de backup ou big data.

I-D-2. Mises à jour MSCS

Les nouvelles fonctionnalités liées aux clusters Microsoft sont les suivantes :

  • support de Windows Server 2012 ;
  • support du Round-robin pour le stockage partagé ;
  • support de l'iSCSI comme protocole d'accès au stockage partagé ;
  • support du FCoE comme protocole d'accès au stockage partagé.

Ainsi pour l'accès au stockage partagé dans le cas d'un cluster MSCS, le FC n'est plus le seul protocole supporté.

I-D-3. Support end-to-end (E2E) des HBA 16 GB

Les HBA 16 Gb sont désormais supportées en E2E.

I-D-4. PDL AutoRemove

Les Permanent Device Loss (PDL) sont des évènements qui se produisent lors de la perte fortuite d'un Device sur un host. Lorsqu'un host est flagué PDL, vSphere skip les I/O vers ce device. Vsphere ayant un nombre limité de slots « disques » à 255, un Device en PDL occupe l'un de ces « slots ». Lorsque la limite de 255 devices sous vSphere 5.5 est atteinte, la fonctionnalité AutoRemove intervient pour éliminer les devices flagués comme PDL.

I-D-5. Interopérabilité de vSphere Replication + MPIT Snapshot Retention

L'interopérabilité de vSphere replication avec svMotion ou sDRS a été améliorée. De même une nouvelle fonctionnalité fait son apparition et qui permet de définir une Policy de rétention des snapshots.

I-E. Améliorations apportées aux fonctionnalités de stockage

I-E-1. VAAI Unmap

La commande unmap est améliorée sous vSphere 5.5 et permet de spécifier la taille à « réclamer » en unité de block plutôt qu'en unité de pourcentage. Les espaces vides peuvent désormais être réclamés de manière incrémentale/par tranches plutôt qu'en une seule fois.

I-E-2. Améliorations de la pile VMFS

vSPhere 5.5 avec une taille de pile Max de 256 MB permet aux hôtes d'accéder à tous les espaces d'adresse d'un volume VMFS de 64 TB.

I-E-3. vSphere Flash Read Cache

Image non disponible

Nouvelle fonctionnalité entièrement intégrée à vSphere, elle se compose de deux briques :

  • vSphere Flash Read Cache Infrastructure ;
  • vSphere Flash Read Cache Software.

Elle permet l'agrégation des périphériques Flash en une seule ressource consommable appelée vSphere Flash Ressource qui est gérée de la même manière que le serait la ressource CPU ou encore Mémoire. Les hôtes consomment cette ressource comme un cache de swap (remplaçant ainsi la fonctionnalité Swap to SSD de vSphere 5.0). La fonctionnalité est directement attachée au Kernel de l'hyperviseur et est compatible avec les fonctionnalités telles que vMotion/HA/DRS.

I-F. Améliorations apportées aux fonctionnalités réseau

I-F-1. Améliorations LCAP (Link Aggregation Control Protocol)

Les fonctionnalités suivantes sont disponibles sur les vDS vSphere 5.5 :

  • 22 nouvelles options de l'algorithme de hashing pour le load-balancing sont disponibles (ex. : Les IP source et destination et le VLAN ID peuvent être utilisées pour le hashing) ;
  • support des groupes d'agrégation de liens multiples (LAG, Link Aggregation groups) : 64 groupes par host et 64 par VDS ;
  • nouveaux workflows de configuration LCAP mis à disposition via templates pour faciliter le déploiement.
Image non disponible

I-F-2. Filtrage du trafic

Possibilité de filtrer les paquets en analysant leur en-tête (ACL), les VDS supportent la classification des paquets selon trois critères :

  • MAC Source et Dest ;
  • qualificateurs de trafic system (vMotion, Management, FT…) ;
  • IP (protocole, IP source et dest + port).

La possibilité est donnée de filtrer ou taguer ces paquets (en entrée, sortie ou les deux).

Image non disponible

I-F-3. Tagging QoS

Deux types de tagging sont généralement utilisés :

  • 802.1p Class of Service (COS) qui est appliqué au niveau L2 sur la couche Ethernet ;
  • Differentiated Service Code Point (DCSP) appliqué sur les paquets IP.

Vmware supportait le 802.1q depuis vSphere 5.1 sur les VDS. Pour la 5.5, VMware a ajouté le support du DCSP qui permet d'ajouter des tags dans les en-têtes IP (L3) pour les routeurs supportant cette fonctionnalité.

I-F-4. Améliorations SR-IOV

Single-root I/O Virtualization (SR-IOV) pour rappel est une fonctionnalité permettant à un adaptateur PCIe d'être présenté comme des périphériques logiques multiples aux machines virtuelles. En 5.5, le wrokflow de configuration des NIC physiques SR-IOV a été amélioré. Il introduit la possibilité aux utilisateurs de communiquer les propriétés du PortGroup définies au niveau du VDS ou du VSS aux fonctions virtuelles. Par exemple, si le mode promisuous est activé au niveau du PG, les VM connectées à ce PG recevront le trafic des autres VM.

I-F-5. Améliorations du Host-Level Packet Capture

Un nouvel outil de Packet Capture est introduit dans cette version 5.5, qui correspond à l'utilitaire en ligne de commande tcpdump disponible sous Linux. Les fonctionnalités suivantes sont donc intégrées :

  • partie intégrante de vSphere et donc accessible via la CL directement sur les Hosts ;
  • peut capturer le trafic sur les VSS et VDS ;
  • capture les paquets aux niveaux suivants :
  • Uplink,
  • port d'un Virtual Switch,
  • vNIC ;
  • peut capturer les paquets droppés ;
  • peut tracer le chemin emprunté par un paquet avec les détails du timestamp.

I-F-6. Support des NIC 40 GB

Les NIC 40 GB sont supportées.

II. Installation

Pour commencer, récupérer l'image iso d'installation d'ESXi 5.5 sur le site de VMware.

Démarrer le serveur sur cet iso :

Image non disponible

Appuyer sur Entrée.

Image non disponible

Patienter durant le chargement.

Image non disponible

Appuyer sur entrée.

Image non disponible

Appuyer sur F11.

Image non disponible

Sélectionner le disque local sur lequel installer ESXi et appuyer sur Entrée.

Image non disponible

Appuyer sur entrée.

Image non disponible

Renseigner le password du compte root puis appuyer sur entrée.

Image non disponible

Patienter.

Image non disponible

Appuyer sur F11 pour confirmer l'installation.

Image non disponible

L'installation démarre.

Image non disponible

Une fois l'installation terminée, appuyer sur entrée.

Image non disponible

III. Déploiement de l'Appliance virtuelle vCenter

Une fois l'Appliance virtuelle vCenter téléchargée, ouvrir le client vSphere et se connecter sur un ESXI.

Cliquer sur File puis Deploy OVF Template.

Image non disponible

Sélectionner le fichier OVF de l'appliance.

Image non disponible

Puis cliquer sur Next.

Image non disponible

 Cliquer sur Next.

Image non disponible

Renseigner le nom de la VM à créer puis cliquer sur Next.

Image non disponible

Sélectionner le Datastore sur lequel seront stockés les fichiers de la VM puis cliquer sur Next.

Image non disponible

 Choisir le format de disque virtuel à utiliser, puis cliquer sur Next.

Image non disponible

Cliquer sur Finish.

Image non disponible

La création de la VM à partir du fichier OVF démarre.

Image non disponible

Puis les vDisk sont importés.

Image non disponible

Le déploiement est maintenant terminé.

IV. Éditions et fonctionnalités

Voici la matrice récapitulant les différentes fonctionnalités en fonction des éditions de vSphere 5.5. Elle est également disponible à cette adresse : http://www.vmware.com/products/vsphere/compare.html

Image non disponible

V. Création d'un cluster vSan

V-A. Prérequis

Préalablement à l'activation de la fonctionnalité, il est nécessaire de vérifier que chaque host dispose d'un PortGroup de type VMKernel sur lequel le trafic Virtual San est activé (comme pour vMotion), l'ajouter le cas échéant sur chaque host.

Image non disponible

Qui plus est, il peut être nécessaire d'utiliser les commandes suivantes pour que les disques soient bien vus comme des disques locaux par vSan en utilisant SSH :

 
Sélectionnez
esxcli storage nmp satp rule add -s VMW_SATP_LOCAL -d mpx.vmhbaX:CX:TX:LX -o enable_local

esxcli storage core claiming reclaim -d mpx.vmhbaX:CX:TX:LX

Remplacer évidemment le RuntimeName par celui des disques, visible dans l'onglet Configuration puis Storage.

Image non disponible

V-B. Création du cluster vSan

La fonctionnalité vSan (en bêta sous vSphere 5.5), s'active au niveau du cluster via le client Web. Lors de la création d'un cluster, il suffit de cocher la case suivante :

Image non disponible

Puis lors d'ajout de Hosts au Cluster, la fonctionnalité vSan sera activée sur ces hosts.

Image non disponible
Image non disponible

Les différents HDD seront agrégés avec un SSD pour former un groupe de disques.

Image non disponible

Au niveau du stockage, un unique datastore sera créé (vsanDatastore).

Image non disponible

VI. Activation de vSphere Flash Read Cache

VI-A. Présentation

Flash Read Cache est une fonctionnalité de vSphere 5.5 qui permet d'agréger les périphériques flash (cartes PCIe/disques SSD) au même titre que les autres ressources (CPU/RAM) pour en créer un pool de ressources.

Image non disponible

Lorsqu'une machine virtuelle sera configurée pour utiliser cette ressource, les opérations de lecture pourront se faire directement via les données positionnées en cache dans le pool flash.

Image non disponible

VI-B. Configuration

Pour configurer Flash Read Cache, utiliser le client Web vSphere.

Dans le menu du vCenter, cliquer sur Hôtes.

Image non disponible

Sélectionner le host sur lequel la fonctionnalité doit être activée.

Image non disponible

Dans l'onglet Résumé, noter qu'il n'y a pour le moment aucune ressource flash virtuelle allouée à ce host.

Image non disponible

Cliquer ensuite sur l'onglet Gérer puis Paramètres, enfin cliquer sur Virtual Flash - Gestion des ressources Virtual Flash.

Image non disponible

Cliquer sur Ajouter de la capacité.

Image non disponible

Sélectionner ensuite la ressource Flash à ajouter au pool Flash Read Cache.

Image non disponible

Cliquer sur OK.

Image non disponible

Patienter.

Image non disponible

La ressource a été ajoutée au pool, ce qui a pour effet d'incrémenter la capacité Virtual Flash.

De même, au niveau de l'onglet Résumé.

Image non disponible

La configuration au niveau des VM se fait directement dans les paramètres de la VM au niveau des disques (Le hardware virtuel doit-être en v10).

Image non disponible

Il est ainsi possible de définir la quantité réservée dans la ressource pool flash pour chaque disque de chaque VM. À noter également que l'on peut définir une taille de bloc personnalisée en cliquant sur le lien Avancé.

Image non disponible

VII. Remerciements Developpez

L'équipe Virtualisation tient à remercier Valentin Pourchet pour la rédaction de ce tutoriel.

Nos remerciements à infosam76 pour sa gabarisation et à ClaudeLELOUP pour sa correction orthographique.

N'hésitez pas à commenter cet article ! Commentez Donner une note à l´article (5)

Vous avez aimé ce tutoriel ? Alors partagez-le en cliquant sur les boutons suivants : Viadeo Twitter Facebook Share on Google+   

Copyright © 2014 Valentin Pourchet. Aucune reproduction, même partielle, ne peut être faite de ce site ni de l'ensemble de son contenu : textes, documents, images, etc. sans l'autorisation expresse de l'auteur. Sinon vous encourez selon la loi jusqu'à trois ans de prison et jusqu'à 300 000 € de dommages et intérêts.