Académique Documents
Professionnel Documents
Culture Documents
Pour traiter les problématiques techniques liées au stockage (performance, dimensionnement, plan de capacité,
disponibilité), Microsoft fournit une liste complète d’informations et de bonnes pratiques associées afin d’offrir une
orientation sur le choix des composants.
Il est ainsi possible d’implémenter des mécanismes à différents niveaux selon les besoins. Ainsi, pour la disponibilité
des données, on pourra par exemple implémenter la technologie RAID au niveau des disques, ou les groupes de
disponibilité des bases de données (DAG) au niveau des serveurs. Concernant la volumétrie, les choix vont être plus
limités avec du RAID ou du SAN.
Architecture de stockage
l Les disques directement connectés : il s’agit du stockage traditionnel, à savoir tout type de disque directement
connecté au serveur.
l Le stockage réseau : ce sont notamment les baies de stockage SAN (Storage Area Network) reliées en iSCSI ou en
Fibre Channel. Elles fournissent une souplesse et un gain de performance considérable.
L’implémentation des SAN est complexe et requiert des connaissances poussées. La plupart de ces solutions sont
plus coûteuses que les disques directement connectés, et à ce titre, Exchange Server 2016 fonctionne naturellement
sur une architecture basée sur des SAN, mais a également été optimisé pour l’utilisation de disques SATA.
Qu’il s’agisse de stockage directement connecté ou de SAN, le stockage reposera toujours sur des disques durs
individuels que vous devrez choisir. Il est donc impératif de faire concorder vos besoins en performance avec la
technologie à employer. Il vous faudra notamment choisir le type de bus (SATA, SCSI, SSD…) ainsi que les vitesses
de rotation (7 200 RPM, 10 000 RPM, 15 000 RPM…).
Ces éléments ne doivent pas être négligés dans votre configuration, même si vous utilisez un SAN avec une
connexion Fibre Channel. Car si l’on élude le goulot d’étranglement situé sur les liens en utilisant du Fibre Channel
avec des débits tels que cette problématique ne se pose plus, on risque de se confronter à la limite des taux de
transfert qui deviendra la limite de votre ressource de stockage.
Par ailleurs, il vous faudra déterminer le schéma de redondance à employer, notamment à l’aide d’une architecture
de disque RAID (Redundant Array of Independent Disks).
Le RAID a été mis au point afin de proposer des disques de grande capacité dotés d’un niveau de fiabilité élevé en
se basant sur des disques durs peu onéreux. Aujourd’hui, ces problématiques n’existent plus tant le coût du
stockage a diminué et la lettre I de RAID est donc passée dans sa définition de Inexpensive à Independent.
À ce titre, voici les options RAID (Redundant Array of Independent Disks) sur lesquelles nous allons nous appuyer :
RAID 0 : agrégat par bandes, le RAID 0 ne propose aucune tolérance aux pannes, il permet de proposer un volume
dont la taille correspond à la somme des disques mis en œ uvre (exemple : deux disques de 500 Go vous donneront
un volume RAID 0 de 1 To). Si l’un des disques tombe en panne, la totalité du volume est perdue.
RAID 5 : agrégat par bandes avec parité, on peut le décrire comme la combinaison des avantages du RAID 0 et du
RAID 1 tout en bénéficiant d’une perte minimum d’espace de stockage effectif. Il requiert au minimum trois disques
physiques sur lesquels les données seront réparties par bandes, auxquelles seront également ajoutées des
données de parité. En cas de défaillance de l’un des disques, les données seront calculées grâce aux informations
et données de parité situées sur les autres disques. En termes de capacité, l’équivalent de la capacité d’un disque
sera voué aux données de parité (exemple : pour trois disques de 500 Go, nous aurons un stockage disponible de 1
To).
RAID 0+1 : agrégat par bandes en miroir. Il s’agit ici de prendre un volume en RAID 0 et de le mettre en miroir
(pour quatre disques de 500 Go, nous aurons un volume utilisable de 1 To avec un RAID 0 de deux disques que
nous allons mettre en miroir).
RAID 5+1 : agrégat par bandes en miroir avec parité. Il s ’agit ici de faire un miroir sur une grappe de disques en
RAID 5. Il requiert au moins six disques (trois en RAID 5 qui seront mis en mémoire sur trois autres disques). Pour
six disques de 500 Go, nous aurons un volume de stockage disponible de 1 To.
Forts de ces éléments, voyons maintenant les recommandations en termes de redondance pour les volumes de nos
serveurs de messagerie :
l Volume contenant les fichiers systèmes et de démarrage : RAID1. La sollicitation en écriture est faible en exploitation
et la lecture d’éléments est accélérée. La capacité requise est par ailleurs relativement faible. il s’agit du meilleur
compromis entre la rapidité et la sécurité.
l Volume contenant le fichier d’échange temporaire (swap) : RAID 0. Les données du swap ne sont pas critiques, on
recherche donc avant tout la rapidité, aussi bien en lecture qu’en écriture.
l File d’attente SMTP : RAID1. Nous recherchons ici une tolérance aux pannes combinée à une certaine rapidité sur un
volume dont l’espace requis est relativement faible, pour le fonctionnement d’une base de données (.edb).
l Bases de données : RAID 5. Il nous faut ici le meilleur compromis entre tolérance aux pannes, rapidité et capacité.
l Fichiers de journaux : RAID 5. Ces fichiers relèvent des mêmes problématiques que ceux des bases de données.
La planification du stockage en regard des tailles de boîtes aux lettres est un exercice complexe, car il est
nécessaire de prendre en compte plusieurs paramètres liés aux moteurs de bases de données mais aussi
d’anticiper les évolutions futures de l’infrastructure de manière raisonnable.
Chaque base de données supporte une capacité maximale technique de 16 To. Microsoft recommande par ailleurs
pour une exploitation optimale de ne pas dépasser les 2 To de données par base de données.
Lors du calcul de l’espace de stockage réel nécessaire à une boîte aux lettres, il est nécessaire de prendre en
compte les valeurs suivantes :
Une fois les informations identifiées, voici la formule de calcul simplifiée de la taille de la boîte aux lettres réelle :
l Taille de la boîte aux lettres réelle = (1024 Mo + 50 mails * 100 ko * 14 jours) * 1.05
Le dimensionnement des bases de données doit prendre en compte des paramètres supplémentaires comme les
prévisions d’extension ou les contenus générés par la gestion des bases de données…
Communément, on prendra une marge de 20 % d’espace disque supplémentaire pour prévoir les évolutions de
politique de stockage (demande d’espace supplémentaire pour certaines boîtes aux lettres, accueil des nouveaux
utilisateurs…). Cela donne :
nombre de boîtes aux lettres par disque = (taille du disque) / (taille réelle de la boîte aux lettres * marge de 20 %)
À cela vont venir se rajouter les journaux de transactions, dont la taille va dépendre des stratégies de
sauvegarde. Il est très important d’apporter une vigilance particulière sur cette partie.
Selon le nombre de boîtes aux lettres nécessaires dans l’infrastructure, il est important de répartir ces dernières
dans un nombre de bases de données adapté.
Ce qui donne, avec les valeurs données en exemple et une infrastructure devant héberger 9000 boîtes aux
lettres :
Dans un scénario de haute disponibilité incluant un groupe de disponibilité de base de données de boîtes aux
lettres, il est recommandé de mettre en place trois copies de chaque base de données réparties sur trois serveurs
Exchange Server 2016.
On obtiendra avec les valeurs données en exemple et trois copies de chaque base de données :
Attention, les calculs précédents ne prennent pas en compte le stockage des journaux de transaction.
L’outil Microsoft Exchange Server Jetstress 2013 Tool permet d’évaluer le soussystème disque des serveurs
Exchange afin de détecter d’éventuels problèmes de performance dans les I/O (débits entrée/sortie) disques.
a. Puissance de calcul
La planification de la puissance de calcul nécessaire s’appuie sur des formules dépendantes de la puissance
effective des processeurs du serveur. L’architecture générale sera donc prise en compte (nombre de sockets,
nombre de cœ urs, NUMA…).
Microsoft recommande de désactiver l’option Hyperthreading sur les processeurs Intel sauf si la consommation est
trop importante en attendant une évolution de l’infrastructure.
Afin de déterminer les indices de puissance du serveur que l’on va utiliser, le plus simple est de les trouver sur le
site Standard Performance Evaluation Corporation (http://www.spec.org/).
Ainsi pour se conformer aux calculs fournis par Microsoft, il est nécessaire de suivre la procédure suivante :
L’indice de puissance de traitement à utiliser dans les formules qui suivent correspond à Result / #Cores. Par
exemple, pour un serveur Dell PowerEdge R430 (Intel Xeon E52630 v3, 2.40 GHz) on obtient 686 / 16 donc
42.875.
Puis on définit le nombre de mégacycles par utilisateur à l’aide de la formule (Indice CPU * 2000 / 33.75) *
#Cores. Dans notre exemple cela donne 42.875 * 2000 / 33.75 = 2540.74 mégacycles par cœur donc
2540.74 * 16 = 40 651 mégacycles pour le serveur.
Une fois la capacité de traitement évaluée, on se reporte au tableau fourni par Microsoft pour déterminer la charge
par boîte aux lettres par jours :
50 2.99 0.70
Par exemple, pour 6000 utilisateurs échangeant 250 emails/jour, on obtient (600 * 14.93) donc
8958 mégacycles nécessaires en puissance de traitement. Il faudra prendre en compte en parallèle les bases
passives éventuellement hébergées sur le même serveur avec la colonne correspondante.
On peut donc en déduire que notre serveur est largement capable d’héberger nos utilisateurs car 40 651 >
8958. On en déduit qu’il serait possible d’héberger plus de 24 000 utilisateurs sur ce serveur.
b. Mémoire requise
Résultat de l’unification des rôles, la mémoire du serveur hébergeant le rôle de boîte aux lettres est utilisée pour
de nombreuses fonctionnalités. Une quantité importante de la mémoire est utilisée pour le cache du moteur de
base de données ESE (Extensible Storage Engine) et joue un rôle important dans la réduction des IOPS disque.
La technologie d’indexation de contenu dans Exchange Server 2016 utilise une grande quantité de mémoire tout
comme les autres fonctionnalités fournissant les services transactionnels aux utilisateurs ou gérant le traitement
des données d’arrièreplan. Au final, l’empreinte globale de tous les composants Exchange peut être assez
grande.
50 12
100 24
150 36
200 48
250 60
300 72
350 84
400 96
450 108
500 120
La formule sera donc la suivante : 2 Go + ( 2 Go * ( Nb. De BDD active * Utilisateurs par BDD * mégacycle par
utilisateur)).
Ce qui donne pour notre serveur Dell PowerEdge R430 (Intel Xeon E52630 v3, 2.40 GHz) avec 8 Bdd et 1000
utilisateurs ayant une activité de 150 emails par jours : 2 Go + (2 Go * 8 * 1000 * 8.96 / 2540) donc 58 Go
arrondie à 64 Go.
Une fois le calcul réalisé, vous pouvez comparer ces résultats au tableau suivant qui répertorie les seuils minimums
selon le nombre de bases de données :
110 8
1120 10
2130 12
3140 14
4150 16
L’objectif des technologies de virtualisation d’infrastructure est de baisser le TCO (coût total de possession) et
d’améliorer la flexibilité des architectures. Elles permettent une amélioration de la fiabilité des logiciels et services
ainsi qu’un dépannage plus rapide et plus efficace. De nouveaux scénarios d’implémentation sont alors
envisageables rendant les infrastructures plus agiles.
Ces technologies permettent notamment une meilleure exploitation des ressources matérielles des parcs serveurs.
En effet, la complexité des logiciels actuels ne permet pas de les exécuter sur le même système d’exploitation de
manière fiable. Il est par exemple difficilement envisageable de faire tourner sur le même système d’exploitation à
la fois la messagerie Exchange et le portail collaboratif SharePoint. Ceci même si les ressources du serveur
(processeurs, mémoire, stockage…) pourraient permettre de l’envisager.
Ainsi, un composant appelé hyperviseur est en charge de créer un environnement matériel virtuel qui permet
Plusieurs hyperviseurs se partagent actuellement le marché. Les deux plus répandus pour la virtualisation des
serveurs de production sont VMware et HyperV.
VMware
Leader depuis de nombreuses années dans la virtualisation d’infrastructure, VMware propose une prise en charge
étendue (nombre de processeurs, quantité de mémoire, vitesse des I/O disque et réseau...) accompagné par une
gamme de produits de gestion efficace.
L’implémentation la plus adaptée à la mise en production d’un serveur web dans la gamme de produits de VMware
s’appelle vSphere. vSphere propose un nombre de fonctionnalités très important mais avec un mode de licence qui
n’est pas toujours avantageux par rapport à la concurrence.
HyperV
Intégré directement au système d’exploitation depuis Windows Server 2008, il bénéficie d’une intégration soignée
et d’un mode de licence très agressif par rapport à la concurrence. Microsoft porte d’ailleurs une attention toute
particulière à HyperV et a fortement rattrapé son retard depuis les implémentations accompagnant Windows
Server 2012 et 2012 R2.
Compagnon privilégié d’HyperV, l’outil de gestion des environnements virtuels SCVMM (System Center Virtual
Machine Manager) permet de gérer facilement de larges fermes de serveurs HyperV, VMware et XenServer...
Le déploiement d’une infrastructure Exchange Server 2016 est pleinement supporté et l’ensemble des rôles
serveur Exchange Server 2016 peut être installé dans un environnement virtuel. Les plateformes supportées étant
officiellement : toutes les versions d’HyperV et tous les hyperviseurs tiers validés par le programme Windows
SVVP (Server Virtualization Validation Program).
Les machines virtuelles Exchange Server 2016 appartenant à un groupe de disponibilité de base de données
peuvent bénéficier des technologies de déplacement et de cluster à basculement de l’hyperviseur qui les héberge
sous certaines conditions (pas de snapshots…).
Les serveurs hôtes doivent être dédiés à l’exécution des machines virtuelles invitées. Aucune application ne doit
être installée sur l’hôte des machines virtuelles à l’exception des outils de gestion de parc (ex : antivirus,
sauvegarde, supervision…).
Les snapshots et autres technologies de capture d’état des machines virtuelles ne sont pas pris en charge par
Exchange Server 2016 car ils peuvent engendrer des pertes de données irréversibles.
Lors du dimensionnement des ressources virtuelles, la surallocation des ressources physiques ne doit pas
dépasser un ratio de 2/1 (ex : pour un serveur équipé de quatre cœ urs, on ne pourra pas allouer plus de huit
cœ urs sur l’ensemble des machines virtuelles hébergées).
Les soussystèmes de gestion de ressources n’ayant pas beaucoup changés entre les versions 2013 et 2016, on
remarquera que beaucoup d’outils dédiés à Exchange 2013 ont simplement ajouté la prise en charge de la version
2016. Les équipes de développement d’Exchange préconisant d’utiliser les mêmes règles de calculs de
dimensionnement entre les versions 2013 et 2016 du produit.
Ce script écrit par Neil Johnson permet d’analyser les usages des utilisateurs, et notamment de récupérer les
informations suivantes :
L’outil Microsoft Assessment and Planning Toolkit permet de réaliser un inventaire de l’infrastructure afin d’en
extraire les métriques nécessaires à la planification et au dimensionnement en vue de déployer une nouvelle version
d’un composant Microsoft.
Ainsi, l’outil offre des conseils de déploiement sur les produits suivants :
l Windows 7, 8.1 et 10
l Cloud privé
l SQL Server
Au vu de la complexité des formules que l’on a pu voir précédemment, les équipes de Microsoft mettent à disposition
depuis plusieurs années une feuille de calcul Excel permettant de faciliter les calculs de dimensionnement des
infrastructures Exchange. Cet outil fournit des bases solides et permet de prendre en compte de nombreux aspects
du déploiement. Il est de plus régulièrement mis à jour.