Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Cette rubrique a été rédigée à l’origine par Ken Brumfield, ingénieur de terrain principal
chez Microsoft, et fournit des recommandations pour la planification de la capacité pour
Active Directory Domain Services (AD DS).
Dans la planification de la capacité, une organisation peut avoir une cible de référence
de 40% d’utilisation du processeur pendant les périodes de pointe afin de répondre aux
La différence réside dans le fait que lorsqu’un seuil de gestion de la capacité est
continuellement dépassé (un événement à usage unique n’est pas un problème), l’ajout
de capacité (c’est-à-dire l’ajout de processeurs plus ou plus rapides) serait une solution
ou la mise à l’échelle du service sur plusieurs serveurs serait une solution. Les seuils
d’alerte de performances indiquent que l’expérience client est actuellement affectée et
que des étapes immédiates sont nécessaires pour résoudre le problème.
Tout au long de cet article, les exigences de base suivantes sont attendues :
Les lecteurs ont lu et sont familiarisés avec les instructions de réglage des
performances pour Windows Server 2012 R2.
La plate-forme Windows Server est une architecture basée sur x64. Toutefois,
même si votre environnement de Active Directory est installé sur Windows Server
2003 x86 (maintenant au-delà de la fin du cycle de vie de support) et possède une
arborescence d’informations de répertoire (DIT) d’une taille inférieure à 1,5 Go et
pouvant être facilement conservées en mémoire, les instructions de cet article sont
toujours applicables.
La planification de la capacité est un processus continu. vous devez régulièrement
examiner la qualité des attentes de l’environnement.
L’optimisation aura lieu sur plusieurs cycles de vie du matériel à mesure que les
coûts matériels évoluent. Par exemple, la mémoire devient moins coûteuse, le coût
par cœur diminue ou le prix des différentes options de stockage change.
Planifiez la période de pic d’activité de la journée. Il est recommandé d’examiner
cette valeur en intervalles de 30 minutes ou d’heures. Tout ce qui est plus important
peut masquer les pics réels, et tout ce qui est moins peut être déformé en « pics
temporaires ».
Planifiez la croissance au cours du cycle de vie du matériel pour l’entreprise. Cela
peut inclure une stratégie de mise à niveau ou d’ajout de matériel de manière
échelonnée, ou une actualisation complète tous les trois à cinq ans. Chaque
demande nécessitera une « estimation » du volume de la charge sur Active
Directory augmentera. Les données d’historique, si elles sont collectées, sont utiles
pour cette évaluation.
Planifier la tolérance de panne. Une fois qu’une estimation n est dérivée, planifiez
les scénarios qui incluent n – 1, n – 2, n – x.
Notes
« Mappage direct » avec un invité par hôte (où la virtualisation existe uniquement
pour extraire le matériel physique du serveur)
« Hôte partagé »
Les scénarios de test et de production indiquent que le scénario « mappage direct » peut
être traité de la même façon qu’un hôte physique. Toutefois, « hôte partagé » introduit
un certain nombre de considérations plus en détail par la suite. Le scénario « hôte
partagé » signifie que AD DS est également en concurrence pour les ressources, et qu’il
existe des pénalités et des considérations relatives au paramétrage.
Application du processus
Pour optimiser les performances, assurez-vous que ces composants principaux sont
correctement sélectionnés et réglés sur les charges de l’application :
1. Mémoire
2. Réseau
3. Stockage
4. Processeur
5. Accès réseau
En général :
Tout dimensionnement basé sur les données actuelles ne sera exact que pour
l’environnement actuel.
Pour toute estimation, attendez-vous à ce que la demande augmente au-delà du
cycle de vie du matériel.
Déterminez s’il est important de dépasser la taille actuelle et augmentez la taille de
l’environnement, ou ajoutez de la capacité sur le cycle de vie.
Pour la virtualisation, les mêmes principes et méthodologies de planification de la
capacité s’appliquent, à ceci près que la surcharge de la virtualisation doit être
Nouvel environnement
Component Devis
Réseau 1 Go
Performances
du « LogicalDisk ( <lecteur Le stockage a deux préoccupations
stockage/de de base de données à résoudre
la base de ntds> ) \Avg disque L’espace disponible, avec la
données s/lecture, « » disque taille du stockage basé sur les
RAM
Taille de la base de Le stockage est le composant le
données plus lent d’un ordinateur. Plus il est
Recommandations possible de résider dans la
relatives au système mémoire vive, moins il est
d’exploitation de base nécessaire d’accéder au disque.
Applications tierces Assurez-vous que la RAM est
suffisante pour stocker le système
d’exploitation, les agents (antivirus,
sauvegarde, surveillance), la base
de données NTDS et la croissance
dans le temps.
Pour les environnements où
l’optimisation de la quantité de
RAM n’est pas rentable (par
exemple, les emplacements
satellites) ou non faisable (DIT trop
grand), référencez la section
stockage pour vous assurer que le
stockage est correctement
dimensionné.
Réseau
« Interface réseau (*) En général, le trafic envoyé à partir
\Octets reçus/s » d’un contrôleur de périphérique
« Interface réseau (*) dépasse le trafic envoyé à un
\Octets envoyés/s » contrôleur de flux de contrôle.
Comme une connexion Ethernet
commutée est en duplex intégral,
le trafic réseau entrant et sortant
doit être dimensionné
indépendamment.
La consolidation du nombre de
contrôleurs de contrôle
augmentera la quantité de bande
passante utilisée pour renvoyer les
réponses aux demandes des clients
pour chaque contrôleur de groupe,
mais sera suffisamment proche de
linéaire pour le site dans son
ensemble.
Si vous supprimez des contrôleurs
de l’emplacement satellites,
n’oubliez pas d’ajouter la bande
passante du contrôleur de réseau
satellite dans les contrôleurs de
flux de concentrateur, et de
l’utiliser pour évaluer la quantité de
trafic WAN.
UC
« Disque logique ( Après avoir éliminé le stockage
<lecteur de base de comme un goulot d’étranglement,
données NTDS> ) \Avg corrigez la quantité de puissance
disque s/lecture » de calcul nécessaire.
« Processus (LSASS)\% Bien qu’il ne soit pas parfaitement
temps processeur » linéaire, le nombre de cœurs de
processeur consommés sur tous les
serveurs au sein d’une étendue
spécifique (par exemple, un site)
peut être utilisé pour évaluer le
nombre de processeurs nécessaires
pour prendre en charge la charge
totale du client. Ajoutez le
minimum nécessaire pour
maintenir le niveau de service
actuel sur tous les systèmes de
l’étendue.
Modifications de la vitesse du
processeur, y compris les
modifications liées à la gestion de
l’alimentation, les numéros
d’impact dérivés de
l’environnement actuel. En règle
générale, il est impossible d’évaluer
précisément la manière dont le
passage d’un processeur de 2,5
GHz à un processeur de 3 GHz
réduira le nombre de processeurs
nécessaires.
Accès réseau
(Netlogon) « Netlogon (*) Le canal sécurisé Net
\Semaphore acquiert » Logon/MaxConcurrentAPI affecte
« Netlogon (*) uniquement les environnements
\Semaphore délais avec authentifications NTLM et/ou
d’attente » validation PAC. La validation PAC
« Netlogon (*) \Latence est activée par défaut dans les
la durée d’attente du versions de système d’exploitation
sémaphore » antérieures à Windows Server
2008. Il s’agit d’un paramètre
client, de sorte que les contrôleurs
de contrôle sont affectés jusqu’à ce
que cette option soit désactivée
sur tous les systèmes clients.
Les environnements avec une
authentification croisée
importante, qui comprend des
approbations intra-forêts,
présentent un risque plus élevé si
leur taille n’est pas correcte.
Les consolidations de serveur
augmentent la concurrence de
l’authentification inter-
approbation.
Les pics doivent être pris en
charge, tels que les basculements
de cluster, à mesure que les
utilisateurs réauthentifient en
massive sur le nouveau nœud de
cluster.
Les systèmes clients individuels
(par exemple, un cluster) peuvent
Planification
Pendant une longue période, la recommandation de la Communauté concernant le
dimensionnement AD DS a été de « placer dans autant de RAM que la taille de la base
de données ». Pour l’essentiel, cette recommandation est tout ce que la plupart des
environnements devaient se préoccuper. Toutefois, l’écosystème consommant AD DS a
été beaucoup plus grand, comme les environnements AD DS eux-mêmes, depuis son
introduction dans 1999. Bien que l’augmentation de la puissance de calcul et le passage
des architectures x86 aux architectures x64 aient fait des aspects plus subtils du
dimensionnement des performances sans intérêt pour un plus grand ensemble de clients
exécutant AD DS sur le matériel physique, la croissance de la virtualisation a introduit les
problèmes de paramétrage pour un plus grand public.
RAM
Plus simplement, plus il est possible de mettre en cache la RAM, moins il est nécessaire
d’accéder au disque. Pour optimiser l’évolutivité du serveur, la quantité minimale de
RAM doit être la somme de la taille actuelle de la base de données, de la taille totale de
SYSVOL, de la quantité recommandée pour le système d’exploitation et des
recommandations des fournisseurs pour les agents (antivirus, surveillance, sauvegarde,
etc.). Une quantité supplémentaire doit être ajoutée pour tenir compte de la croissance
pendant la durée de vie du serveur. Il s’agit d’un environnement subjectiv basé sur les
estimations de croissance de la base de données en fonction des modifications
environnementales.
Pour les environnements où l’optimisation de la quantité de RAM n’est pas rentable (par
exemple, les emplacements satellites) ou non faisable (DIT trop grand), référencez la
section stockage pour vous assurer que le stockage est correctement conçu.
Évaluation
Risque élevé d’erreur lors de la tentative d’utilisation d’un système existant pour
évaluer la quantité de RAM requise, car LSASS se découpera sous des conditions de
sollicitation de la mémoire, en déflatant le besoin de manière artificielle.
Le fait subjective qu’un contrôleur de périphérique individuel a uniquement besoin
de mettre en cache ce qui est « intéressant » pour ses clients. Cela signifie que les
données qui doivent être mises en cache sur un contrôleur de site d’un site avec un
seul serveur Exchange sont très différentes des données qui doivent être mises en
cache sur un contrôleur de site qui n’authentifie que les utilisateurs.
Le travail d’évaluation de la RAM pour chaque contrôleur de périphérique au cas
par cas est prohibitif et change au fur et à mesure que l’environnement change.
Les critères à l’appui de la recommandation vous aideront à prendre des décisions
informées :
Plus il est possible de mettre en cache dans la mémoire vive, moins il est nécessaire
d’accéder au disque.
Le stockage est de loin le composant le plus lent d’un ordinateur. L’accès aux
données sur les supports de stockage SSD et basés sur les piles se fait de l’ordre de
1 000 000 fois plus lentement que l’accès aux données de la RAM.
Ainsi, pour optimiser l’évolutivité du serveur, la quantité minimale de RAM est la somme
de la taille actuelle de la base de données, de la taille totale de SYSVOL, de la quantité
recommandée pour le système d’exploitation et des recommandations des fournisseurs
pour les agents (antivirus, surveillance, sauvegarde, etc.). Ajoutez des montants
supplémentaires pour prendre en charge la croissance pendant la durée de vie du
serveur. Il s’agit d’un environnement subjectiv basé sur les estimations de croissance de
la base de données. Toutefois, pour les emplacements satellites avec un petit ensemble
d’utilisateurs finaux, ces exigences peuvent être assouplies, car ces sites n’ont pas besoin
de mettre en cache une grande partie des demandes.
Pour les environnements où l’optimisation de la quantité de RAM n’est pas rentable (par
exemple, les emplacements satellites) ou non faisable (DIT trop grand), référencez la
section stockage pour vous assurer que le stockage est correctement dimensionné.
Notes
Antivirus 100 Mo
Total 12 Go
Recommandé : 16 Go
Au fil du temps, il peut être fait que davantage de données seront ajoutées à la base de
données et que le serveur sera probablement en production pendant 3 à 5 ans. Sur la
base d’une estimation de la croissance de 33%, 16 Go seraient une quantité raisonnable
de RAM à placer sur un serveur physique. Sur une machine virtuelle, compte tenu de la
facilité avec laquelle les paramètres peuvent être modifiés et que la RAM peut être
ajoutée à la machine virtuelle, en commençant à 12 Go avec le plan à surveiller et à
mettre à niveau à l’avenir est raisonnable.
Réseau
Évaluation
Cette section est moins axée sur l’évaluation des demandes relatives au trafic de
réplication, qui se concentre sur le trafic qui traverse le WAN et qui est traitée en détail
dans Active Directory le trafic de réplication, par rapport à l’évaluation de la bande
passante totale et de la capacité réseau nécessaire, des requêtes clientes, des
applications stratégie de groupe, etc. Pour les environnements existants, vous pouvez les
collecter à l’aide des compteurs de performance « interface réseau (*) \Octets reçus/s »
et « interface réseau (*) \Octets envoyés/s ». Intervalles d’échantillonnage des compteurs
d’interface réseau en 15, 30 ou 60 minutes. Tout ce qui est moins est généralement trop
volatil pour les mesures appropriées ; tout ce qui est plus important lissera les aperçus
quotidiens de manière excessive.
Notes
En règle générale, la majeure partie du trafic réseau sur un contrôleur de réseau est
sortante, car le contrôleur de réseau répond aux requêtes du client. Il s’agit de la
raison pour laquelle le trafic sortant est concentré, bien qu’il soit recommandé
d’évaluer chaque environnement pour le trafic entrant également. Les mêmes
approches peuvent être utilisées pour résoudre et examiner les exigences en
matière de trafic réseau entrant. Pour plus d’informations, consultez l’article 929851
de la base de connaissances : la plage de ports dynamiques par défaut pour
TCP/IP a changé dans Windows Vista et dans Windows Server 2008.
Pour évaluer la quantité de trafic qui doit être prise en charge, il existe deux catégories
uniques de planification de la capacité pour AD DS en termes de trafic réseau. Le premier
est le trafic de réplication qui traverse les contrôleurs de domaine et qui est traité
minutieusement dans la référence Active Directory le trafic de réplication et qui est
toujours pertinent pour les versions actuelles de AD DS. Le deuxième est le trafic entre le
client et le serveur intrasite. L’un des scénarios les plus simples à planifier, le trafic
intrasite reçoit principalement de petites requêtes des clients par rapport aux grandes
quantités de données renvoyées aux clients. 100 Mo sont généralement appropriés dans
les environnements jusqu’à 5 000 utilisateurs par serveur, dans un site. L’utilisation d’une
carte réseau de 1 Go et la prise en charge de la mise à l’échelle côté réception (RSS) sont
recommandées pour tous les utilisateurs au-delà de 5 000. Pour valider ce scénario, en
particulier dans le cas de scénarios de consolidation de serveurs, examinez l’interface
réseau (*) \ octets/s sur tous les contrôleurs de domaine d’un site, ajoutez-les ensemble
et divisez par le nombre cible de contrôleurs de domaine pour vous assurer qu’il existe
une capacité adéquate. Le moyen le plus simple consiste à utiliser la vue « zone
empilée » dans l’analyseur de fiabilité et de performances Windows (anciennement
Perfmon), en veillant à ce que tous les compteurs soient mis à l’échelle de la même
façon.
Prenons l’exemple suivant (également connu sous le nom de «méthode vraiment très
complexe pour valider que la règle générale s’applique à un environnement spécifique).
Les hypothèses suivantes sont effectuées :
Connaissances obtenues à partir des données du graphique (interface réseau (*) \Octets
envoyés/s) :
Notes
3. Il y a des pics avant 4:00 AM, avec plus de 20 octets envoyés/s sur le DC le plus
occupé, ce qui peut indiquer une charge à partir de différents fuseaux horaires ou
d’une activité d’infrastructure d’arrière-plan, tels que des sauvegardes. Étant donné
que le pic à 8:00 AM dépasse cette activité, il n’est pas pertinent.
Notes
Soyez attentif au fait que les compteurs d’interface réseau envoyés/reçus sont
en octets et que la bande passante réseau est mesurée en bits. 100 Mo ÷ 8 =
12,5 Mo, 1 Go ÷ 8 = 128 Mo.
Conclusions
En bref, le déploiement final de systèmes doit avoir une carte réseau de 1 Go et être
connecté à une infrastructure réseau qui prend en charge cette charge. Une autre
remarque est que compte tenu de la quantité de trafic réseau générée, la charge du
processeur à partir des communications réseau peut avoir un impact significatif et limiter
l’extensibilité maximale de AD DS. Ce même processus peut être utilisé pour estimer la
quantité de communication entrante vers le contrôleur de l’État. Mais étant donné la
prédominance du trafic sortant par rapport au trafic entrant, il s’agit d’un exercice
universitaire pour la plupart des environnements. Il est important de s’assurer que la
prise en charge du matériel pour RSS est importante dans les environnements
comportant plus de 5 000 utilisateurs par serveur. Pour les scénarios avec un trafic
Notes
Une approche similaire peut être utilisée pour estimer la capacité supplémentaire
nécessaire lors de la consolidation de centres de données ou le retrait d’un
contrôleur de domaine dans un emplacement satellite. Il vous suffit de collecter le
trafic sortant et entrant vers les clients, qui sera la quantité de trafic qui sera présent
sur les liaisons de réseau étendu.
Dans certains cas, il se peut que vous rencontriez plus de trafic que prévu, car le
trafic est plus lent, par exemple lorsque la vérification du certificat ne répond pas à
des délais d’attente agressifs sur le réseau étendu. C’est la raison pour laquelle le
dimensionnement et l’utilisation des réseaux étendus doivent être un processus
itératif et continu.
Il est facile de formuler des recommandations pour un serveur physique : 1 Go pour les
serveurs prenant en charge plus de 5000 utilisateurs. Une fois que plusieurs invités
commencent à partager une infrastructure de commutateur virtuel sous-jacent, une
attention supplémentaire est nécessaire pour s’assurer que l’ordinateur hôte dispose de
la bande passante réseau adéquate pour prendre en charge tous les invités sur le
système, et nécessite donc la rigueur supplémentaire. Il n’y a rien de plus qu’une
extension de la garantie de l’infrastructure réseau dans l’ordinateur hôte. Il s’agit du fait
que le réseau est inclusif et que le contrôleur de domaine s’exécute en tant qu’invité
d’ordinateur virtuel sur un ordinateur hôte dont le trafic réseau passe par un
commutateur virtuel, ou s’il est connecté directement à un commutateur physique. Le
commutateur virtuel n’est qu’un composant supplémentaire dans lequel la liaison
montante doit prendre en charge la quantité de données transmises. Par conséquent, la
carte réseau physique de l’hôte physique liée au commutateur doit pouvoir prendre en
charge la charge DC, ainsi que tous les autres invités partageant le commutateur virtuel
connecté à la carte réseau physique.
DC 1 6,5 Mo/s
DC 2 6,25 Mo/s
DC 3 6,25 Mo/s
DC 4 5,75 Mo/s
DC 5 4,75 Mo/s
2 28,5 Mo/s
Comme toujours, dans le temps, il est possible de faire en sorte que la charge du client
augmente et que cette croissance soit planifiée le mieux possible. La quantité
recommandée pour la planification permettrait une croissance estimée du trafic réseau
de 50%.
Stockage
La planification du stockage est constituée de deux composants :
« placer dans autant de RAM que la taille de la base de données » couvre généralement
le reste, bien qu’il puisse être excessif pour les emplacements satellites dans les
environnements plus grands.
Dimensionnement
Il y a environ 13 ans lorsque Active Directory a été introduite, une fois que les lecteurs de
4 Go et 9 Go étaient les plus courants, le dimensionnement pour les Active Directory
n’est même pas une considération pour tous les environnements sauf les plus
importants. Avec les plus petites tailles de disque dur disponibles dans la plage de 180
Go, l’ensemble du système d’exploitation, de SYSVOL et de NTDS. dit peut facilement
tenir sur un lecteur. Par conséquent, il est recommandé de déprécier les investissements
importants dans ce domaine.
Notes
Les articles sont basés sur les estimations de la taille des données effectuées
au moment de la publication de Active Directory dans Windows 2000. Utilisez
des tailles d’objet qui reflètent la taille réelle des objets dans votre
environnement.
Lorsque vous examinez des environnements existants avec plusieurs domaines, il peut y
avoir des variations de la taille des bases de données. Si c’est le cas, utilisez le catalogue
global (GC) le plus petit et les tailles non GC.
La taille de la base de données peut varier selon les versions de système d’exploitation.
Les contrôleurs de réseau qui exécutent des systèmes d’exploitation antérieurs, tels que
Windows Server 2003, ont une taille de base de données inférieure à celle d’un
contrôleur de réseau qui exécute un système d’exploitation ultérieur, tel que Windows
Server 2008 R2, en particulier lorsque des fonctionnalités telles Active Directory la
Corbeille ou les informations d’identification itinérantes sont activées.
Notes
Pour les nouveaux environnements, Notez que les estimations des estimations
de croissance pour Active Directory utilisateurs et les unités d’organisation
indiquent que 100 000 utilisateurs (dans le même domaine) consomment
environ 450 Mo d’espace. Notez que les attributs remplis peuvent avoir un
impact énorme sur la quantité totale. Les attributs seront remplis sur de
nombreux objets par des produits tiers et des produits Microsoft, y compris
Microsoft Exchange Server et Lync. Une évaluation basée sur le portefeuille des
produits de l’environnement est préférable, mais l’exercice de la description
des mathématiques et des tests pour obtenir des estimations précises pour
tous les environnements, sauf les plus importants, peut ne pas réellement avoir
de temps et d’efforts significatifs.
Assurez-vous que 110% de la taille de NTDS. dit est disponible en tant
qu’espace libre afin d’activer la défragmentation hors connexion et de planifier
la croissance sur une durée de vie matérielle de trois à cinq ans. Étant donné le
stockage économique, l’estimation du stockage à 300% de la taille de la DIT,
car l’allocation de stockage est sécurisée pour prendre en charge la croissance
et la nécessité potentielle de défragmentation hors connexion.
Dans un scénario où plusieurs fichiers de disque dur virtuel (VHD) sont alloués sur un
seul volume, utilisez un disque de taille fixe d’au moins 210% (100% de l’espace libre de
DIT + 110%) la taille de la DIT pour s’assurer qu’il y a suffisamment d’espace réservé.
Notes
Performances de stockage
En tant que composant le plus lent au sein d’un ordinateur, le stockage peut avoir un
impact négatif sur l’expérience du client. Pour les environnements suffisamment grands
pour lesquels les recommandations de dimensionnement de la RAM ne sont pas
réalisables, les conséquences de la surRecherche de la planification du stockage pour les
performances peuvent être dévastatrices. En outre, les complexités et les variétés de la
technologie de stockage augmentent le risque d’échec, car la pertinence des meilleures
pratiques les plus longues du « placement du système d’exploitation, des journaux et de
la base de données » sur des disques physiques distincts est limitée dans les scénarios
utiles. Cela est dû au fait que la meilleure pratique la plus courante repose sur
l’hypothèse qu’un « disque » est une pile dédiée, et que ces e/s autorisées sont isolées.
Les hypothèses qui font ce vrai ne sont plus pertinentes avec l’introduction de :
Pour les environnements dans lesquels la base de données est trop volumineuse pour
être conservée dans la mémoire RAM, utilisez les compteurs de performance pour
déterminer la quantité d’e/s qui doit être prise en charge :
Disque logique (*) \Avg disque s/lecture (par exemple, si NTDS. dit est stocké sur le
lecteur D:/ le chemin d’accès complet est disque logique (D :) \Avg disque s/lecture)
Disque logique (*) \Avg disque s/écriture
Disque logique (*) \Avg disque s/transfert
Disque logique (*) \ lectures/s
Disque logique (*) \ écritures/s
Disque logique (*) \ transferts/s
Ils doivent être échantillonnés par intervalles de 15/30/60 minutes pour évaluer les
demandes de l’environnement actuel.
Notes
L’accent est mis sur les lectures de la base de données, car il s’agit généralement du
composant le plus exigeant. la même logique peut être appliquée aux écritures dans
le fichier journal en remplaçant le disque logique ( <fichier journal ntds> ) \Avg
disque s/écriture et disque logique ( <journal NTDS> ) \ écritures/s) :
Notes
d’exécution.
Si le disque logique ( <NTDS> ) \Avg disque s/lecture se trouve dans la
plage optimale pour le stockage principal, le disque logique ( <>NTDS ) \
lectures/s peut être utilisé directement pour dimensionner le stockage.
Si le disque logique ( <NTDS> ) \Avg disque s/lecture ne fait pas partie de
la plage optimale pour le stockage principal, des e/s supplémentaires sont
nécessaires en fonction de la formule suivante :
Notez que, si le serveur est configuré avec une quantité de RAM inférieure, ces
valeurs ne sont pas exactes à des fins de planification. Elles seront erronées sur le
haut et peuvent toujours être utilisées dans le pire des cas.
L’ajout ou l’optimisation de la mémoire RAM entraînera une baisse de la quantité
d’e/s de lecture (disque logique ( <NTDS> ) \ lectures/s. Cela signifie que la
solution de stockage ne doit pas nécessairement être aussi robuste que celle
initialement calculée. Malheureusement, tout ce qui est plus spécifique que cette
déclaration générale dépend de l’environnement de la charge du client et les
recommandations générales ne peuvent pas être fournies. La meilleure option
consiste à ajuster le dimensionnement du stockage après l’optimisation de la RAM.
Ce qui est plus complexe, c’est qu’il existe une variété d’options de stockage qui sont
disponibles et qui ont un impact différent sur les performances. En guise d’estimation
sécurisée lors de la migration d’un physique vers un autre, utilisez un multiplicateur de
1,10 pour ajuster les différentes options de stockage pour les invités virtualisés sur
Hyper-V, tels que le stockage direct, la carte SCSI ou l’IDE. Les ajustements qui doivent
être effectués lors du transfert entre les différents scénarios de stockage ne sont pas
pertinents pour déterminer si le stockage est local, SAN, NAS ou iSCSI.
Détermination de la quantité d’e/s nécessaires pour un système sain dans des conditions
de fonctionnement normales :
Compteur Valeur
Disque logique réel ( <lecteur de base de données NTDS> ) \Avg .02 secondes (20
Compteur Valeur
Nombre total d’e/s par seconde nécessaires pendant la période de pointe 800
Notez que le taux calculé, bien que exact, ne sera pas exact, car les pages précédemment
chargées sont supprimées si ESE n’est pas configuré pour avoir une taille de cache fixe,
et AD DS par défaut utilise la taille de cache variable.
Calculer le nombre de pages dans la 2 097 152 Ko ÷ 8 Ko = nombre 262 144 pages
base de données de pages
Calculer les e/s par seconde nécessaires 262 144 pages ÷ 600 secondes 437 E/S PAR
pour le démarrage complet du cache = IOPS nécessaires SECONDE
Traitement
Pour la plupart des environnements, une fois que le stockage, la RAM et la mise en
réseau sont correctement réglés comme décrit dans la section de planification, la gestion
de la quantité de capacité de traitement est le composant qui mérite le plus d’attention.
L’évaluation de la capacité de l’UC nécessite deux défis :
Dans les environnements plus grands, la raison en est que les applications mal
codées peuvent conduire à la volatilité de la charge de l’UC, « voler » une quantité
inégale de temps processeur à partir d’autres applications, à créer des besoins de
capacité de manière artificielle et à répartir la charge de manière inégale sur les
contrôleurs de l’élément.
l’environnement.
Introduction
exploitent Active Directory, une estimation générale des utilisateurs par UC est
résolument inapplicable à tous les environnements. Plus précisément, les demandes de
calcul sont soumises au comportement utilisateur et au profil d’application. Par
conséquent, chaque environnement doit être dimensionné individuellement.
En outre, si les applications et les clients du site utilisent les meilleures pratiques pour
localiser les contrôleurs de domaine (autrement dit, à l’aide de la fonction
DsGetDcName), les clients doivent être distribués de manière relativement équitable
avec des pics temporaires mineurs en raison d’un nombre quelconque de facteurs.
Chacun des cinq contrôleurs de l’un des deux contrôleurs de site dispose de quatre
processeurs.
L’utilisation totale du processeur cible pendant les heures de bureau est de 40%
dans des conditions de fonctionnement normales («n + 1 ») et de 60% sinon («n»).
En dehors des heures de bureau, l’utilisation de l’UC cible est de 80%, car les
logiciels de sauvegarde et autres opérations de maintenance sont censés utiliser
toutes les ressources disponibles.
Dans la plupart des cas, la charge est distribuée de manière relativement uniforme,
ce qui est attendu lorsque les clients utilisent le localisateur de contrôleur de site et
ont des recherches bien écrites.
La période de pointe pour tous les systèmes est comprise entre environ 8:00 AM et
9:15 AM. Avec la transition en douceur d’environ 5:00 à environ 5:00 PM, il s’agit
généralement du cycle d’entreprise. Les pics les plus aléatoires de l’utilisation du
processeur dans un scénario par boîte entre 5:00 h 00 et 4:00 AM se situent en
dehors des préoccupations de planification de la capacité.
Notes
Sur un système bien géré, il peut s’agir d’un logiciel de sauvegarde en cours
d’exécution, d’analyses antivirus complètes du système, d’inventaire matériel
ou logiciel, d’un déploiement logiciel ou de correctifs, etc. Les cibles ne sont
pas dépassées car elles ne sont pas dépassées dans le cycle d’activité des
utilisateurs de pointe.
Étant donné que chaque système est d’environ 40% et que tous les systèmes ont le
même nombre de processeurs, en cas d’échec ou de mise hors connexion, les
systèmes restants s’exécutaient à une valeur estimée de 53% (le chargement de
40% du système D est uniformément fractionné et ajouté à la charge de 40% du
système A et du système C). Pour plusieurs raisons, cette hypothèse linéaire n’est
pas parfaitement exacte, mais elle offre suffisamment de précision pour la jauge.
Pour tenir compte des pics transitoires dans la charge du client, il est recommandé de
cibler une période de pointe de temps processeur de entre 40% et 60% de la capacité du
système. À l’aide de l’exemple ci-dessus, cela signifie qu’entre 3,33 (60% cible) et 5 (40%
de la cible) UC est nécessaire pour la charge du AD DS (processus LSASS). Une capacité
supplémentaire doit être ajoutée dans en fonction des besoins du système d’exploitation
de base et des autres agents requis (tels que les antivirus, la sauvegarde, la surveillance,
etc.). Bien que l’impact des agents doive être évalué en fonction de l’environnement, une
estimation de 5% et 10% d’un processeur unique peut être effectuée. Dans l’exemple
actuel, cela suggère qu’entre 3,43 (60% cible) et 5,1 (40% cible) UC sont nécessaires
pendant les périodes de pointe.
Le moyen le plus simple consiste à utiliser la vue « zone empilée » dans l’analyseur de
fiabilité et de performances Windows (Perfmon), en veillant à ce que tous les compteurs
soient mis à l’échelle de la même façon.
Hypothèses :
Notes
Il y a des pics avant 7:00, qui peuvent indiquer une charge à partir de différents
fuseaux horaires ou une activité d’infrastructure en arrière-plan, telle que des
sauvegardes. Étant donné que le pic à 9:30 AM dépasse cette activité, il n’est pas
pertinent.
Il existe trois contrôleurs de domaine dans le site.
Il existe plusieurs scénarios dans lesquels le paramétrage de LdapSrvWeight doit être pris
en compte. Dans le cadre de la planification de la capacité, cela se fait lorsque
l’application ou le chargement de l’utilisateur ne sont pas équilibrés uniformément, ou
que les systèmes sous-jacents ne sont pas équilibrés uniformément en termes de
capacité. La planification de la capacité n’est pas abordée dans le cadre de cet article.
L’émulateur de contrôleur de domaine principal est un exemple qui affecte tous les
environnements pour lesquels le comportement de chargement d’un utilisateur ou
d’une application n’est pas distribué uniformément. Étant donné que certains outils
et actions ciblent l’émulateur de contrôleur de domaine principal, par exemple les
outils de gestion stratégie de groupe, les autres tentatives en cas d’échec de
l’authentification, l’établissement d’une approbation, etc., les ressources du
processeur sur l’émulateur de contrôleur de domaine principal peuvent être de plus
en plus sollicitées par ailleurs sur le site.
Il est utile de régler ce paramètre uniquement s’il existe une différence notable
dans l’utilisation de l’UC afin de réduire la charge sur l’émulateur de contrôleur
de domaine principal et d’augmenter la charge sur les autres contrôleurs de
domaine, ce qui permet une distribution plus équilibrée de la charge.
Dans ce cas, définissez LDAPSrvWeight entre 50 et 75 pour l’émulateur de
Exemple 1-PDC
DC 1 53% 57 40%
(émulateur
PDC)
4 PROCESSEURS 40 100 30
DC 1
4 PROCESSEURS 40 100 30
DC 2
8 PROCESSEURS 20 200 30
DC 3
Toutefois, soyez très vigilant avec ces scénarios. Comme vous pouvez le voir ci-dessus, la
mathématique semble très intéressante et assez belle sur le papier. Mais tout au long de
cet article, la planification d’un scénario «N + 1 » revêt une importance primordiale.
L’impact de la mise hors connexion d’un contrôleur de groupe doit être calculé pour
chaque scénario. Dans le scénario précédent où la distribution de la charge est même,
afin de garantir une charge de 60% au cours d’un scénario «N», la charge étant
équilibrée uniformément entre tous les serveurs, la distribution est parfaite, car les ratios
restent cohérents. En examinant le scénario de paramétrage de l’émulateur de contrôleur
de domaine principal et, en général, tout scénario dans lequel la charge utilisateur ou
d’application est déséquilibrée, l’effet est très différent :
Il existe deux couches de planification de la capacité qui doivent être effectuées dans un
environnement virtualisé. Au niveau de l’hôte, à l’instar de l’identification du cycle
Dans un scénario mappé direct, un invité par hôte, toute la planification de la capacité
effectuée jusqu’à ce point doit être ajoutée aux exigences (RAM, disque, réseau) du
système d’exploitation hôte sous-jacent. Dans un scénario d’hôte partagé, le test indique
qu’il y a 10% d’impact sur l’efficacité des processeurs sous-jacents. Cela signifie que si un
site a besoin de 10 processeurs à une cible de 40%, la quantité recommandée de
processeurs virtuels àNallouer sur tous les invités est de 11. Sur un site avec une
distribution mixte des serveurs physiques et des serveurs virtuels, le modificateur
s’applique uniquement aux machines virtuelles. Par exemple, si un site a un scénario «N
+ 1 », un serveur physique ou mappé en direct avec 10 processeurs est équivalent à un
invité avec 11 UC sur un ordinateur hôte, avec 11 UC réservées pour le contrôleur de
domaine.
Tout au long de l’analyse et du calcul des quantités d’UC nécessaires à la prise en charge
de la charge AD DS, le nombre de processeurs mappés sur ce qui peut être acheté en
termes de matériel physique n’est pas nécessairement correctement mappé. La
virtualisation élimine la nécessité d’arrondir. La virtualisation réduit les efforts nécessaires
pour ajouter de la capacité de calcul à un site, en fonction de la facilité avec laquelle un
processeur peut être ajouté à une machine virtuelle. Il n’élimine pas la nécessité
d’évaluer avec précision la puissance de calcul nécessaire pour que le matériel sous-
jacent soit disponible lorsque des UC supplémentaires doivent être ajoutées aux invités.
Comme toujours, n’oubliez pas de planifier et de surveiller la croissance de la demande.
DC 1 120%
DC 2 147%
DC 3 218%
Au cours de la collecte des données, cela, comme avec tous les autres scénarios, doit
être collecté au cours des périodes de pic d’activité du jour pour que les données soient
utiles.
Notes
Dans le cas d’une forêt ou d’une forêt, l’authentification peut traverser plusieurs
approbations et chaque étape doit être paramétrée.
Planification
Il existe un certain nombre d’applications qui utilisent l’authentification NTLM par défaut,
ou l’utilisent dans un certain scénario de configuration. Les serveurs d’applications
augmentent en capacité et en service un nombre grandissant de clients actifs. Il existe
également une tendance selon laquelle les clients conservent les sessions ouvertes
pendant une période limitée et se reconnectent régulièrement (par exemple, la
synchronisation par courrier électronique). Les serveurs proxy Web qui requièrent une
authentification pour l’accès à Internet constituent un autre exemple courant de charge
NTLM élevée.
Ces applications peuvent entraîner une charge importante pour l’authentification NTLM,
ce qui peut entraîner une contrainte importante sur les contrôleurs de domaine, en
particulier lorsque les utilisateurs et les ressources se trouvent dans des domaines
différents.
Pour ce système pour cette période, les valeurs par défaut sont acceptables.
Interface
réseau (*)
\Octets reçus/s
Disque logique
( <>de lecteur
de base de
données NTDS
) \Avg disque
s/écriture
définitions
Chaque thread est une tâche indépendante, car chaque thread possède sa propre pile et
ses instructions. Étant donné que AD DS est multithread et que le nombre de threads
disponibles peut être réglé à l’aide de la procédure d’affichage et de définition d’une
stratégie LDAP dans Active Directory à l’aide de Ntdsutil. exe, il évolue bien sur plusieurs
processeurs logiques.
Cela implique le partage des données entre plusieurs threads au sein d’un processus
(dans le cas du processus AD DS seul) et sur plusieurs threads dans plusieurs processus
(en général). Avec la préoccupation de sursimplifier le cas, cela signifie que toutes les
modifications apportées aux données sont répercutées sur tous les threads en cours
d’exécution dans les différents niveaux de cache (L1, L2, L3) sur tous les cœurs qui
exécutent ces threads, ainsi que la mise à jour de la mémoire partagée. Les performances
peuvent se dégrader pendant les opérations d’écriture, tandis que tous les différents
emplacements de mémoire sont mis en cohérence avant que le traitement des
instructions puisse continuer.
En règle générale, les processeurs logiques plus rapides réduisent la durée nécessaire au
traitement d’une série d’instructions, tandis que davantage de processeurs logiques
signifient que davantage de tâches peuvent être exécutées en même temps. Ces règles
de curseur détaillent les scénarios qui deviennent intrinsèquement plus complexes avec
les considérations relatives à la récupération de données à partir de la mémoire
partagée, à l’attente du parallélisme au niveau des données et à la surcharge liée à la
gestion de plusieurs threads. C’est également la raison pour laquelle l’extensibilité des
systèmes multicœurs n’est pas linéaire.
Considérez les analogies suivantes dans ces considérations : Imaginez une autoroute,
chaque thread étant une voiture individuelle, chaque voie est un cœur et la limite de
vitesse étant la vitesse de l’horloge.
1. S’il n’y a qu’une seule voiture sur l’autoroute, peu importe s’il y a deux couloirs ou
12 couloirs. Cette voiture ne va pas être aussi rapide que la limite de vitesse
autorisée.
2. Supposons que les données requises par le thread ne sont pas immédiatement
disponibles. L’analogie est qu’un segment de route est arrêté. S’il n’y a qu’une seule
voiture sur l’autoroute, peu importe la limite de vitesse jusqu’à la réouverture de la
voie (les données sont extraites de la mémoire).
3. À mesure que le nombre de voitures augmente, la surcharge de gestion du nombre
de voitures augmente. Comparez l’expérience de la conduite et la quantité
d’attention nécessaire lorsque la route est pratiquement vide (par exemple, la fin de
la soirée) par rapport à la surcharge du trafic (par exemple, la mi-après-midi, mais
pas l’heure de démarrage). En outre, tenez compte de la quantité de vigilance
nécessaire lorsque vous conduisez sur une autoroute à deux voies, où il n’y a
qu’une autre voie à se soucier de ce que font les pilotes, par opposition à une
autoroute à six voies, où l’un d’eux doit se préoccuper de la réalisation d’un grand
nombre d’autres pilotes.
Notes
Par conséquent, les spécificités des processeurs plus ou plus rapides deviennent très
subjectives pour le comportement des applications, ce qui, dans le cas de AD DS, est très
spécifique à l’environnement et même varie d’un serveur à l’autre au sein d’un
environnement. C’est la raison pour laquelle les références mentionnées plus haut dans
l’article ne sont pas beaucoup trop précises et une marge de sécurité est incluse dans les
calculs. Lorsque vous prenez des décisions d’achat basées sur le budget, il est
recommandé d’utiliser d’abord l’optimisation de l’utilisation des processeurs à 40% (ou
le nombre souhaité pour l’environnement) avant d’acheter des processeurs plus rapides.
L’augmentation de la synchronisation sur davantage de processeurs réduit l’avantage
réel d’un plus grand nombre de processeurs par rapport à la progression linéaire (2× le
nombre de processeurs fournit moins de 2× de puissance de calcul supplémentaire
disponible).
Notes
La théorie de la mise en file d’attente est l’étude mathématique des lignes en attente
(files d’attente). En matière de mise en file d’attente, la Loi d’utilisation est représentée
par l’équation suivante :
Uk=B÷t
Il est observé qu’après 50% de la charge de l’UC, en moyenne, il y a toujours une attente
d’un autre élément dans la file d’attente, avec une augmentation notable de l’utilisation
du processeur de 70%.
C’est la raison pour laquelle les moyennes à long terme pour la capacité estimée de
manière restrictive à 40% autorisent la chambre de tête pour les pics anormaux en
charge, que ce soit un point d’entrée (par exemple, des requêtes mal codées qui
s’exécutent pendant quelques minutes) ou des rafales anormales en charge générale
L’instruction ci-dessus considère que le calcul du temps processeur est identique à celui
de la Loi d’utilisation. il s’agit d’une simplification de la facilité du lecteur général. Pour
ceux qui sont plus mathématiquement rigoureux :
Traduction du PERF_100NSEC_TIMER_INV
B = le nombre de threads « inactifs » de 100-ns passe sur le processeur logique.
Modification de la variable «X» dans le calcul de la PERF_100NSEC_TIMER_INV
T = nombre total d’intervalles de 100-ns dans un intervalle de temps donné.
Modification de la variable «Y» dans le calcul de la PERF_100NSEC_TIMER_INV .
U k = pourcentage d’utilisation du processeur logique par le « thread inactif »
ou% de la durée d’inactivité.
Fonctionnement de la Math :
U k = 1 –% de temps processeur
% Temps processeur = 1 – U k
% Temps processeur = 1 – B / t
% Temps processeur = 1 – x1 – x0 / Y1 – Y0
logiques nécessaires dans un système semble très complexe. C’est la raison pour laquelle
l’approche de dimensionnement des systèmes est axée sur la détermination de
l’utilisation maximale de la cible en fonction de la charge actuelle et du calcul du nombre
de processeurs logiques requis pour y parvenir. En outre, bien que les vitesses de
processeur logique aient un impact significatif sur les performances, l’efficacité du cache,
les exigences de cohérence de la mémoire, la planification des threads et la
synchronisation, et la charge de client imparfaitement équilibrée auront un impact
significatif sur les performances qui varient d’un serveur à l’autre. Avec un coût
relativement bon marché de la puissance de calcul, toute tentative d’analyse et de
détermination du nombre de processeurs nécessaires devient plus un exercice
universitaire qu’il ne fournit de valeur commerciale.
40 pour cent n’est pas une exigence absolue et rapide, il s’agit d’un début raisonnable.
Différents consommateurs de Active Directory requièrent différents niveaux de réactivité.
Il peut y avoir des scénarios dans lesquels les environnements peuvent s’exécuter à 80%
ou à 90% d’utilisation comme moyenne soutenue, car les temps d’attente accrus pour
l’accès au processeur n’ont pas un impact notable sur les performances du client. Il est
important de réitérer le fait qu’il existe de nombreuses zones dans le système qui sont
beaucoup plus lentes que le processeur logique dans le système, y compris l’accès à la
RAM, l’accès au disque et la transmission de la réponse sur le réseau. Tous ces éléments
doivent être réglés conjointement. Exemples :
Notes
Les informations sur le processeur (*)\% Utility Utility peuvent dépasser 100%
avec les systèmes qui ont un mode « Turbo ». C’est dans ce cas que le
En dehors des heures de bureau, un conducteur se trouve sur un bus presque vide
et le bus sur une route qui est également presque vide. Comme il n’y a aucun trafic
à rivaliser avec, le conducteur a une bonne chose, et il se place aussi rapidement
que si le conducteur avait à la place. Les durées de trajet du conducteur sont
toujours limitées par la limite de vitesse.
En dehors des heures, le bus est presque vide, mais la plupart des couloirs de la
route sont fermés, de sorte que l’autoroute est toujours encombré. Le conducteur
se trouve sur un bus presque vide sur une route encombrée. Si le conducteur n’a
pas beaucoup de concurrence dans le bus pour l’endroit où il se trouve, la durée
totale du trajet est toujours dictée par le reste du trafic en dehors de.
L’heure et le bus sont encombrés. Non seulement le voyage prend plus de temps,
mais la mise sous tension et la désactivation du bus est un véritable cauchemar, car
les gens sont à l’épaule et l’autoroute n’est pas bien plus efficace. L’ajout de bus
(processeurs logiques à l’invité) ne signifie pas qu’ils peuvent tenir sur la route plus
facilement, ou que le trajet sera raccourci.
Le dernier scénario, bien qu’il puisse être un peu étiré, est l’endroit où le bus est
plein, mais la route n’est pas encombrée. Alors que le conducteur aura toujours des
difficultés à se connecter au bus, le voyage sera efficace une fois que le bus sera en
déplacement. Il s’agit du seul scénario dans lequel l’ajout de bus supplémentaires
(processeurs logiques à l’invité) améliore les performances de l’invité.
L’application des principaux ci-dessus de 40% de l’UC en tant que cible raisonnable pour
l’hôte et l’invité est un démarrage raisonnable pour le même raisonnement que ci-
dessus, la quantité de mise en file d’attente.
Cela dit, cette variabilité ne changeait pas les objectifs d’utilisation du processeur de
gestion de la capacité. À mesure que les vitesses d’horloge du processeur seront ajustées
dynamiquement en fonction de la charge demandée, l’exécution du système sous des
charges plus élevées générera un scénario dans lequel le processeur consacre plus de
temps à un état de fréquence d’horloge plus élevé, ce qui rend l’objectif ultime d’une
utilisation de 40% dans un état de fréquence d’horloge de 100% au pic. Toute valeur
inférieure à celle-ci génère des économies d’énergie, car les vitesses du processeur sont
limitées pendant les périodes creuses.
Notes
Une option consiste à désactiver la gestion de l’alimentation sur les processeurs (en
définissant le mode de gestion de l’alimentation sur hautes performances)
pendant que les données sont collectées. Cela donne une représentation plus
précise de la consommation du processeur sur le serveur cible.
Pour ajuster les estimations pour différents processeurs, il s’agissait d’une utilisation
sécurisée, à l’exception des autres goulots d’étranglement du système décrits ci-dessus,
afin de supposer que la vitesse du processeur doubler la quantité de traitement pouvant
être effectuée. À l’heure actuelle, l’architecture interne des processeurs est suffisamment
différente entre les processeurs, ce qui constitue un moyen plus sûr de mesurer les effets
de l’utilisation de différents processeurs que les données à partir de, afin de tirer parti de
l’évaluation de la SPECint_rate2006 de l’entreprise d’évaluation des performances
standard.
Dans cette figure, les deux axes sont mis en miroir et répartis en zones logiques pour le
stockage de données (Data 1 et Data 2). Ces zones logiques sont affichées par le
système d’exploitation en tant que disques physiques distincts.
Bien que cela puisse être très confus, la terminologie suivante est utilisée dans cette
annexe pour identifier les différentes entités :
Le système d’exploitation crée une file d’attente d’e/s FIFO (premier entré/premier sorti)
pour chaque disque observé ; ce disque peut représenter un axe, un tableau ou une
partition de tableau. Du point de vue du système d’exploitation, en ce qui concerne la
gestion des e/s, plus la file d’attente est active, plus les files d’attente sont performantes.
Une file d’attente FIFO est sérialisée, ce qui signifie que toutes les e/s émises vers le
sous-système de stockage doivent être traitées dans l’ordre d’arrivée de la demande. En
mettant en corrélation chaque disque observé par le système d’exploitation avec un
arbre/matrice, le système d’exploitation gère maintenant une file d’attente d’e/s pour
chaque ensemble unique de disques, ce qui élimine la contention des ressources d’e/s
rares sur les disques et isole les demandes d’e/s sur un seul disque. En guise d’exception,
Windows Server 2008 introduit le concept de hiérarchisation des e/s, et les applications
conçues pour utiliser la priorité « basse » sont classées dans cet ordre normal et
reprennent un siège. Les applications qui ne sont pas spécifiquement codées pour tirer
En commençant par un exemple simple (un seul disque dur à l’intérieur d’un ordinateur),
une analyse composant par composant est donnée. En décomposant les principaux
composants du sous-système de stockage, le système se compose des éléments
suivants :
1- 10 000 rpm Ultra Fast SCSI HD (Ultra Fast SCSI avec un taux de transfert de 20
Mo/s)
1 – Bus SCSI (câble)
1 – Carte Ultra-Fast SCSI
bus PCI 1 -32 bits 33 MHz
Une fois les composants identifiés, une idée de la quantité de données pouvant transiter
par le système, ou de la quantité d’e/s pouvant être gérées, peut être calculée. Notez
que la quantité d’e/s et la quantité de données qui peuvent transiter par le système sont
corrélées, mais pas les mêmes. Cette corrélation varie selon que les e/s disque sont
aléatoires ou séquentielles et la taille de bloc. (Toutes les données sont écrites sur le
disque sous la forme d’un bloc, mais différentes applications utilisent des tailles de bloc
différentes.) Sur une base composant par composant :
adjacents sur la HD, on parle d’e/s séquentielles. Les e/s séquentielles n’ont pas de
temps de recherche car, lorsque la première e/s est terminée, la tête de
lecture/écriture se trouve au début de l’emplacement où le bloc de données
suivant est stocké sur le disque dur. Ainsi, un disque dur de 10 000 RPM peut gérer
environ 333 e/s par seconde (1000 ms par seconde divisé par 3 ms par e/s).
Notes
Cet exemple ne reflète pas le cache disque, où les données d’un cylindre sont
généralement conservées. Dans ce cas, les 10 ms sont nécessaires sur la
première e/s et le disque lit l’ensemble du cylindre. Toutes les autres e/s
séquentielles sont satisfaites à partir du cache. Par conséquent, les caches dans
le disque peuvent améliorer les performances d’e/s séquentielles.
Jusqu’à présent, le taux de transfert du disque dur n’a pas d’importance. Qu’il
s’agisse d’un disque dur de 20 Mo/s ou d’un disque Ultra3 160 Mo/s, le volume
d’e/s par seconde réel pouvant être géré par la HD 10 000 RPM est de ~ 100 ou ~
300 e/s séquentielles. Lorsque la taille des blocs change en fonction de l’écriture de
l’application sur le lecteur, la quantité de données extraites par e/s est différente.
Par exemple, si la taille de bloc est de 8 Ko, 100 opérations d’e/s sont lues ou
écrites sur le disque dur un total de 800 Ko. Toutefois, si la taille de bloc est de 32
Ko, 100 e/s lit/écrit 3 200 Ko (3,2 Mo) sur le disque dur. Tant que le taux de transfert
SCSI dépasse la quantité totale de données transférées, l’obtention d’un taux de
transfert « plus rapide » n’aura aucun effet. Consultez les tableaux suivants pour la
comparaison.
Notes
E/s prises en charge par le taille de bloc taille de bloc de 8 Ko (AD jet)
bus SCSI par taille de bloc de 2 Ko (SQL Server 7.0/SQL Server 2000)
Notes
Carte SCSI : Pour déterminer la quantité d’e/s que cela peut traiter, les
spécifications du fabricant doivent être vérifiées. Le fait de diriger les demandes
d’e/s vers l’appareil approprié nécessite le traitement d’un certain type de tri, de
sorte que la quantité d’e/s pouvant être gérées dépend du processeur de la carte
Dans cet exemple, l’hypothèse selon laquelle les e/s 1 000 peuvent être gérées est
effectuée.
Bus PCI – Il s’agit d’un composant souvent négligé. Dans cet exemple, il ne s’agit
pas du goulot d’étranglement ; Cependant, à mesure que les systèmes évoluent,
cela peut devenir un goulet d’étranglement. À des fins de référence, un bus PCI 32
bits fonctionnant sur 33Mhz peut, en théorie, transférer 133 Mo/s de données.
Voici l’équation :
Notez que est la limite théorique ; en réalité, seulement environ 50% du maximum
sont atteints, bien que dans certains scénarios de rafales, il est possible d’obtenir
une efficacité de 75% pendant de courtes périodes.
Maintenant, après avoir analysé une configuration simple, le tableau suivant montre où
le goulot d’étranglement se produira lorsque les composants du sous-système de
stockage seront modifiés ou ajoutés.
taille de bloc de
4 Ko
HD 10 000 RPM
Mise à niveau
vers le bus
SCSI 320 Mo/s
taille de bloc de
4 Ko
HD 10 000 RPM
Mise à niveau
vers le bus SCSI
320 Mo/s
taille de bloc de
4 Ko
HD 15 000
RPM
Mise à niveau
vers le bus SCSI
320 Mo/s
Présentation de RAID
En RAID 0, les données sont agrégées par bandes sur tous les disques de l’ensemble
RAID. Cela signifie qu’au cours d’une opération de lecture ou d’écriture, une partie des
données est extraite ou envoyée à chaque disque, ce qui permet d’améliorer la quantité
de données qui peuvent transiter le système pendant la même période. Ainsi, en une
seconde, sur chaque pile (à nouveau en supposant que les lecteurs 10 000-RPM), 100
opérations d’e/s peuvent être effectuées. La quantité totale d’e/s pouvant être prises en
charge est de N piles de 1 à 100 e/s par seconde par pile (produit 100 * N e/s par
seconde).
En RAID 1, les données sont mises en miroir (dupliquées) sur une paire de piles de
disques à des fins de redondance. Ainsi, lorsqu’une opération d’e/s de lecture est
effectuée, les données peuvent être lues à partir des deux piles de l’ensemble. Cela rend
la capacité d’e/s des deux disques disponible au cours d’une opération de lecture.
L’inconvénient est que les opérations d’écriture n’offrent aucun avantage en matière de
performances dans un RAID 1. Cela est dû au fait que les mêmes données doivent être
écrites sur les deux disques pour des raisons de redondance. Bien qu’il ne prenne plus de
temps, car l’écriture de données se produit simultanément sur les deux axes, étant donné
que les deux axes sont occupés à dupliquer les données, une opération d’e/s en écriture
empêche deux opérations de lecture de se produire. Ainsi, chaque e/s d’écriture coûte
deux e/s en lecture. Une formule peut être créée à partir de ces informations pour
déterminer le nombre total d’opérations d’e/s qui se produisent :
Lorsque le rapport entre les lectures et le nombre d’axes est connu, l’équation suivante
peut être dérivée de l’équation ci-dessus pour identifier les e/s maximales qui peuvent
être prises en charge par le tableau :
Nombre maximal d’e/s par seconde par fuseau × 2 piles de disques × [( % lectures +
% d’écritures) ÷ ( % lectures + 2 × % d’écritures)] = nombre total d’e/s par seconde
Nombre maximal d’opérations d’e/s par seconde par axe × 2 axes × [( % lectures + %
dans un jeu RAID 1, lorsqu’une multiplicité (N) d’ensembles RAID 1 est agrégée, les e/s
totales qui peuvent être traitées deviennent N × e/s par RAID 1 défini :
En RAID 5, parfois appelés RAID n + 1, les données sont agrégées par bandes sur n piles
et les informations de parité sont écrites sur l’axe « + 1 ». Toutefois, le RAID 5 est
beaucoup plus onéreux lors de l’exécution d’e/s d’écriture que RAID 1 ou 1 + 0. RAID 5
effectue le processus suivant chaque fois qu’une e/s d’écriture est soumise au tableau :
Étant donné que chaque demande d’e/s d’écriture soumise au contrôleur de groupe par
le système d’exploitation nécessite l’exécution de quatre opérations d’e/s, les demandes
d’écriture envoyées prennent quatre fois plus de temps que l’exécution d’une seule e/s
de lecture. Pour dériver une formule afin de traduire les demandes d’e/s du point de vue
du système d’exploitation vers celles rencontrées par les piles :
De même, dans un jeu RAID 1, lorsque le rapport entre les lectures et les écritures et le
nombre de piles est connu, l’équation suivante peut être dérivée de l’équation ci-dessus
pour identifier les e/s maximales pouvant être prises en charge par le tableau (Notez que
le nombre total de piles n’inclut pas le « lecteur » perdu à la parité) :
Présentation de San
comportement des e/s pour tous les systèmes connectés au réseau SAN doit être pris en
compte. L’un des principaux avantages de l’utilisation d’un réseau SAN est une quantité
supplémentaire de redondance sur un stockage attaché en interne ou en externe, et la
planification de la capacité doit maintenant prendre en compte les besoins de tolérance
de panne. En outre, d’autres composants ont été introduits et doivent être évalués.
Fractionnement d’un réseau SAN en plusieurs composants :
L’analyse du canal sur l’unité de stockage est exactement la même que le calcul des
ressources disponibles sur le bus SCSI, ou la bande passante (par exemple, 20 Mo/s)
divisée par la taille de bloc (8 Ko, par exemple). Dans ce cas, l’agrégation de plusieurs
canaux s’écarte de l’exemple simple précédent. Par exemple, s’il existe 6 canaux, chacun
Ensuite, vous devez obtenir les spécifications du fabricant pour les modules de
contrôleur afin d’avoir une bonne compréhension du débit que chaque module peut
prendre en charge. Dans cet exemple, le réseau SAN a deux modules de contrôleur qui
prennent en charge les e/s 7 500 chacune. Le débit total du système peut être de 15 000
e/s par seconde si la redondance n’est pas souhaitée. Dans le calcul du débit maximal en
cas d’échec, la limitation correspond au débit d’un contrôleur, ou à 7 500 e/s par
seconde. Ce seuil est bien inférieur au nombre maximal de 12 500 d’e/s par seconde (en
supposant une taille de bloc de 4 Ko) qui peut être pris en charge par tous les canaux de
stockage et, par conséquent, est actuellement le goulot d’étranglement dans l’analyse.
Toujours à des fins de planification, les e/s maximales souhaitées doivent être de 10 400
e/s.
Lorsque les données quittent le module de contrôleur, il transite une connexion Fibre
Channel évaluée à 1 Go/s (ou 1 Gigabit par seconde). Pour corréler cela avec les autres
métriques, 1 Go/s se transforme en 128 Mo/s (1 Go/s ÷ 8 bits/octet). Comme cela
dépasse la bande passante totale sur tous les canaux de l’unité de stockage (100 Mo/s),
cela n’engorge pas le système. En outre, comme il ne s’agit que d’un des deux canaux (la
connexion supplémentaire de 1 Go/s Fibre Channel pour la redondance), si une
connexion échoue, la connexion restante a toujours une capacité suffisante pour gérer
tous les transferts de données demandés.
Enfin, le HBA installé sur le serveur est également limité au nombre d’e/s qu’il peut
traiter. En règle générale, un deuxième adaptateur HBA est installé pour la redondance,
mais comme avec le commutateur SAN, lorsque vous calculez des e/s maximales
pouvant être traitées, le débit total de N – 1 HBA est l’évolutivité maximale du système.
Les caches sont l’un des composants qui peuvent avoir un impact significatif sur les
performances globales à tout moment dans le système de stockage. L’analyse détaillée
des algorithmes de mise en cache dépasse le cadre de cet article. Toutefois, certaines
instructions de base sur la mise en cache sur les sous-systèmes de disque doivent
éclairer :
La mise en cache permet d’améliorer les e/s d’écriture séquentielles, car elle peut
mettre en mémoire tampon de nombreuses opérations d’écriture plus petites dans
des blocs d’e/s plus volumineux et la déphase vers le stockage en moins de tailles
de blocs plus volumineuses. Cela permet de réduire le nombre total d’e/s aléatoires
et d’e/s séquentielles, ce qui permet d’augmenter la disponibilité des ressources
pour les autres e/s.
Lors de la mise en cache des e/s de lecture, le scénario dans lequel le cache est le
plus avantageux est lorsque les données sont stockées de façon séquentielle sur le
disque, et le cache peut lire en continu (cela fait supposer que le secteur suivant
contient les données qui seront demandées ensuite).
Lorsque les e/s de lecture sont aléatoires, il est peu probable que la mise en cache
sur le contrôleur de disque offre une amélioration de la quantité de données
pouvant être lues à partir du disque. Toute amélioration est inexistante si la taille du
cache basé sur le système d’exploitation ou l’application est supérieure à la taille du
cache matériel.
Dans le cas de Active Directory, le cache n’est limité que par la quantité de RAM.
Les disques SSD sont un animal complètement différent des disques durs basés sur des
piles. Toutefois, les deux critères clés restent : « combien d’e/s par seconde peut-il
gérer ? ». et « quelle est la latence pour ces e/s par seconde ? » En comparaison avec les
disques durs basés sur des piles, les disques SSD peuvent gérer des volumes d’e/s plus
élevés et peuvent avoir des latences inférieures. En général et au moment de la rédaction
de cet article, tandis que les disques SSD sont toujours onéreux dans une comparaison
coût par gigaoctet, ils sont très bon marché en termes de coût par e/s et méritent une
attention particulière en termes de performances de stockage.
Les e/s par seconde et les latences sont très subjectives pour les conceptions du
fabricant et, dans certains cas, ont été observées comme moins performantes que
les technologies basées sur les piles. En bref, il est plus important de passer en
revue et de valider le lecteur de spécifications du fabricant par lecteur et de ne pas
supposer les généralistes.
Les types d’e/s par seconde peuvent avoir des nombres très différents selon qu’ils
sont en lecture ou en écriture. AD DS services, en général, principalement basés sur
la lecture, seront moins affectés que d’autres scénarios d’application.
« Endurance d’écriture » : il s’agit du concept que les cellules SSD finiront par
s’occuper. Différents fabricants traitent ce défi de manière différente. Au moins
pour le lecteur de base de données, le profil d’e/s de lecture prédominante permet
à downplaying de déterminer la signification de ce problème, car les données ne
sont pas très volatiles.
Résumé
L’une des façons de penser au stockage est le illustrer domestique. Imaginez que les e/s
par seconde du support sur lequel les données sont stockées sont le principal drain du
ménage. Lorsque cette opération est obstruée (par exemple, les racines dans le canal) ou
limitée (elle est réduite ou trop petite), tous les récepteurs dans le ménage sont
sauvegardés quand un trop grand volume d’eau est utilisé (trop d’invités). Cela est
parfaitement similaire à un environnement partagé dans lequel un ou plusieurs systèmes
tirent parti du stockage partagé sur un réseau SAN/NAS/iSCSI avec le même support
sous-jacent. Différentes approches peuvent être prises pour résoudre les différents
scénarios :
Pour la planification des performances de stockage, vous devez prendre en compte trois
catégories : état du cache froid, état du cache chauffé et sauvegarde/restauration. L’état
du cache à froid se produit dans des scénarios tels que lorsque le contrôleur de domaine
est redémarré pour la première fois ou que le service Active Directory est redémarré et
qu’il n’y a aucune donnée Active Directory dans la mémoire vive. L’état du cache à chaud
est l’endroit où le contrôleur de domaine se trouve dans un état stable et où la base de
données est mise en cache. Il est important de noter qu’ils vont générer des profils de
performances très différents et disposer d’une mémoire RAM suffisante pour mettre en
cache la totalité de la base de données, ce qui n’aide pas les performances lorsque le
cache est froid. Vous pouvez envisager une conception des performances pour ces deux
scénarios avec l’analogie suivante, le préchauffage du cache à froid étant un « sprint » et
l’exécution d’un serveur avec un cache à chaud est un « marathon ».
AD DS, dans la plupart des scénarios, est principalement en lecture e/s, ce qui
correspond généralement à un ratio de 90% de lecture/10% d’écriture. Les e/s de lecture
ont souvent tendance à être le goulot d’étranglement de l’expérience utilisateur, et les
e/s en écriture entraînent une dégradation des performances d’écriture. Étant donné que
les e/s à NTDS. dit sont principalement aléatoires, les caches ont tendance à offrir un
avantage minimal pour la lecture des e/s, ce qui complique la configuration du stockage
pour le profil d’e/s de lecture correctement.
Exemple :
Analyse du graphique :
client. À 20 ms, où le débit sur le stockage est long depuis la fin du délai
d’expiration et est également la valeur maximale recommandée, il faut 2,5
secondes pour obtenir les données du disque afin de les renvoyer à l’utilisateur
final.
À quel taux le cache doit-il être chaud ? En partant du principe que la charge du
client va maximiser le débit sur cet exemple de stockage, le cache sera chaud à un
débit de 2400 e/s par seconde × 8 Ko par e/s. Ou environ 20 Mo/s par seconde, en
chargeant environ 1 Go de base de données en mémoire vive toutes les 53
secondes.
Notes
Il est normal, pendant de courtes périodes, d’observer les latences lorsque les
composants lisent ou écrivent de manière agressive sur le disque, par exemple
lorsque le système est sauvegardé ou lorsque AD DS exécute garbage collection.
Une salle de tête supplémentaire en plus des calculs doit être fournie pour tenir
compte de ces événements périodiques. L’objectif est de fournir un débit suffisant
pour prendre en charge ces scénarios sans affecter la fonction normale.
Comme vous pouvez le voir, il existe une limite physique basée sur la conception du
stockage jusqu’à la vitesse à laquelle le cache peut être chaud. La vitesse à laquelle le
cache est chargé est celle des demandes client entrantes jusqu’à la fréquence que le
stockage sous-jacent peut fournir. L’exécution de scripts pour « préchauffer » le cache
pendant les heures de pointe fournira la concurrence pour la charge pilotée par les
requêtes client réelles. Cela peut nuire à la transmission de données dont les clients ont
besoin en premier lieu car, par conception, il génère la concurrence pour les ressources
disque rares, car les tentatives artificielles de mise en mémoire cache chargent les
données qui ne sont pas pertinentes pour les clients qui contactent le contrôleur de
l’État.
Yes No