Académique Documents
Professionnel Documents
Culture Documents
Solutions EMC
Rsum
Ce livre blanc dcrit les avantages en matire de performances et
dutilisation dune base de donnes Oracle virtualise, avec
VMware vSphere dploy sur une baie EMC XtremIO 100 % Flash. Il
explique galement comment la solution optimise la consolidation et la
virtualisation des environnements de base de donnes Oracle.
Juillet 2014
Copyright 2014 EMC Corporation. Tous droits rservs.
EMC estime que les informations figurant dans ce document sont exactes
la date de publication. Ces informations sont modifiables sans pravis.
EMC2, EMC et le logo EMC sont des marques dposes ou des marques
commerciales dEMC Corporation aux tats-Unis et dans dautres pays.
Toutes les autres marques cites dans le prsent document sont la
proprit de leurs dtenteurs respectifs.
Rfrence H12117.1
Introduction ....................................................................................................................................... 8
Objectif ............................................................................................................................................ 8
Primtre ......................................................................................................................................... 8
Public .............................................................................................................................................. 8
Conclusion ....................................................................................................................................... 44
Rsum .......................................................................................................................................... 44
Conclusions ................................................................................................................................... 44
Des bases de donnes telles quOracle Database 11g sont utilises pour prendre
en charge les applications critiques. Pour offrir des temps de rponse rapides sur
la gamme dapplications, ces bases de donnes requirent lutilisation dun
stockage conu la fois pour les E/S transactionnelles avec latence faible et pour
les charges applicatives danalytique dbit lev.
Cette solution dmontre les avantages du dploiement dOracle Database 11g sur
VMware vSphere avec un systme de stockage XtremIO.
EMC XtremIO La baie de stockage EMC XtremIO est un systme 100 % Flash qui repose sur une
architecture scale-out. Il se compose de modules appels X-Bricks, qui peuvent
tre assembls afin daccrotre les performances et la capacit de la baie en
fonction des besoins. Cette solution utilise deux modules X-Brick.
XtremIO reprsente une valeur ajoute dans les principaux domaines suivants :
Performances : quels que soient le taux doccupation du systme et
lutilisation de la capacit de stockage, la latence et le dbit restent
cohrents, prvisibles et constants. Au sein de la baie, la latence pour une
demande dE/S est gnralement infrieure une milliseconde. La Figure
1 prsente un exemple de tableau de bord XtremIO utilis pour surveiller
les performances.
Haute disponibilit
viter les pertes de donnes et maintenir le service en cas de dfaillances
multiples sont les principaux atouts de larchitecture XtremIO. Du point de vue
matriel, aucun composant ne constitue un point unique de dfaillance. Chaque
module X-Brick est dot de deux alimentations. Le systme possde galement
un double bloc-batteries de secours et deux ports rseau et de donnes.
Lalimentation en entre et les diffrents chemins de donnes font lobjet dune
surveillance constante, et toute dfaillance dclenche une tentative de
restauration ou une procdure de basculement sur incident.
Remarque : bien que cette solution soit conue pour les bases de donnes Oracle, les
snapshots sont tout aussi utiles pour les autres bases de donnes et applications.
VMware vSphere La couche de virtualisation dissocie lapplication des ressources physiques sous-
jacentes. Elle offre une plus grande flexibilit dans la couche applicative en
supprimant les priodes dinterruption matrielle pour maintenance, et permet de
modifier le systme physique sans nuire aux applications hberges. Dans un
exemple dutilisation de virtualisation des serveurs, cette couche permet
plusieurs machines virtuelles indpendantes de partager le mme matriel
physique.
VMware vCenter VMware vCenter est un systme de gestion centralise pour linfrastructure
virtuelle VMware. Il vous fournit une interface unique accessible depuis diffrents
priphriques des fins de surveillance, de gestion et de maintenance de
linfrastructure virtuelle.
EMC PowerPath/VE EMC PowerPath/Virtual Edition (VE) for vSphere fournit des fonctions de
multipathing optimisant les environnements virtuels VMware vSphere.
PowerPath/VE est install sur lhte VMware ESXi comme un module de noyau, et
fonctionne comme un plug-in de multipathing (traitement massivement parallle)
qui fournit aux htes VMware ESXi des fonctions avances de gestion des chemins
et dquilibrage de la charge.
Oracle Oracle Database 11g Enterprise Edition offre performances, volutivit, scurit et
Database 11g fiabilit pour une varit de serveurs uniques ou en cluster excutant Windows,
Enterprise Edition Linux ou UNIX. Cette solution prend en charge des fonctionnalits avances,
incluses ou disponibles en sus, qui ne sont pas disponibles avec Oracle Database
11g R2 Standard Edition. Il sagit de fonctionnalits de scurit telles que Virtual
Private Database et doptions dentrept dcisionnel telles que le partitionnement
et des fonctions danalytique avances.
Oracle RAC 11g R2 Dans Oracle RAC 11g R2, Oracle Grid Infrastructure combine Oracle Automatic
Storage Management (ASM) et Oracle Clusterware en un ensemble de binaires
distincts du logiciel de la base de donnes. Cette infrastructure offre prsent tous
les services de cluster et de stockage requis pour excuter une base de donnes
Oracle RAC.
Oracle Clusterware
Oracle Clusterware est une solution de gestion de cluster portable intgre dans
la base de donnes Oracle. Cette solution offre linfrastructure ncessaire pour
excuter Oracle RAC, y compris les services de gestion de cluster et les services
haute disponibilit. Vous pouvez galement lutiliser pour faire bnficier une
application autre quOracle de la haute disponibilit dans le cluster.
Les serveurs sont installs avec VMware vSphere et configurs en tant que cluster
VMware ESXi.
Quatre machines virtuelles sont cres sur ce cluster VMware ESXi, qui excute
une base de donnes Oracle RAC quatre nuds. Nous avons examin les
performances du systme en excutant sparment les charges applicatives OLTP
et dentrept dcisionnel (DW) sur la base de donnes Oracle RAC.
Switches SAN 2 FC
Oracle Grid Infrastructure 11g Enterprise Clusterware avec ASM pou la gestion
Release 2 Edition 11.2.0.3 des volumes
Rduction des La baie XtremIO 100 % Flash excute la dduplication des donnes la vole en
donnes la vole fonction dun algorithme qui vrifie que chaque bloc de donnes stock sur la baie
nest pas identique du contenu existant. Ainsi, chaque E/S de stockage est
dduplique en temps rel la rception et seuls les blocs uniques sont crits sur le
stockage Flash. En outre, la dduplication sur la baie XtremIO amliore les
performances, car les cycles dE/S des disques SSD ne sont jamais consomms par
lcriture de blocs en double ou le traitement de donnes non ddupliques. Cela
prserve la capacit dE/S maximale pour la gestion des demandes provenant des
htes.
Lorsque le mode archivelog est activ et quun journal redo log en ligne est plein,
le processus darchivage copie les donnes redo partir de ce redo log en ligne
vers le fichier log darchivage. Le redo log plein nest plus disponible en criture
pour le processus Log Writer jusqu son archivage. Le log darchivage est une
copie exacte du redo log en ligne. Par consquent, la baie nexcute pas dE/S
dcritures physiques sur les disques SSD back-end ; elle envoie les mises jour
vers des pointeurs in-memory et lopration dcriture se termine instantanment.
Une fois que le Log Writer (LGWR) a crit les nouvelles donnes dans le journal redo
log en ligne en cours darchivage, le pointeur en mmoire du fichier redo log en ligne
est mis jour et pointe vers les blocs redo physiques nouvellement allous, qui
stockent les dernires donnes redo. Le pointeur en mmoire du journal redo log
archiv est intact, ce qui signifie que les blocs physiques utiliss par le journal redo
log archiv ne sont pas obsoltes tant quils existent dans le log darchivage de
destination.
Allocation En plus de proposer des performances leves, XtremIO offre des fonctions
dynamique dallocation dynamique qui permettent dallouer la capacit la demande, en
fonction des besoins des applications, sans opration de post-rcupration ou
dincidence sur les performances des E/S de stockage sur la baie. Lallocation
dynamique dXtremIO est galement granulaire : la capacit est alloue en blocs
afin de garantir une utilisation parcimonieuse du stockage Flash, ce qui
correspond lutilisation des tailles de blocs dE/S par vSphere.
Protection contre Les composants totalement redondants dXtremIO offrent fiabilit et disponibilit
les pannes et permettent de ragir toutes les pannes matrielles dans perte de service.
XtremIO inclut les fonctions de protection contre les pannes suivantes :
double alimentation dans les contrleurs et les botiers DAE pour grer la
perte dune alimentation tout en maintenant le contrleur/botier DAE en
service ;
contrleurs redondants configuration actif/actif pour la prise en charge
des pannes de contrleur ;
modules dinterconnexion SAS (Serial-Attached SCSI) redondants dans les
botiers DAE ;
liaisons de communication intercontrleurs redondantes ;
plusieurs connexions htes avec fonctions de multipathing pour grer les
dfaillances de chemins ;
XDP pour grer les pannes de plusieurs disques SSD ;
plusieurs techniques permettant de garantir une intgrit des donnes
constante.
volutivit Les clusters de stockage XtremIO prennent en charge une conception scale-out
entirement distribue qui permet laugmentation linaire de la capacit et des
performances pour une infrastructure agile. XtremIO a recours une approche
modulaire dans laquelle la baie volue via lajout de modules X-Brick
supplmentaires.
XtremIO fournit un accs aux htes via des contrleurs N-way actifs/actifs pour
une volutivit linaire des performances et de la capacit, des fins de prise en
charge simplifie des environnements virtualiss en pleine expansion. Par
consquent, mesure que la capacit crot dans la baie, il en va de mme pour
les performances via lajout de contrleurs de stockage avec une latence
cohrente.
XtremIO Avec XtremIO Management Server (XMS), vous pouvez contrler et grer le
Management systme. Fonctions offertes par XMS :
Server initialisation et formatage de nouveaux systmes ;
surveillance de lintgrit du systme et des vnements ;
surveillance des performances systme ;
maintenance dune base de donnes historique avec statistiques de
performances ;
fourniture de services GUI et CLI aux clients ;
implmentation doprations de gestion des volumes et de protection des
donnes ;
maintien en conditions oprationnelles (arrt, dmarrage et redmarrage)
du systme.
XMS est prinstall et accessible via une interface utilisateur simple dutilisation,
XtremIO Storage Management Application (XSMA), et il se connecte aux ports de
gestion des contrleurs de stockage X-Brick via TCP/IP. Le cluster XtremIO gre le
stockage indpendamment de la dconnexion dun serveur XMS.
XMS est dploy en tant que machine virtuelle dans lenvironnement de gestion
du systme, qui sappuie sur un cluster VMware HA. Ainsi, la machine virtuelle
XMS peut rapidement redmarrer en cas de panne. Si votre environnement nest
pas virtualis, un serveur physique peut tenir lieu de XMS.
Configuration du Dans le cadre de cette solution, la baie XtremIO est dploye avec deux modules
stockage X-Bricks, interconnects via des switches QDR InfiniBand 40 Gbit/s redondants
intgrs qui fournissent une connectivit back-end entre les contrleurs de
stockage. Cela garantit un rseau haute disponibilit, avec des temps de latence
trs faibles.
La baie XtremIO de ce test contient cinquante disques SSD de 400 Go. Ils sont
configurs avec XDP pour atteindre une capacit physique de 14,94 To, comme le
montre la Figure 4.
Avec XtremIO, tous les disques sont protgs par XDP, et les donnes de la baie
sont automatiquement distribues sur lensemble des modules X-Brick afin de
prserver la prvisibilit des performances et un niveau dusure quivalent sur
tous les supports Flash.
Habituellement, les bases de donnes gnrent deux types dE/S : E/S alatoires et
E/S squentielles. Avec XtremIO, ces E/S sont traites de la mme manire, car les
donnes sont randomises et distribues de faon homogne dans lensemble de la
baie.
Taille
Fonction du volume
(Go)
Disques Oracle ASM pour les fichiers de donnes 700
Provisionnement Le provisionnement des LUN dans XtremIO est simple et direct. Vous pouvez crer
des LUN des LUN et les prsenter aux serveurs en quelques clics partir de la console de
gestion de la baie XtremIO. Les tapes suivantes dcrivent comment crer des
LUN et les mapper aux initiateurs.
Figure 5. Initier la cration des LUN et spcifier leur nom et leur taille
4. Cliquez sur Apply. Toutes les LUN cres sont mappes sur les groupes
dinitiateurs, comme le montre la Figure 8.
Figure 9. Interface utilisateur XtremIO - Mappage des volumes/LUN sur les serveurs
Groupe
Nombre Redondance Nombre de
Nom du Taille du de
de du groupe de groupes
dossier volume (Go) disques
volumes disques ASM dinitiateurs
ASM
DWDATA 700 8 +DATA Externe 4
Bonnes pratiques EMC vous recommande de mettre en uvre les bonnes pratiques suivantes en
SAN matire de SAN :
Utilisez plusieurs adaptateurs HBA sur les serveurs VMware ESXi et deux
switches SAN pour fournir plusieurs chemins entre les htes et le cluster
XtremIO.
Zonez chaque port FC des serveurs de base de donnes vers les ports des
modules X-Brick XtremIO
pour obtenir haute disponibilit et performances leves.
Utilisez un logiciel de gestion des chemins et de multipathing dynamique
(tel que PowerPath/VE) sur les htes pour permettre au processus de
basculement sur incident daccder des chemins daccs de
substitution et pour assurer un quilibrage de la charge.
Si ce type de logiciel nest pas utilis, nous vous recommandons de
configurer un multipathing actif/actif avec permutation circulaire pour la
rgle de slection des chemins sur les htes VMware ESXi.
Bonnes pratiques EMC vous recommande de mettre en uvre les bonnes pratiques suivantes en
relatives au matire de rseau IP :
rseau IP Utilisez plusieurs cartes rseau et switches pour assurer la redondance
rseau.
Utilisez une connexion rseau 10 GbE, le cas chant.
Utilisez des LAN virtuels pour regrouper logiquement les priphriques
qui se trouvent sur diffrents segments rseau ou sur des sous-rseaux.
Activez et configurez les trames Jumbo 2 sur les piles physiques et
virtuelles pour les rseaux 10 GbE.
Bonnes pratiques La gestion rseau dans les environnements virtuels et physiques implique les
relatives au rseau mmes concepts et nombre de bonnes pratiques sappliquent ces deux types
VMware vSphere denvironnement. Cependant, dautres considrations sont applicables en termes
de segmentation du trafic, de disponibilit et de dbit en cas de virtualisation.
Cette solution a t conue pour grer efficacement plusieurs rseaux ainsi que la
redondance des adaptateurs rseau sur les htes VMware ESXi. Les principales
recommandations lies aux bonnes pratiques sont les suivantes :
Isolez le trafic de linfrastructure de celui des machines virtuelles des
fins de scurit.
2
Les MTU dune taille suprieure 1 500 octets sont qualifies de trames Jumbo . Les
trames Jumbo requirent une connexion Gigabit Ethernet sur la totalit de linfrastructure
rseau, y compris au niveau des serveurs, des switches et des serveurs de base de
donnes.
Pour plus dinformations sur la mise en rseau avec VMware vSphere, suivez les
instructions du document VMware vSphere Networking.
Dans cet environnement de test, nous avons utilis quatre serveurs physiques
configurs dans un cluster VMware vSphere HA, chacun excutant un serveur
VMware vSphere ESXi. Nous avons ensuite configur quatre machines virtuelles
pour concevoir un dploiement de base de donnes Oracle RAC virtualise
quatre nuds.
Ressources de EMC vous recommande dimplmenter les bonnes pratiques suivantes au niveau
traitement et de des ressources de traitement VMware, comme dcrit dans le document Oracle
stockage Databases on VMware - Best Practices Guide :
Utilisez la technologie NUMA (Non-Uniform Memory Access) sur les
serveurs VMware ESXi, une architecture informatique dans laquelle
laccs une mmoire plus proche dun processeur particulier est plus
rapide que laccs une mmoire plus loigne.
Allouez une quantit de mmoire vRAM aux machines virtuelles infrieure
ou gale la mmoire locale du nud NUMA (processeur).
Installez VMware Tools, qui comprend plusieurs utilitaires amliorant les
performances du systme dexploitation invit de la machine virtuelle et
la facilit de gestion de cette dernire.
Allouez une vRAM au moins deux fois suprieure la zone SGA (System
Global Area) Oracle.
Configurez les rserves de mmoire des machines virtuelles de sorte
quelles atteignent au minimum la taille de la zone SGA Oracle et les frais
supplmentaires associs au systme dexploitation.
Utilisez plusieurs contrleurs paravirtualiss SCSI (PVSCSI) pour les
machines virtuelles de base de donnes. Lutilisation de plusieurs
contrleurs SCSI virtuels permet lexcution de diffrentes oprations
dE/S parallles au sein du systme dexploitation invit. Configurez le
contrleur PVSCSI pour les disques utiliss pour stocker les fichiers de
donnes de base de donnes.
3
Le document My Oracle Support Doc ID 249212.1 dfinit la politique de support VMware
dOracle.
Nom Objectif
vSwitch0 Trafic de gestion et des machines virtuelles publiques
Nous avons utilis le pilote VMXNET3 hautes performances pour attribuer deux
cartes rseau (1 GbE et 10 GbE) chaque machine virtuelle. Nous avons mapp la
carte rseau virtuelle 1 GbE sur le vSwitch0 pour fournir du trafic public, et la carte
rseau virtuelle 10 GbE sur le vSwitch1 pour fournir le trafic dinterconnexion
Oracle RAC.
Configuration des modles de machine virtuelle
Les modles VMware rduisent le dlai du dploiement et automatisent les
tches dinstallation et de configuration rptitives sur chaque machine virtuelle
requise. Grce ce modle, vous pouvez dployer une machine virtuelle
contenant des utilisateurs dapplications et un systme dexploitation
prconfigurs, ainsi quun logiciel configur et prt lemploi avec intervention
minime de lutilisateur.
Composant Description
CPU 8 vCPU pour la charge applicative OLTP
Mmoire 128 Go
Noyau 2.6.32-279.el6
Configuration des disques Disque virtuel de 128 Go pour les dossiers racine,
/tmp, lespace de fichier dchange et les fichiers
binaires Oracle 11g R2 Database
Aprs le dploiement des machines virtuelles, nous avons ajout le disque ddi
au stockage des bases de donnes en tant que disque RDM (Raw Device
Mapping).
Nous avons dfini loption SCSI Bus Sharing des contrleurs SCSI sur Physical
afin que les machines virtuelles bnficient dun accs direct et partag aux LUN
RDM sur les serveurs VMware ESXi, comme le montre la Figure 11.
Dans Oracle Database 11g, Oracle ASM et Oracle Clusterware sont intgrs avec
linfrastructure Oracle Grid Infrastructure. ACFS tend les fonctionnalits dASM
en fournissant un systme de fichiers de consignation bas sur extent, robuste et
gnrique. Dans cette solution, nous avons utilis ASM pour stocker les fichiers
de base de donnes et ACFS pour stocker les fichiers CSV pour le test de
chargement des donnes.
Conception du Comme le montre le Tableau 4 page 21, nous avons utilis trois groupes de
stockage des disques ASM pour stocker les fichiers de base de donnes pertinents, y compris
bases de donnes les fichiers de donnes, fichiers de contrle, journaux redo log en ligne, fichiers
OLTP de disque de vote, fichiers CRS et fichiers temporaires.
Une redondance externe a t utilise pour les groupes de disques ASM, et les
paramtres par dfaut ont t utiliss pour les attributs des groupes de disques
ASM restants. Lorsque nous avons cr les groupes de disques DATA et REDO,
nous avons dfini la taille de secteur sur 4 Ko afin doptimiser les performances
dE/S sur le stockage XtremIO. Nous avons galement dfini la taille des blocs
des journaux redo log en ligne sur 4 Ko, afin de la faire correspondre la taille des
secteurs du groupe de disques REDO.
Profil de base de Le Tableau 8 rpertorie chaque profil de charge applicative de base de donnes
donnes et de OLTP de la solution.
charge applicative
OLTP Tableau 8. Profil de charge applicative de chaque base de donnes OLTP
Taille de la base de 4 To
donnes
Configuration de sga_max_size = 16 Go
linstance Remarque : puisquun cache de base de donnes plus
volumineux met davantage de donnes en mmoire tampon,
nous avons configur un cache de mise en mmoire tampon
trs petit afin de gnrer une charge applicative dE/S
physiques stable et leve.
Configuration du Le Tableau 9 dcrit la conception de groupe de disques ASM utilise pour la base
groupe de disques de donnes dentrept dcisionnel. Tout comme dans lorganisation des groupes
ASM pour la base de disques ASM OLTP, +DATA et +REDO ont t crs. Un groupe de disques ASM
de donnes supplmentaire, +CSV, a t cr pour tenir lieu de partage rseau, avec le
dentrept systme de fichiers Oracle ACFS. Les fichiers de donnes plats sont stocks sur ce
dcisionnel partage ACFS pour chargement dans la base de donnes.
REDO 40 4 +REDO
CRS 10 2 +CRS
Tableau 10. Profil de base de donnes et de charge applicative pour chaque base de
donnes dentrept dcisionnel
Source de chargement des donnes Fichiers plats externes sur Oracle ACFS
Nous avons excut une charge applicative OLTP gnre par SLOB sur la base de
donnes afin de simuler une charge applicative OLTP relle. Nous avons utilis le
gnrateur de charge applicative DW pour crer cette dernire.
Remarques sur les Les rsultats du benchmark dpendent fortement de la charge applicative, des
rsultats exigences spcifiques de lapplication, ainsi que de la conception et de la mise
en uvre du systme. Les performances systme relatives varient donc en
fonction de ces facteurs et de quelques autres. En consquence, cette charge
applicative ne doit pas tre utilise comme substitut dans le cadre dun
benchmark dapplication propre au client, sil sagit de prendre des dcisions
critiques concernant la planification de la capacit et/ou lvaluation du produit.
Nombre
Scnarios de test dutilisateurs Remarques
simultans
Tests sur les La solution permet de dterminer les performances systme des charges
charges applicatives OLTP Oracle sur la baie XtremIO. Nous avons cr une base de
applicatives pour donnes Oracle RAC quatre nuds dans un environnement virtualis VMware
la lecture/criture consolid.
de blocs uniques Nous avons utilis SLOB pour gnrer la charge applicative, car il sagit de la
alatoires SLOB meilleure charge applicative SQL permettant de gnrer des E/S alatoires
physiques maximales partir dune plate-forme de base de donnes.
SLOB est un gnrateur de charge applicative SQL exigeante en termes dE/S, et
non un gnrateur dE/S synthtiques ; il prsente les caractristiques suivantes :
Il prend en charge le test des lectures de blocs uniques physiques et
alatoires (db file sequential read/db file parallel read).
Il prend en charge le test des critures de blocs uniques alatoires (db file
parallel write).
Il prend en charge les E/S de consignation REDO extrmes.
Il se compose de simples requtes PL/SQL.
Il ne cre aucun conflit daccs au niveau des applications.
OLTP avec test 100 % requtes : test portant uniquement sur les requtes de
blocs uniques alatoires SLOB
Ce test a t utilis pour mesurer les performances lorsque plusieurs sessions
zero-think-time SLOB simultanes excutaient des requtes sur la base de
donnes RAC.
Ces sessions ont t gnres par le kit doutils SLOB : chaque utilisateur excute
des requtes similaires pour valider les IOPS de lecture.
Procdure de test
Lors de ce test, nous avons tout dabord excut une charge applicative moyenne,
soit 32 sessions simultanes sur la base de donnes RAC quatre nuds, avec
8 sessions sur chaque nud. Chaque session a excut la charge applicative de
requtes OLTP sur la base de donnes de clusters. Ensuite, nous avons excut
une charge applicative intensive, soit 48 sessions simultanes sur la base de
donnes RAC quatre nuds, avec 12 sessions sur chaque nud. Nous avons
excut chacune des charges applicatives trois fois afin de nous assurer quil ne
ressortait aucune diffrence de taille entre elles, et surtout pour prouver que la
baie XtremIO prsente des performances prvisibles lorsque la mme charge
applicative est utilise.
Rsultats des tests
Nous avons collect les statistiques de performances laide de rapports AWR
RAC. Nous nous sommes reports la valeur physical read IO requests du rapport
AWR pour valuer les statistiques relatives aux IOPS de lecture.
Figure 13. Mesure des temps de rponse des requtes uniquement - Rapport AWR
Afin de montrer le temps de rponse moyen des E/S de la baie XtremIO du point
de vue de la base de donnes Oracle, nous avons utilis la formule suivante :
Pour lvnement db file sequential read :
Le temps dattente total est T1, soit 1 060,18 secondes.
Le nombre total dvnements dattente est N1, soit 986 577.
Donnes de performances
Metrics de
32 sessions 48 sessions
performances
1re passe 2e passe 3e passe 1re passe 2e passe 3e passe
IOPS 197 288 197 601 197 128 228 092 228 011 228 599
Nous avons atteint un total de 197 601 IOPS de lecture et une latence moyenne
de 1,615 ms avec une base de donnes RAC quatre nuds, en excutant
32 sessions de lecture sur quatre nuds. Lorsque nous avons augment la
charge applicative via lajout de sessions de lecture, les IOPS de lecture sont
passes 228 599, avec un temps de rponse dE/S de 2,114 ms.
OLTP avec test 100 % UPDATE : test sur les lectures/critures de blocs uniques
alatoires SLOB
Ce test a t utilis pour mesurer les performances lorsque plusieurs sessions
zero-think-time SLOB simultanes excutaient des transactions UPDATE sur la
base de donnes RAC.
Ces sessions ont t gnres par le kit doutils SLOB : chaque utilisateur excute
des transactions UPDATE similaires pour valider les IOPS de lecture/criture.
Mthodologie de test
Nous avons excut un nombre variable de sessions simultanes, chaque
utilisateur excutant des instructions SQL UPDATE SLOB similaires simultanment
sur la base de donnes RAC quatre nuds, puis nous avons mesur les
statistiques de performances.
Procdure de test
Lors de ce test, nous avons tout dabord excut une charge applicative moyenne,
soit 32 sessions simultanes sur la base de donnes RAC quatre nuds, avec
8 sessions sur chaque nud. Chaque session a excut une charge applicative
SQL UPDATE sur la base de donnes de clusters.
Ensuite, nous avons excut une charge applicative intensive, soit 128 sessions
simultanes sur la base de donnes RAC quatre nuds, avec 32 sessions sur
chaque nud. Nous avons excut chacune des charges applicatives trois fois
afin de nous assurer quil ne ressortait aucune diffrence de taille entre elles, et
surtout pour prouver que la baie XtremIO prsente des performances prvisibles
lorsque la mme charge applicative est utilise.
Rsultats des tests
Nous avons utilis les statistiques de performance suivantes dans les rapports
AWR pour calculer la charge applicative, comme le montre la Figure 14.
Figure 14. Mesure des temps de rponse des transactions UPDATE uniquement
Rapport AWR
Donnes de performances
Metrics de performances 32 sessions 128 sessions
1re passe 2e passe 3e passe 1re passe 2e passe 3e passe
IOPS en lecture 31 624 31 496 31 646 63 387 63 524 63 691
IOPS agrges (criture + 64 742 64 469 64 782 130 174 130 499 130 803
lecture)
OLTP avec test 75 %/25 % QUERY/UPDATE test sur les blocs uniques alatoires
SLOB
Ce test a permis de mesurer les performances pendant des sessions zero-think-
time SLOB simultanes (simulation dutilisateurs simultans) : 75 % dentre
elles excutant des requtes et 25 % dentre elles des transactions UPDATE sur la
base de donnes RAC. Nous avons utilis ce test pour simuler une charge
applicative relle et valider les performances du stockage XtremIO.
Mthodologie de test
Nous avons excut un nombre variable de sessions simultanes : 75 % dentre
elles excutant des requtes OLTP similaires et les 25 % restants des transactions
UPDATE similaires, simultanment, sur la base de donnes RAC quatre nuds,
puis nous avons mesur les statistiques de performance.
Procdure de test
Nous avons commenc par excuter une charge applicative moyenne, soit
64 sessions simultanes sur la base de donnes RAC, avec 75 % des sessions
excutant des requtes similaires et 25 % des instructions SQL UPDATE similaires
sur la base de donnes de clusters. Ensuite, nous avons excut une charge
applicative intensive, soit 128 sessions simultanes sur la base de donnes RAC
quatre nuds, avec 32 sessions sur chaque nud. Nous avons excut
chacune des charges applicatives trois fois afin de nous assurer quil ne ressortait
aucune diffrence de taille entre elles, et surtout pour prouver que la baie XtremIO
prsente des performances prvisibles lorsque la mme charge applicative est
utilise.
Rsultats des tests
Pour calculer la charge applicative, nous avons utilis les statistiques de
performance des rapports AWR, illustrs sur la Figure 15, comme nous lavons fait
lors du test 100 % transactions UPDATE.
Donnes de performances
Metrics de performances 64 sessions 128 sessions
1re passe 2e passe 3e passe 1re passe 2e passe 3e passe
IOPS en lecture 111 797 111 886 112 124 144 911 144 977 145 205
IOPS agrges (criture + 140 570 140 624 140 954 182 041 182 141 182 399
lecture)
Test sur la charge Le gnrateur de charge applicative dentrept dcisionnel nous a fourni une
applicative des charge applicative de test dentrept dcisionnel Oracle qui nous a permis de
requtes tester et de valider les performances de charges applicatives DW Oracle types sur
dentrept la plate-forme de stockage XtremIO.
dcisionnel
Le schma du kit prsentait 12 tables, y compris deux tables des faits : sales et
returns. Les tables restantes tenaient lieu de tables des dimensions. Les tables
des faits ont t partitionnes par date et sous-partitionnes en fonction du
hachage sur leur cl de jointure. La base de donnes faisait 3,8 To. Plusieurs
utilisateurs simultans ont excut une srie de requtes ordinaires sur les
donnes. Le dbit a t mesur pendant le test.
Mthodologie de test
Ce test a permis de mesurer les performances pendant lexcution dun nombre
fixe dutilisateurs simultans, chaque utilisateur excutant des requtes
similaires. Ces utilisateurs simultans ont t gnrs par le gnrateur de charge
applicative DW. La valeur direct path read a t choisie pendant lexcution,
pour toutes les analyses en srie des tables compltes de ce test.
Procdure de test
Ce test a impliqu lexcution de 32 utilisateurs simultans sur chaque nud,
soit un total de 128 utilisateurs simultans sur la base de donnes RAC quatre
nuds, chaque session excutant une charge applicative de requtes DW
similaire, avec les scripts du gnrateur de charge applicative DW.
Rsultats des tests
Pour valuer le dbit des requtes (Go/s), nous avons utilis llment physical
read bytes du rapport AWR, comme le montre la Figure 16.
Le rapport AWR montre que pendant les tests, le dbit a atteint 5 Go/s lorsque
nous avons excut la charge applicative DW sur la base de donnes RAC
quatre nuds.
Nous avons eu recours des tables externes Oracle utilisant le pilote daccs
ORACLE_LOADER pour charger les donnes de ces tables vers des tables internes.
Les donnes provenaient de fichiers de donnes plats.
Mthodologie de test
Ce test montre le dbit observ dans la baie XtremIO avec la configuration du
stockage sur disque utilise dans cette solution. Une session est excute sur
chaque serveur (pour un total de quatre) pour le chargement des donnes sur la
base de donnes RAC quatre nuds. Chaque session a excut une charge
applicative ETL similaire en chargeant des fichiers CSV plats dans la base de
donnes.
Procdure de test
Ce test a dmontr les performances des modules X-Brick en chargeant des
donnes partir de tables externes. Il a impliqu lexcution dun utilisateur sur
chaque nud de la base de donnes RAC qui en compte quatre, pour charger les
donnes partir dune table externe, quivalant quatre sessions chargeant les
donnes simultanment.
Chaque session a charg un fichier CSV de 120 Go. Ce fichier CSV se situait dans
le systme de fichiers Oracle ACFS. La table externe a t cre comme suit :
create table sales_ext (
id integer,
)
organization external(
type oracle_loader
default directory EXT_DIR
access parameters (fields terminated by "|")
location ('sales.csv'))
parallel reject limit unlimited;
Remarque : la table sales prsente la mme structure que la table sales_ext. Les
donnes sont charges directement laide de lindicateur append, et plusieurs
esclaves parallles sont utiliss pour le chargement des donnes.
Figure 17. Dbit de chargement des donnes Test de chargement des donnes DW -
Rapport AWR
Le rapport AWR montre que pendant le test de chargement des donnes, le dbit
a atteint prs de 1 023 Go/s, soit 3,59 To/heure, lorsque nous avons excut la
charge applicative de chargement des donnes sur la base de donnes RAC
quatre nuds.
Elle fournit une infrastructure haute volutivit pour les applications et leur
permet de grer une charge applicative toujours plus importante, avec des
performances prvisibles. Ct serveur, la solution est volutive et peut sadapter
lajout de ressources de traitement supplmentaires, telles que des CPU, de la
mmoire, des ports dadaptateur HBA et des ports front-end. Ct stockage,
larchitecture scale-out de type actif/actif de la baie XtremIO permet de faire
voluer la capacit et les dbits de manire linaire (IOPS et Mo/s) tout en
maintenant une latence suprieure et cohrente. Ces facteurs indiquent que cette
solution est parfaitement adapte aux environnements de bases de donnes
OLTP et DW.
Avec cette solution, vous pouvez galement profiter dune utilisation des
ressources efficace grce la virtualisation, tout en permettant la consolidation
des bases de donnes et des applications. Vous pouvez faire voluer la capacit
et les fonctionnalits de traitement de faon indpendante, sans que vos efforts
ne soient entravs par les limites imposes par une appliance ddie. En cas de
modification, quelle quelle soit, au niveau des applications, des logiciels de base
de donnes ou des autres logiciels, la pile de la solution peut sadapter aux
demandes changeantes imposes par vos besoins mtiers. En retour, de
nouvelles approches des charges applicatives peuvent tre adoptes, comme
lanalytique en temps rel, grce la consolidation des instances de production
et de reporting.
Autre Les liens suivants contiennent des informations complmentaires sur les
documentation snapshots XtremIO.
http://www.xtremio.com/introduction-to-xtremio-snapshots-white-paper
https://community.emc.com/docs/DOC-30738