Académique Documents
Professionnel Documents
Culture Documents
d’Infrastructures et de Production
L’OBSERVATOIRE
des Directeurs
LIVRE BLANC
d’Infrastructures
et de Production
MAINFRAME
Enquête et Analyse de Tendances,
Maîtrise des coûts
Auteurs
Laurent Buscaylet, Frédéric Didier
Bernard Dietisheim, Bruno Koch, Fabrice Vallet
2. Cartographie de la plate-forme z 11
2.1 Référentiels techniques 11
2.1.1 Serveurs 11
2.1.2 SAN & Réseau 12
2.1.3 Stockage 13
2.1.4 Sauvegardes 15
2.1.5 Architecture technique & Organisation 16
2.1.6 Sécurisation 19
2.2 Analyse et positionnement des fournisseurs de logiciels Mainframe 20
2.2.1 Fournisseurs Principaux 21
2.2.2 Fournisseurs Secondaires 22
2.3 Résultats de l’enquête 23
Avant tout qu’il est le plus moderne des dinosaures, et que même chaque année qui
passe renforce sa modernité. Ce bientôt quinquagénaire se tient au centre des ten-
dances du moment. Vous n’y croyez pas ?
Pourtant la plate-forme souffre d’une lourde défiance : les tarifs y passent pour exor-
bitants. Il y a dans cette critique une forme de distorsion cognitive, un problème de
vue. Machine hyper-consolidée, affichant des taux d’utilisation à faire pâlir un adminis-
trateur Unix (et s’évanouir de rage son collègue Windows), environnement par nature
global, son coût apparent, surtout en investissement logiciel, saute aux yeux des ges-
tionnaires qui n’en voient pas la contrepartie en termes d’administration et de facilité
d’exploitation. Ensuite, la comparaison s’effectue trop souvent entre déploiement sur
Mainframe, donc sur une infrastructure globale, et déploiement sur un ou quelques
serveurs x86. C’est une erreur aussi classique que la célèbre addition des choux et des
carottes, ou ici celle des choux de Bruxelles et des citrouilles. Car une fois l’application
montée en régime, installée sur une batterie de serveurs x86 qu’il faudra administrer,
sauvegarder, orchestrer, etc. qui coûtera réellement le moins cher ?
Pour conduire à bien ce travail, nous avons commencé par faire un point, par indiquer où se trouvait
aujourd’hui le Mainframe dans nos entreprises, à quoi il servait, comment il s’intégrait avec le reste
de l’infrastructure. Ensuite, nous avons passé en revue les méthodes possibles de maîtrise des
coûts. Comme vous le verrez, elles ne manquent pas.
Nous avons souhaité que ce Livre Blanc soit un outil, qu’il porte des solutions pratiques. Insistons
donc sur un point : le vécu. Notre texte est issu de multiples réunions du Groupe de Travail Main-
frame-z/OS ainsi que des éléments collectés au cours de ses enquêtes. Tout ce qui suit vient de
l’expérience concrète des utilisateurs et a été d’abord débattu entre professionnels chevronnés de
la plate-forme. Chaque piste présentée a fait l’objet de démarches d’implémentation réelles qui
ont validé sa pertinence. Chaque commentaire, chaque nuance, chaque critique ou mise en garde
provient d’une difficulté rencontrée sur le terrain, d’un résultat inattendu, d’une heureuse surprise,
ou témoigne de l’écart entre le brio d’une idée et les complexités de sa mise en œuvre. Ce sont les
fruits de notre expérience que nous vous livrons.
Bonne lecture.
Pour l’avenir prévisible, la tendance globale est à une augmentation de consommation. Pour
6 des répondants, cette augmentation se situera entre 5 et 15 % par an, et pour 3 autres en
dessous de 5 % mais en croissance tout de même. En comparaison, seules 3 entreprises
prévoient une réduction de la puissance utilisée, mais sans que cette régression excède 5 %
par an. 2 répondants prévoient de continuer à consommation constante. Il n’y a donc pas de
déchéance globale de l’utilisation de la plate-forme Mainframe : ceux qui en possèdent une
continuent à la faire fonctionner pour servir des besoins qui généralement augmentent.
Si on se penche cependant sur la position relative du Mainframe par rapport aux environne-
ments ouverts, la situation se montre sous un jour tout différent.
Mais il est intéressant de relever que la part des applications de type mixte, s’exécutant par-
tiellement sur Mainframe et partiellement sur systèmes distribués aurait plutôt tendance
à rester constante, partant de 40 % sur la période 2006-2008 pour se stabiliser à 36 % sur
2009-2011 et 2012-2014. Signe que l’intégration du mainframe au SI se perpétue, et que le
z parvient à collaborer régulièrement avec les environnements distribués en faisant alors
office de serveur de données d’une part et de serveur middleware de l’autre.
Il nous a été très difficile d’obtenir des réponses à la question portant sur la proportion
du budget informatique et du temps d’activité (jours/hommes) alloués à l’environnement
Mainframe. Le manque de répondants ne nous permet pas de reprendre ces chiffres ici.
Cependant, les discussions internes au groupe de travail vont toutes dans le même sens :
le Mainframe demande plutôt moins d’investissement humain et moins de temps d’ad-
ministration que les environnements distribués. Il conserve pourtant globalement cette
image d’environnement coûteux. C’est que pour prouver son intérêt économique, le Main-
frame demande de ne pas se limiter à une approche unitaire des coûts, mais de prendre en
compte un nombre suffisant de paramètres, comme le temps consacré à l’exploitation, le
haut niveau de sécurité délivré, le niveau élevé d’occupation des ressources atteint, la faible
quantité de stockage qu’il nécessite.
Sur ce dernier point et à titre d’exemple, le Groupe de Travail Stockage du CRIP nous a four-
ni les chiffres suivants qui remontent à l’enquête de 2009 mais semblent encore valables :
parmi l’ensemble des répondants, 4 % de la volumétrie était affectée au Mainframe, contre
75 % au SAN et 21 % au NAS en environnement distribué. Chez les comptes possédant un
Mainframe, la répartition s’établissait en 13 % de stockage mainframe, contre 72 % SAN
et 15% NAS en environnement distribué. Si nous faisons le rapport avec la proportion des
applications fonctionnant dans chacun des environnements, le Mainframe se montre donc
particulièrement sobre en stockage.
A l’heure où les préoccupations énergétiques, mais aussi les problèmes d’occupation des
salles se multiplient, il faut rappeler que le Mainframe reste un champion de frugalité.
Un des membres du Groupe de Travail précise que l’activité Mainframe occupe dans son
entreprise 135 m² de salles informatiques sur un total de 4000 m², soit environ 3,5 % des
surfaces, mais exécute 25 % des applications. En termes d’énergie, ses installations main-
frame ne consomment « que » l’équivalent de deux fermes de calcul.
Il faut voir dans cette évolution une conséquence des exigences métiers différentes des uns
et des autres.
Dans l’Industrie, les systèmes distribués prennent une place croissante. Les choix des DSI,
souvent soucieuses d’homogénéiser leurs parcs de machines, excluent le développement
de nouvelles applications en environnement Mainframe, même en ce qui concerne les fonc-
tions de cœur de métier, sauf en cas d’extensions de l’existant. On se trouve donc ici plutôt
dans un scénario de migration en douceur qui prévoit que lors d’une réécriture des appli-
cations, ou d’une adoption de progiciels en lieu et place de développements maison, le
déploiement ne se fera pas sur Mainframe. Nous constatons ici une volonté non pas de se
désengager de la plate-forme, puisque ces directions stratégiques peuvent s’accompagner
d’un entretien de l’existant et d’un renouvellement régulier de l’infrastructure, mais de ne
pas lui donner de nouvelles fonctions. Comme nous l’avons vu plus haut cela peut se tra-
duire chez certains adhérents du CRIP par une légère augmentation de la puissance utili-
sée, mais sans déploiement de nouvelles charges, un phénomène qu’un des participants au
Groupe de Travail qualifie de « mort annoncée » du Mainframe.
Ce phénomène se produit assez lentement, car il reste difficile de déplacer une application
qui consomme plusieurs centaines ou milliers de MIPS vers un environnement distribué,
et ceci en dépit des promesses des consultants. Les équipes Mainframes se voient parfois
obligées de mettre en évidence que le coût d’un désengagement à marche forcée serait
exorbitant. Comme le résume un participant « la durée de vie d’un DSI qui souhaite suppri-
mer le Mainframe est souvent moindre que la durée effective du désengagement ».
Ces évolutions posent en tout cas aussi la question des compétences. Tout le monde constate
qu’elles se raréfient. Pour certaines entreprises, les développements Mainframe se voient
abandonnés du fait de ce manque de compétences, d’autant plus que les ressources Linux
ou Windows sont moins chères et abondantes. Même dans les entreprises qui continuent à
se doter de compétences développeurs Mainframe, la pyramide des âges pose problème.
Les équipes vieillissent. Il est possible de réduire les impacts de cette évolution en privi-
légiant les outils et les environnements de développement modernes (Java en particulier)
afin de s’affranchir au maximum de la plate-forme. Mais cela laisse entière la question de
l’exploitation.
PAGE 8
LiVRE BLANC
1.4 Stratégies d’évolution pour le z
Le parc applicatif Mainframe reste important dans la majorité des grandes entreprises.
Cependant, les applications hébergées sur cette plate-forme vieillissent et leur renouvelle-
IBM met l’accent en premier lieu sur ce qu’il appelle les « new workloads ». La plupart des
programmes Mainframe actuels sont écrits en COBOL et ne proposent qu’une interface
utilisateur limitée. A l’heure du Web 2.0 et des RIA (Rich Internet Applications, qui associent
un mode d’accès Web à des interfaces riches de type poste client lourd), ces technologies
n’ont plus d’avenir et doivent évoluer. Raison pour laquelle IBM mise sur l’exécution de ces
nouvelles applications pour faire perdurer la plate-forme.
En août 2009, IBM présentait une nouvelle offre commerciale réservée à ces news workloads :
Solution Edition. Ce package financier intègre le matériel, le logiciel et la maintenance
alors que l’offre zNALC antérieure ne concernait que le logiciel. Cette offre semble com-
pétitive mais IBM la réserve à de nouveaux projets très ciblés (BI, SAP, GRC, etc.) avec
des ressources dédiées ce qui va à l’encontre des modes de fonctionnement propres à la
plate-forme Mainframe où la mutualisation des ressources constitue la règle, et le dédié
l’exception.
En 2011, une nouvelle offre de facturation mise cette fois-ci sur la co-localisation. Cette
offre permet d’exécuter des logiciels dits ”qualifiants“ – comme WebSphere – sur des par-
titions existantes hébergeant les moniteurs traditionnels comme IMS et CICS sans pour
autant accroitre leur facturation à la charge. Ces logiciels sont dits éligibles à l’ajustement
IWP (Integrated Workload Pricing). Cette évolution changera-t-elle la donne en autorisant
l’exécution de nouvelles applications Java sans augmenter la facturation à la charge du
Mainframe ?
IBM continue à investir dans la plate-forme Mainframe (qui contribue aussi bien à ses ventes
de matériels que de logiciels dans une proportion non-négligeable bien que jalousement
gardée secrète). En 2010, le constructeur a dévoilé une nouvelle génération de machines,
les zEnterprise. IBM y fait un pari sur lequel nous n’avons que très peu de recul.
Comme l’a souligné le groupe de travail, cette évolution ne pose pas seulement des ques-
tions technologiques (il faut valider les capacités réelles de la plate-forme), mais aussi des
questions politiques. En effet, zEnterprise reviendrait peu ou prou à donner le contrôle des
divers systèmes à l’équipe d’administration Mainframe. Une direction qui ne parait pas vrai-
ment à l’ordre du jour dans les entreprises.
2.1.1 Serveurs
Infrastructures
Au moment de l’enquête, les serveurs installés étaient en quasi-totalité de la dernière
génération alors disponible (z10). Le z196 a depuis lors fait une percée de 30 % sur
l’ensemble du parc installé.
Le z est donc une plateforme moderne sur le plan technologique. Les raisons en sont
principalement :
• Le souci d’investir de manière pérenne (i.e. : sur des plateformes récentes).
•L a non-évolutivité des serveurs de génération plus ancienne environ 5 ans après leur
début de commercialisation.
•L a prime à la nouvelle technologie au niveau de la facturation logicielle (« Technology
dividend ») sur le MLC : de 3 à 5 % d’une génération à une autre.
Processeurs spécialisés
Ces processeurs absorbent certains types de traitements (DB2, Java, Linux) en franchise
de coût logiciels MLC. De plus, ils coûtent environ 5 fois moins cher à l’achat que les
processeurs classiques (voir chapitre 3.2.2 pour plus d’informations sur leur mode de
fonctionnement et leurs avantages).
Les processeurs zIIP (DB2 DRDA) sont les plus utilisés (par environ 50 % des utilisateurs),
suivis des processeurs zAAP (Java), plus rares. Quant aux processeurs IFL (Linux), ils
gardent un caractère « exercice de style », et aucun client (à une notable exception près)
n’a jusqu’ici franchi le pas de la mise en production sur des IFLs.
Au niveau mondial, IBM fait état de références nettement plus flatteuses : Environ 30 %
des clients Mainframe possèdent au moins un IFL (fin 2010). Mais le constructeur ne
précise pas si cet IFL est utilisé, en production, en test. Il existe néanmoins un retard
spécifiquement Français en la matière.
Enfin, on observe une convergence des types de processeurs spécialisés : Les proces-
seurs zAAP disparaissent au profit des zIIP. Ces derniers permettent désormais d’ac-
cueillir indifféremment des traitements DB2 et java.
Architecture Sysplex
L’écrasante majorité des utilisateurs a adopté l’architecture Sysplex en mode « priceplex »,
ceci pour bénéficier de conditions tarifaires intéressantes au niveau de la facturation
logicielle IBM MLC (agrégation PSLC). Cette technique permet en effet de réduire cette
facture d’environ 30 % par rapport à une architecture classique.
Les clients l’ayant mis en œuvre ont constaté une baisse du MLC d’environ 2 % par
simple effet de consolidation. Ce faible pourcentage n’est néanmoins pas à négliger, vu
le volume global de l’enveloppe budgétaire que représente le MLC chez les grands uti-
lisateurs. Cette architecture est donc intéressante sur le plan économique et de la sim-
plification technique qu’elle apporte. Il faut néanmoins être conscient de ses limitations
si on décide de l’adopter.
Infrastructures
Deux fournisseurs d’équipements SAN se partagent le marché : Brocade et Cisco.
A l’inverse de ce qu’on observe sur d’autres plateformes (FcOE dans le monde distribué),
aucune innovation technologique majeure n’est au programme des constructeurs. Seule
l’augmentation des débits (8 Gb/sec actuellement, 16 Gb/sec annoncés) figure au calen-
drier.
Il y a fort à parier qu’à l’instar des évolutions du stockage, celles-ci apparaîtront plus tar-
divement dans le monde mainframe que sur d’autres environnements plus « à la mode ».
Il est également vrai que les architectures actuelles donnent entière satisfaction en
termes de performances, sur un environnement mainframe bénéficiant déjà par nature
d’un fort taux de consolidation.
Protocoles et connectique
La connectivité ESCON nettement en perte de vitesse au profit de FICON reste néan-
moins présente sur certains sites, et utilisée par certains vieux périphériques lents en-
core en service.
PAGE 12
LiVRE BLANC
En matière de protocoles réseau, SNA et les contrôleurs de communications type 3745
ont totalement disparu au profit du protocole TCP/IP et des cartes OSA.
2.1.3 Stockage
Evolutions technologiques
En matière d’évolution technologique, les tendances généralement observées sont les
suivantes :
• Remplacement des disques 3,5 pouces 15 000 tpm par des 2,5 pouces 10 000 tpm,
moins chers pour des performances sensiblement équivalentes.
• Remplacement des disques Fiber Channel par des disques SAS.
• Le stockage hautes performances (SSD) fait son apparition, mais son prix (3 fois
plus élevé que le stockage classique) le relègue pour l’instant à des usages très
spécifiques et marginaux.
• En revanche, apparaissent des disques midrange de grande capacité (600 Go ou
plus) qu’on peut dédier à des usages peu exigeants et qui permettent de réduire le
coût global du stockage.
• Le tiering fait donc son apparition dans le monde Mainframe, mais tous les construc-
teurs s’accordent à dire que les solutions bas de gamme de type SATA ne sont géné-
ralement pas adaptées au stockage primaire Mainframe, plateforme trop exigeante
sur le plan des I/O, (exception faite peut-être de la migration DFHSM). Le stockage
Mainframe reste donc essentiellement du stockage haut de gamme.
A contrario, ces coûts logiciels sont les plus facilement négociables et peuvent consti-
tuer des sources de différences de prix significatives entre les fournisseurs dès lors que
la palette des logiciels utilisée est importante.
La capacité des model 3 devenue au fil du temps bien trop faible au regard des besoins,
avait pour conséquences :
• Un nombre de volumes à gérer atteignant les limites du possible.
• L’augmentation des fichiers multi-volumes et multi-extends, et plus généralement
l’augmentation des incidents opérationnels liés au manque d’espace.
Infrastructures
Oracle (ex Sun/Storagetek) est l’acteur majeur du marché, suivi par IBM. Mais les
Evolutions technologiques
La virtualisation des dérouleurs associée à des caches de grande capacité est connue
depuis plusieurs années et continue d’exister. En outre, la technologie des bandes
virtuelles fait son apparition dans le monde mainframe. Il s’agit en fait de contrôleurs
disques SATA émulant des bandes de capacité variable.
Principaux avantages :
• Coût
• Elimination des problèmes de remplissage des supports physiques qui deviennent
de plus en plus capacitaires. La virtualisation n’en est que plus nécessaire.
• Suppression du ML1 DFHSM.
• Amélioration des temps de sauvegarde.
• Déduplication possible. De l’aveu même de ses plus chauds partisans, cette techno-
logie reste cependant moins intéressante sur le Mainframe que sur d’autres envi-
ronnements, de par la nature des données gérées. En tout cas, une analyse fine
des types de données est indispensable avant de se déterminer. En outre, il ne faut
pas perdre de vue qu’en cas de perte physique de données, la reconstruction des
données peut s’avérer plus problématique que pour un stockage classique, en dépit
des assurances des constructeurs. Il sera donc intéressant de suivre de près les
premières expériences dans ce domaine.
• Gain en espace au sol et en consommation énergétique.
Globalement les nouveaux systèmes quelle que soit la technologie retenue s’avèrent
plus simples à gérer du point de vue de l’utilisateur.
La percée de ces systèmes a été rendue possible grâce à l’évolution des technologies de
réplication à distance synchrones et surtout asynchrones. Ces techniques permettent
désormais de disposer, sur des sites distincts proches ou éloignés, de copies de sau-
vegardes sans l’obligation de transporter physiquement un média d’un site sur l’autre.
Ceci simplifie et fiabilise sensiblement les procédures de PRA. On trouvera ci-après un
schéma décrivant les architectures les plus communément rencontrées en la matière.
PAGE 15
Néanmoins, des systèmes basés sur les classiques supports physiques de type bande
poursuivent leur carrière, associés à des caches de grande capacité et à des dérouleurs
virtuels (ex : IBM, Oracle). Ils permettent d’obtenir des performances équivalentes aux
systèmes à bandes virtuelles. La capacité unitaire des bandes poursuit par ailleurs son
augmentation.
En outre, tous les systèmes proposent des dérouleurs virtuels en nombre suffisant (256),
de telle sorte qu’il devient moins nécessaire de recourir à des produits de mutualisation
des dérouleurs (ex : CA-MIM).
En conclusion, nous constatons que la technologie des bandes virtuelles propose des
innovations intéressantes qui permettent dans de nombreux cas de faire baisser les
coûts de la sauvegarde. Sur ces systèmes, proches de contrôleurs disques de milieu de
gamme, l’émulation des bandes se trouve conservée pour des raisons de compatibilité
avec les traitements existants. C’est la seule raison qui pour l’instant impose l’émulation
des supports bandes d’antan sur des systèmes en fait basés sur du stockage disque.
Pour combien de temps encore ?
Architecture technique
L’architecture la plus fréquemment rencontrée se compose de 2 datacenters en mode
campus (2 sites proches distants de moins de 20 km). Cette architecture permet de dis-
poser de systèmes de réplication synchrone des données entre les 2 sites ; ce qui assure
un très bon niveau de sécurité et de continuité de service.
PAGE 16
LiVRE BLANC
Certains clients disposent également de sites de secours éloignés (ex : 500 km du site
primaire). La réplication des données entre le(s) site(s) primaire(s) et le site de secours
s’effectue alors en mode asynchrone. Ces sites de secours sont en fait des sites de repli
inactifs en marche normale, et utilisables dans le cadre d’un PRA consécutif à la des-
Les évolutions technologiques et économiques ont évidemment un impact sur les choix
d’architecture qui sont faits en la matière, principalement en matière de stockage et
sauvegarde. Citons principalement :
•D ans le cadre d’une architecture primaire composée de 2 sites proches, il était
généralement habituel de répartir les données sur les 2 sites de façon à minimiser
les flux inter-sites et ainsi la bande passante. Dans ce cas, les copies synchrones
des données étaient également réparties à l’inverse sur les 2 sites. On parlait de
copie synchrone croisée (fig 1).
Datacenters
Les sites informatiques hébergeant une entreprise et ses filiales sont majoritaires.
On observe également une part significative d’entreprises mutualisant avec d’autres
leurs centres de calcul. Ceci pose évidemment des problèmes de sécurité, mais retient
l’attention de nombreux acteurs en raison des économies réalisables par la mutualisa-
tion des coûts d’un centre de calcul.
2.1.6 Sécurisation
L’expérience prouve en outre qu’en cas d’incident majeur, les procédures de redémar-
rage ou de secours ne sont pas toujours correctement maîtrisées.
Tous ces facteurs constituent un frein à la mise en œuvre de cette solution, qui ne se
trouve déployée que lorsqu’un impérieux besoin s’en manifeste. En particulier, ce type
d’architecture se rencontre là où des besoins ou conditions business spécifiques sont
présents, par exemple pour un site de réservations en ligne.
L’exigence de disponibilité continue se rencontre dans tous les secteurs d’activité, mais
concerne une minorité d’applications (ex : applications monétiques dans le secteur ban-
caire, logistiques dans le monde industriel, etc.)
Les architectures classiques restent néanmoins majoritaires, et assurent un service de
« haute disponibilité », rendu possible par :
•U ne réduction des pannes matérielles liée aux progrès constatés des 10 dernières
années en matière de fiabilité intrinsèque (MTBF).
•U ne augmentation du nombre des évolutions techniques réalisables dynamiquement
(i.e. : sans interruption de service).
Tout ceci permet une diminution sensible du nombre global d’arrêts pour maintenance
ou panne mineure (de l’ordre de 5 maximum par an).
PRA
Tout d’abord, nous constatons que toutes les entreprises interrogées disposent d’un
PRA, et prennent donc en compte la sécurité de leurs systèmes d’informations face à
des risques majeurs.
Les PRAs ont évidemment largement profité des évolutions technologiques et d’archi-
tecture évoquées en 2.1.6. Ils ont notamment gagné en fiabilité, en performance (RPO/
RTO) et en simplicité.
PAGE 19
Actuellement, la plateforme mainframe est sans doute une des meilleures en ce domaine
(elle sert même de modèle aux autres). Certaines architectures sont mêmes garanties
avec un RPO nul (avec deux sites en mode campus), et un RTO inférieur à une minute.
Contexte général
Pour mémoire, rappelons quelques éléments de contexte. Selon IDC, alors que le mar-
ché du matériel et des systèmes d’exploitation pour Mainframe s’élevait à 8,5 milliards de
dollars en 2009 (dont 3 milliards pour la zone géographique européenne), le logiciel repré-
sentait 24,5 milliards de dollars la même année. L’achat d’un euro de serveur Mainframe
entraîne donc l’achat de trois euros de logiciel environ.
IBM reste très discret sur la ventilation de ses revenus par lignes de produits. Cependant
IDC estimait, toujours en 2009, que le fournisseur contrôlait environ 40 % de ce marché lo-
giciel Mainframe, ce que notre enquête semble confirmer, IBM y arrivant largement en tête.
PAGE 20
LiVRE BLANC
Par ailleurs, ce marché logiciel a profondément évolué durant les années 90 avant de se
stabiliser et ceci pour plusieurs raisons :
Tout ceci s’est traduit d’une part par la disparition d’un grand nombre d’éditeurs, d’autre
part par la création de quelques catalogues très étoffés par les rachats. Aujourd’hui le pay-
sage apparaît largement stabilisé, et solidement structuré autour de quelques ténors.
Nous pouvons distinguer trois catégories de fournisseurs : les trois qui possèdent une
offre très étendue et s’avèrent à peu près incontournables, ceux qui possèdent un cata-
logue conséquent mais plus spécialisé et enfin les acteurs de niche.
• CA possède une position forte dans les domaines de la sécurité et des outils
pour bases de données, du fait de son historique. Cependant, la sécurité reste un
domaine concurrentiel.
•C
ompuware possède par exemple une forte emprise dans le secteur des outils
d’aide au développement – débugging, analyse de trace, analyse de performances,
création de jeux d’essais, manipulation de données, analyse d’incidents, etc. Après
avoir acquis le leadership dans ces domaines il y a déjà plusieurs années, l’éditeur a
su conserver et renforcer cette position, au point de se retrouver un temps presque
dépourvu de concurrents.
• ASG, bien que peu représenté dans notre enquête, possède un catalogue important
dans trois domaines : la supervision avec TMON, l’industrialisation de la production
avec le rachat des produits Cortex et l’aide au développement.
• Axway : règne sur les transferts de fichiers Mainframe. En effet l’entreprise qui pos-
sédait Interpel (Pelican) a racheté CFT, soit les deux seuls produits du marché.
• Infotel : cet éditeur se cantonne au domaine des bases de données, IMS et surtout
DB2, avec des outils d’aide à l’administration et de manipulation. Cet éditeur reste
de plus très franco-français.
PAGE 22
LiVRE BLANC
• Beta systems : éditeur reconnu dans les domaines de l’automatisation de la pro-
duction et de l’output management. Il est étonnant de ne pas le voir apparaître
dans notre enquête, même s’il se trouve traditionnellement plutôt implanté en Alle-
magne, en Suisse et dans les pays nordiques.
Bien qu’ils n’aient pas fait l’objet de cette enquête, nous devons aussi citer les logiciels
techniques associés aux composants d’infrastructure de stockage chez EMC² ou HDS
et de sauvegarde chez Oracle-Sun-Storagetek. Bien entendu présents sur Mainframe,
ces logiciels n’ont cependant qu’un ancrage relatif sur les plates-formes, puisqu’ils dé-
pendent entièrement des choix de matériels de stockage et de sauvegarde.
Notons enfin qu’il reste une population de petits éditeurs spécialisés qui jadis commer-
cialisaient des solutions assez répandues, et vivent désormais sur le parc installé.
Répétons notre avertissement : notre enquête a échoué à faire ressortir les petits édi-
teurs dont nous connaissons pourtant l’existence et l’utilisation des produits. Cela tient
à la façon dont nous avons travaillé, et à la mise en forme de notre questionnaire. Une
prochaine enquête permettra de faire le point sur ces fournisseurs, et de mettre en avant
ceux que nous avons oubliés.
Résultat peu surprenant. D’une part il y eut toujours peu de concurrents sur ce marché car
les produits y exigeaient un haut niveau de fiabilité et se montraient compliqués à dévelop-
per et à maintenir. D’autre part, IBM a littéralement balayé la concurrence en accélérant les
rythmes de ses mises à jour de produits et en investissant dans son propre environnement.
PAGE 23
> Pour les SGBD
IBM a totalement conquis ce domaine au point de ne plus compter qu’une concurrence très
marginale. Il y a 20 ans pourtant il existait plusieurs bases de données sur Mainframe, dont
Adabas, Datacom, IDMS et d’autres. Il ne reste quasiment plus que du DB2 – massivement –
des résidus d’IMS/DB (DL1) et quelques rares utilisateurs d’autres produits. A la fin des
années 80, IBM ne possédait pourtant pas de base de données relationnelle, il n’existait
pas de SQL IBM. Le constructeur a alors choisi de concurrencer Oracle et de se doter d’un
outil réellement compétitif avec DB2. En investissant largement pour développer DB2 sur
plate-forme z mais aussi sur l’ensemble des autres OS, et après des débuts difficile, la base
bien que chère a su conserver un différentiel technique avec des avantages en termes de
fonctionnalités, performances et robustesse. En réussissant ce pari technique, IBM a fait
disparaître la concurrence au fil des ans.
Nous avons été surpris de ne pas voir apparaître IMS/DB dans cette liste. Ce produit reste
utilisé, mais au titre d’un héritage historique, dans des entreprises qui souhaitent éviter les
coûts de portage, ou dans des cas spécifiques où la base hiérarchique se montre fonction-
nellement bien adaptée.
Il subsiste une réelle concurrence dans le domaine des ordonnanceurs, avec de nombreux
acteurs crédibles possédant de bons produits dont certains largement diffusés. Il existe
d’ailleurs d’autres produits non-référencés ici mais assez populaires, comme CA Scheduler
ou Cortex d’ASG, et même des produits moins connus mais déployés.
Dans ce domaine, les deux fournisseurs IBM et CA sont notoirement en concurrence. Top
Secret est très populaire en France alors qu’ACF2 a plus de succès aux États-Unis. CA a
pris des parts de marché à IBM à une époque où RACF ne donnait pas satisfaction à ses
utilisateurs. Depuis IBM a rattrapé son retard, et repris des parts de marché à CA. Les deux
produits sont aujourd’hui techniquement très proches.
Comme pour la supervision z/OS , on constate dans ces trois activités la forte présence de
BMC, au coude à coude avec IBM qui exploite désormais les produits de Candle. Il est assez
surprenant de voir si peu apparaître les outils TMON d’ASG alors qu’ils ont joui d’une large
diffusion il y a quelques années. ASG a probablement souffert de son statut de modeste
éditeur indépendant alors que se multipliaient les vagues de consolidation. De plus, ASG
procède depuis plusieurs années à des séries de rachats qui ont largement étendu son
offre vers les systèmes ouverts d’une part et vers le BSM de l’autre.
1. C A avec la famille des Database Management Solutions for DB2 for z/OS (Platinum,
RC/Migrator-query-update, etc.)
2. IBM avec les DB2 Utilities/Tools et Optim (cité une fois)
3. Infotel avec Master-Util
Encore un marché très actif, dans lequel CA occupe une position de primauté depuis le
rachat de Platinum. IBM s’y est lancé il y a peu, et y reste faiblement représenté du fait de
la jeunesse de ses outils développés en interne. Infotel est un petit acteur franco-français.
BMC dispose d’une suite complète fonctionnellement équivalente à celle de CA, on s’étonne
de ne pas le voir apparaître ici.
PAGE 25
> Pour la supervision Réseaux
Le réseau est un des domaines dans lesquels IBM n’a jamais renoncé à fournir des outils
de supervision, ce qui explique la large représentation de NetView.
On retrouve ici deux des produits majeurs du marché, auxquels il faudrait ajouter par
exemple ceux de CA qui n’apparaissent pas dans notre enquête.
1. IBM avec dans l’ordre de popularité : COBOL, Assembleur, C, Java, FORTRAN, PL/1, QMF
2. Compuware avec Xpediteur et FileAid DB2 (cité une fois)
3. Macro4 avec TraceMaster (cité une fois)
4. Software AG avec Natural (cité une fois)
IBM fournit de façon logique les compilateurs et les langages pour sa plate-forme. On re-
trouve ensuite Compuware, le spécialiste des outils d’aide au développement qui possède
une suite complète. Macro4 a réussi à entrer sur ce marché avec une offre qui se voulait
directement concurrent de celle de Compuware, et ce à une époque où de nombreux clients
éprouvaient de graves difficultés commerciales avec cet éditeur devenu l’acteur quasiment
unique du domaine. Le positionnement opportuniste de Macro4 lui a donc bien réussi, et
a contribué à réinjecter de la concurrence dans ce secteur. Notons aussi qu’IBM recom-
mence à s’y intéresser depuis quelques années, et fournit lui aussi une suite logicielle com-
plète d’aide au développement, qui n’apparait pas dans cette liste, peut-être du fait de son
manque de maturité. La présence de Software AG s’explique par l’existence d’un utilisateur
Adabas dans les entreprises ayant répondu à notre enquête.
1. CA avec Endevor
2. ASG avec CCC
3. IBM avec SCLM (cité une fois)
Sur ce marché, CA est le grand leader historique et dispose de l’un des seuls produits
existants. ASG se fait une place car cet éditeur se positionne très clairement dans les do-
maines de l’industrialisation de la production dont la gestion des configurations constitue
une branche. BMC n’a pas d’offre dans le domaine, et IBM y reste particulièrement faible.
Synthèse : Stabilité
Un grand événement a pourtant menacé il y a quelques années ces équilibres. IBM affirmait
alors que si sa plate-forme souffrait de coûts prohibitifs, ce n’était pas de sa faute, mais de
celle des ISV indélicats qui facturaient beaucoup trop cher leurs outils. IBM a alors annoncé
vouloir développer, par acquisitions ou en interne, des lignes de logiciels dans les domaines
jusqu’ici non-couverts par ses soins pour relancer la concurrence et proposer aux clients
des solutions techniquement valides et financièrement performantes. Ainsi sont apparus
les outils d’aide au développement et d’administration des bases de données, tandis que
le rachat de Candle dotait le constructeur d’une offre dans le domaine de la supervision.
Quelques années plus tard, force est de constater que la pénétration de ces produits reste
faible, et surtout que les BMC, CA et Compuware n’en ont pas pour autant perdu leur place.
Là encore une preuve de la remarquable stabilité des parcs.
PAGE 27
3 MAÎTRISE DES COÛTS SUR PLATE-FORME Z
La cartographie a donc été dressée aux deux chapitres précédents. Nous avons identifié
le rôle du Mainframe, nous avons tracé le portrait technique de son environnement, nous
avons identifié son écosystème de fournisseurs : tous les acteurs sont en place.
Le long chapitre qui suit se divise en trois thèmes majeurs, dont découlent plusieurs fa-
milles de démarches :
Ce découpage et ces thèmes sont le résultat des travaux du groupe, travaux conduits à
partir des expériences des uns et des autres, des pratiques mises en œuvre et de leurs
résultats et des sujets considérés comme importants (pour ne pas dire majeurs) pour la
maitrise des coûts.
Il existe certainement d’autres pratiques, d’autres thèmes. Le sujet reste vaste et d’actua-
lité. Nous ne doutons pas que chacun fasse preuve d’imagination et d’initiative au sein de
son entreprise.
Nous espérons cependant que les thèmes traités ci-dessous vous permettront d’envisager
de nouvelles pistes ou vous conforteront dans votre démarche.
Il importe de bien connaître la palette des licences et contrats d’IBM. Une démarche
volontariste s’impose pour choisir les formules les mieux adaptées.
Rappelons que si chaque logiciel fait l’objet d’un modèle de facturation décrit dans une
licence, les contrats sont des accords tarifaires offrant des marges de négociation plus
importantes mais portant en principe sur plusieurs logiciels. Toutes les entreprises utili-
satrices possèdent des licences, toutes ne négocient pas de contrats. Parmi les contrats,
le plus en vue reste sans aucun doute ESSO (Enterprise Services and Software Options)
que nous allons aborder ici.
IBM a créé au fil des ans une jungle de modèles de licences et de contrats dans laquelle
s’égarent les utilisateurs (comme l’illustre le schéma ci-dessous). Opération dont on
peut soupçonner qu’elle vise à soutirer aux clients le maximum d’argent. Cette pratique
donne une mauvaise image de la plate-forme Mainframe, ce qui risque de pousser les
décideurs en entreprise à s’en séparer pour privilégier des modèles tarifaires plus com-
préhensibles, (notamment les licences dites libératoires du monde distribué, mais at-
tention, les récentes évolutions technologiques dans le monde distribué – virtualisation
en tête - rendent les modèles de licences qui s’y appliquent de plus en plus complexes).
De plus, cette façon de faire impose aux entreprises d’acquérir et de maintenir à niveau
PAGE 28
LiVRE BLANC
les compétences suffisantes pour traiter cette problématique tarifaire et faire vivre ces
contrats. Ce n’est pas toujours le cas : certaines entreprises peinent à développer et en-
tretenir ces compétences. Pourtant, tous les membres du Groupe de Travail s’accordent
pour dire qu’une analyse approfondie reste le seul moyen pour tirer son épingle du jeu.
Néanmoins, tout n’est pas aussi rose que l’on pourrait le croire car cette facturation
dite MLC s’avère très complexe et subtile. Il faut impérativement se l’approprier pour
commencer à en tirer des bénéfices notables. Pour résumer la situation, tous les logi-
ciels évoqués au chapitre précédant et qui ne possèdent pas de concurrents directs (z/
OS, IMS, DB2, …) sont facturés en MLC (Monthly Licence Charge, mode location/mainte-
nance), et plus précisément en xWLC machine par machine (ou par groupe de machines
pour les clients éligibles à l’agrégation Sysplex PSLC). Il existe aussi d’autres types de
facturation à la charge MLC, tels zNALC et SALC, mais moins répandus.
Les autres logiciels, portant sur des fonctions théoriquement ouvertes à la concurrence,
sont facturés selon le modèle OTC (One Time Charge, mode achat/maintenance). Notre
« théoriquement » a son importance, car dans les faits, ce type de facturation se voit sou-
PAGE 29
vent encadré par un contrat global d’entreprise. Le plus connu parmi les clients sondés
est le contrat ESSO.
• La mise en concurrence des produits zOTC devient très délicate voir inutile au sein
d’un ESSO. En général dans cette situation, un produit zOTC IBM se verra remplacer
par un autre produit IBM IPLA du monde distribué alors que la finalité devrait être
de basculer simplement d’un produit z sur un produit concurrent, sans rajouter au
contrat ESSO un produit qui n’est pas forcément le plus adapté au besoin. D’autre
part, il devient alors très difficile de savoir combien coûte exactement un tel produit
dans ce contexte.
• Le plancher bas (Seuil) MLC est difficile à fixer car en le positionnant trop haut l’en-
treprise risque de payer plus que sa charge réelle et en le positionnant trop bas le
taux de remise cité plus haut ne sera pas assez important. La seule chose qu’ap-
porte ce plancher bas est en principe un budget déterminé à l’avance, sauf en cas
de surconsommation non maitrisable.
• Il ne fait aucun doute que les vrais bénéficiaires de cette remise sont surtout les pro-
duits IPLA du monde distribué même si effectivement les tarifs des produits zOTC
dans le cadre d’un ESSO se montrent très agressifs. Toutefois, le nombre de pro-
duits zOTC reste limité comparé à celui des produits MLC.
• Il est difficile de sortir d’ESSO sauf événement exceptionnel car les décideurs pré-
fèrent renégocier des avenants plutôt que de remettre en cause ce contrat par peur
de voir leur facture s’envoler surtout pour les logiciels distribués.
Enfin, constatons tout de même qu’IBM a fait des efforts d’imagination contractuelle
ces dix dernières années sur le Mainframe et en particulier pour de nouveaux logiciels
comme WebSphere. L’avenant IWP peut, pour les clients WebSphere z/OS, s’avérer très
rentable et même concurrencer aisément la version distribuée de ce même logiciel, bien
que ce nouveau « paradigme » ait du mal à passer auprès des décideurs.
3.1.2 S
tratégies à adopter avec les fournisseurs : approche globale ou coup par coup
Les logiciels Mainframe se laissent décomposer en trois catégories : les logiciels mé-
tier ou applicatifs dont nous ne traiterons pas ici, les logiciels système IBM – systèmes
d’exploitation, moniteurs transactionnels et bases de données – dont il a été question
ci-dessus, et enfin les autres logiciels systèmes. Ces derniers peuvent provenir de dif-
férents types d’acteurs : d’IBM lui-même, de grands généralistes, d’acteurs globaux de
moindre importance ou encore d’acteurs de niche. Deux stratégies principales s’offrent
à l’entreprise-cliente dans ses rapports avec ces fournisseurs : la rationalisation du
nombre d’ISV ou la gestion de contrats multiples.
PAGE 30
LiVRE BLANC
A. L’Approche Globale
Première conséquence d’une telle démarche : elle conduit à ne s’adresser qu’aux trois
fournisseurs possédant un vaste catalogue, soit BMC, CA et IBM. Eux seuls se mon-
treront en effet capables de répondre sur une grande proportion des demandes, et de
limiter la taille du complément à apporter. On se coupe ainsi de bon nombre d’autres
éditeurs.
Une raison fréquente pour adopter ce type de démarche : elle constitue un moyen de
se prémunir contre l’augmentation des MIPS/MSU des plates-formes durant quelques
années. En effet, pendant longtemps ce type d’accord constituait la seule situation où
les fournisseurs acceptaient de faire un contrat indépendant de la puissance installée.
Pour l’entreprise, cela signifiait que la croissance de ses plates-formes ne pesait pas
sur ses coûts logiciels durant au moins trois ans, à l’issue desquels avait lieu un nou-
veau cycle de négociations et d’ajustements. Ce type d’accord s’avère particulièrement
intéressant dans des contextes de fusion de SI ou de plates-formes à l’occasion d’opé-
rations de rapprochement d’entités ou de fusions-acquisitions, car on se retrouve alors
avec de nombreuses plates-formes, une rationalisation logicielle à effectuer, et une
croissance de MSU non-maîtrisée puisque la fusion remet en cause l’ancien schéma de
capacity planning, que la croissance de la nouvelle entité n’est pas connue, etc. Ce type
d’accord assure un tunnel de protection contractuelle en attendant que les opérations
redeviennent mieux maîtrisées.
C’est aussi un modèle intéressant pour procéder à des changements de logiciel à l’inté-
rieur d’un catalogue fourni par un même éditeur. En effet, l’approche globale donne sou-
PAGE 31
vent accès à une grande partie du catalogue du fournisseur selon une logique d’échange
de logiciels. Là encore, cela convient bien à une situation de fusions-acquisition, ou pour
changer certains des logiciels installés. Par exemple un contrat avec le fournisseur
donne l’accès à 12 de ses logiciels. Si l’entreprise se dégage de l’un d’entre eux, elle
dispose d’un crédit pour en adopter un autre dans le catalogue. Pour l’éditeur ce principe
permet la fidélisation du client, pour le client, une souplesse et des économies accrues.
Contraintes et limites
Cet accord établi dans la durée ne permet pas l’adaptation « en temps réel » des coûts
logiciels à la situation de l’entreprise. En cas d’optimisations conduisant à une diminu-
tion de la puissance de la plate-forme, le contrat court tout de même jusqu’à sa fin, sans
ajustement, il faut donc prévoir cette situation pendant la phase de négociation, sujet
toujours délicat. Idem en cas d’élimination de logiciels appartenant au panier contrac-
tuel : l’entreprise continue à payer pour des logiciels non-utilisés mais faisant partie de
l’accord. L’effort fourni dans ces deux cas ne porte pas ses fruits avant la fin de la durée
du contrat. Pratique à double tranchant, ce type de contrat protège en période d’incerti-
tude car il fige la situation, mais la réactivité financière s’en trouve diminuée.
L’entreprise se retrouve très étroitement liée à son fournisseur, avec une grande quan-
tité de logiciels structurants venant du même éditeur. Il y a risque d’emprisonnement.
D’où ce corollaire : en concluant ce type de contrat, il importe toujours d’en préparer la
fin, et ce le plus tôt possible. Cette question possède des aspects à la fois contractuels
et techniques.
D’abord sur le plan contractuel, il faut se poser d’avance avec son fournisseur, et ce dès
la signature du contrat, la question de ce qui se passera au jour de la sortie, et négocier
les conditions de revalorisation éventuelle des coûts en fonction de l’évolution des MIPS/
MSU installés. Il faut aussi envisager les alternatives techniques à chaque logiciel, sa-
voir qu’en cas de problème l’appel à la concurrence reste possible. Ensuite, l’entreprise
se posera de nouveau la question de la fin de ce contrat 12 à 18 mois à l’avance. Que faire
? Rester sur ce type d’accord ? Aller voir chez les concurrents ? Il faut préparer cette
échéance et anticiper sur les conséquences d’un changement de choix contractuel et
technique. Si ces contrats ont eu aussi mauvaise réputation par le passé, c’est justement
que les utilisateurs n’anticipaient pas assez sur la fin, avec un gros risque de sortie avec
une note salée. Caricaturalement, avec un contrat de ce type sur trois ans, l’entreprise
passe 18 mois à mettre en place la plate-forme, et les 18 mois suivants à envisager les
moyens d’en sortir si jamais les relations avec le fournisseur se dégradent.
Il faut aussi bien apprécier la durée du contrat. Aujourd’hui, la durée courante est de
trois ans, ce qui constitue un bon rythme de négociations, mais il existe des contrats plus
longs, sur quatre ans, ce qui valorise plus la stabilité. Au-delà de quatre ans, il existe des
risques car le contexte de l’informatique de l’entreprise évolue très vite.
Enfin, dans une situation d’approche globale, il faut se demander si l’accord porte sur
des contrats d’acquisition ou de location de logiciel. Cette question pèse lourd : suis-je
propriétaire d’un logiciel pour lequel je paye une maintenance ou simplement locataire
d’un droit d’usage ? En mode acquisition l’accord porte sur le prix d’achat du paquet
logiciel et sur le taux de maintenance. A la fin du contrat, il y a réévaluation par logiciel
en fonction de l’évolution des MIPS et MSU, et accord sur une mise à jour du tarif. En
mode location, l’acheteur et l’éditeur s’entendent sur un droit d’usage, mais à la fin du
PAGE 32
LiVRE BLANC
contrat, il n’y a plus de logiciels. Dans le cas d’un achat, si l’entreprise décide de se
séparer de son fournisseur, les logiciels restent dans l’entreprise, et il est possible de
continuer à les utiliser sur un mode de maintenance simple, sans révision de puissance,
ou même sans maintenance le temps d’élaborer un plan de désengagement. En mode
Traditionnelle et bien connue, cette approche (dite best of breed) consiste à effectuer
des appels d’offres et des benchmarks par zone fonctionnelle, et à choisir le meilleur
produit au meilleur prix. L’optimisation repose ici sur la mise en concurrence systéma-
tique des solutions du marché et des fournisseurs en fonction du besoin fonctionnel et
du coût. C’est une approche orientée produit plutôt que contrat et qui doit conduire à
choisir la solution qui correspond le mieux au besoin. L’entreprise accepte alors d’avoir
de nombreux fournisseurs, en sachant que les contrats ne sont pas très difficiles à suivre
en environnement z, et en tout cas bien moins complexes que sur plates-formes distri-
buées (qui imposent un suivi du nombre de processeurs, de cœurs, d’hyperviseurs et de
machines virtuelles, etc. et ce sur un parc souvent conséquent).
Avantages
• Bénéficier de la compétition permanente entre les fournisseurs qui les pousse à
adapter leurs prix. Attention cependant à ne pas pratiquer la fausse compétition en
n’achetant toujours que chez le même éditeur, car les concurrents s’en rendent très
vite compte et ne l’oublieront pas le jour où vous aurez besoin d’eux.
• Couverture fonctionnelle des produits la plus adaptée au besoin.
• Possibilité d’adresser tous les fournisseurs : majeurs, intermédiaires, de niche.
• Permet d’adapter le mode contractuel à chaque groupe ou type de logiciel. Dans
une approche globale , on relève d’un mode de licence homogène donc peu précis,
alors qu’au coup par coup on peut demander une licence au MSU, à la partition, ou
sur tout autre modèle optimisé selon l’usage.
• Bénéfice mécanique du désengagement de logiciels en cas de rationalisation : si
l’entreprise cesse d’utiliser un logiciel, elle ne le paye plus.
• Pas de remise en cause globale et violente dans le système d’information en cas de
problème contractuel, technique ou commercial avec un fournisseur. L’entreprise
ne se retrouve pas à devoir changer d’un coup quinze logiciels, mais se trouve plutôt
dans une démarche de renouvellement régulier de sa plate-forme technique. La
mise en place présente moins de complexité que dans un accord global où il arrive
de passer un ou deux ans à mettre en place l’ensemble des logiciels inclus dans le
contrat.
Inconvénients
• Obligation de gérer les relations avec de nombreux fournisseurs
• Leviers de négociation commerciaux moins importants que dans un contrat global.
PAGE 33
L’acheteur d’entreprise préfèrera toujours négocier sur de gros volumes qu’au coup
par coup. Les négociations sont plus techniques que contractuelles.
• Difficulté plus importante à maintenir une cohérence technique, en particulier en ce
qui concerne la cohérence de versions des logiciels avec z/OS et les grands sous-
systèmes. Sur z les entreprises adoptent rapidement les nouvelles versions de sys-
tème d’exploitation et des autres grands composants IBM, ce qui entraîne méca-
niquement des mises à jour de versions des autres logiciels. Avec un seul grand
partenaire, ce suivi se trouve facilité. Avec plusieurs fournisseurs, il faut consentir
un effort de maintien de la plate-forme en cohérence technique plus important, et
rester attentif à la cohérence technique des logiciels entre eux.
• Il arrive que certains éditeurs prennent du retard dans la livraison de nouvelles ver-
sions et mises à jour de leurs logiciels au point de freiner l’entreprise dans ses évo-
lutions. Les grands éditeurs ont généralement les moyens de se maintenir à niveau,
mais un éditeur de niche risque d’avoir plus de difficultés. Il faut donc faire atten-
tion au type d’interaction et d’intégration du logiciel vis-à-vis de z/OS et des grands
sous-systèmes. Plus le logiciel sera techniquement intégré au système, plus il fau-
dra que son fournisseur se montre réactif et en mesure de faire ces évolutions.
• La non-homogénéité du parc logiciel entraine une plus grande difficulté d’intégra-
tion technique et une multiplication des ergonomies. Cela s’avère particulièrement
vrai pour des logiciels d’industrialisation de l’exploitation. Donc on se prive par-
fois de synergies techniques et fonctionnelles à trop diversifier ses fournisseurs.
Par conséquent, dans ce type de démarche, il faut toujours penser à faire de petits
groupes d’applications packagées chez un même éditeur pour obtenir un peu d’ho-
mogénéité fonctionnelle, voire technique.
Ajoutons à titre de conclusion à ce chapitre qu’au-delà du choix entre ces deux straté-
gies, il existe des bonnes pratiques courantes à respecter :
Autre bonne pratique malheureusement trop rare : il faudrait régulièrement tester des
logiciels et avoir une démarche permanente de création de Proof-of-concept, même hors
des périodes de fin de contrat ou de renouvellement de produits. Maintenir une bonne
connaissance du marché sur quelques grands composants en faisant des essais et des
tests réguliers évite de se retrouver dépourvu le jour du renouvellement venu, aide à
détecter des acteurs émergents, ou au contraire des produits en perte de vitesse. De fait,
cette attitude devient rare, et c’est dommage à la fois pour la démarche contractuelle et
pour la démarche technique.
En introduction, rappelons que le logiciel, bien plus que le matériel, laisse la part belle à
la négociation du fait de son modèle économique. En effet, une fois développé, un logiciel
ne coûte plus rien à fabriquer. Ses coûts de maintenance et d’évolution se trouvent pris
en charge par le parc installé, ce qui signifie que tout nouveau client apporte du revenu
additionnel au fournisseur. Il est donc largement possible de négocier, et même d’obte-
nir du logiciel gratuitement, l’éditeur se rémunérant sur la maintenance.
Rappelons ensuite une évidence : certaines charges ne doivent pas fonctionner sur en-
vironnement z. Les traitements qui consomment beaucoup de cycles CPU en particu-
lier. Par le passé, certaines entreprises faisaient fonctionner des applications de calcul
scientifique et technique (HPC) sur Mainframe. Le cycle CPU y coûtant cher, cela n’est
pas une bonne idée.
Faut-il acheter ou louer ? Concernant les logiciels, la tendance générale porte à consi-
dérer l’acquisition comme plus intéressante du fait des rythmes de renouvellement peu
rapides dans le domaine mainframe. Il s’agit d’usages qui durent dans le temps et où le
mode locatif perd de son intérêt du fait de son coût dans la durée. Même en mode achat,
il faudra vérifier que le contrat porte sur un droit d’usage perpétuel, y compris en cas
d’arrêt de maintenance. Cela dépend des contrats. Certains éditeurs considèrent qu’à
défaut du paiement de la maintenance, le doit d’usage disparaît.
Il faut faire preuve d’inventivité avec nos fournisseurs, d’où l’intérêt de travailler dans
la durée, et d’éviter de faire des ‘coups’ car cela ne constitue pas une position durable.
Sachons innover sur les modalités de licence et de facturation, explorer d’autres pistes
que le grand classique de la facturation au MSU installé sur la plate-forme, pénalisante
du fait du droit d’entrée élevé, mais aussi parce que l’évolution des MSU de la plate-
forme peut n’avoir aucun lien avec l’usage de ce logiciel.
PAGE 35
Nous pouvons distinguer quatre modèles :
1. L
es licences à l’usage ont été amenées par IBM avec un principe de facturation à la
consommation : on mesure l’activité du composant et la facture est proportionnelle à
cette activité. Au départ, l’entreprise s’engage pour un volume de MSU ou de MIPS, qui
constitue un sous ensemble des MSU de la plate-forme établi en estimant ce que peut
consommer le logiciel. Ensuite l’éditeur et le client se mettent d’accord sur les moda-
lités de mesure de l’usage réel : que s’agit-il de mesurer, à quel moment, de quelle
façon, à quelle fréquence ? Dans certains cas, le logiciel embarque son propre outil
de mesure. Parfois les possibilités de mesure de l’activité de certains composants
manquent techniquement. Ce modèle présente l’avantage d’éviter le paiement d’un
ticket d’entrée correspondant à la globalité des MIPS présents sur la plate-forme.
Cela évite, lors du rachat d’une entreprise, de devoir repayer sur la base de la capacité
globale. Lors de son apparition, ce mode de facturation a suscité beaucoup d’espoirs,
mais n’a pas totalement abouti aux résultats escomptés. Mode de facturation pratiqué
par exemple par Compuware pour les produits de la gamme Development Tools.
2. E
n l’absence d’outils de mesure, pour des logiciels techniques transversaux par
exemple, on pratique l’accord contractuel. Dans le cas d’un outil de développement
par exemple : sur une plate-forme de 20 000 MIPS, si l’entreprise estime son environ-
nement de développement à 2 000 MIPS, elle proposera une facturation sur ces 2 000
MIPS. On parle alors de cantonnement contractuel. Ce modèle s’applique bien à des
fonctions ou activités isolables, mais devient source de polémiques pour des fonctions
plus intégrées, plus noyées dans la masse de la plate-forme. Dans le cas du dévelop-
pement, mesurer la capacité des partitions dédiées n’est pas compliqué, mais dans
le cas d’une base de données associée à un applicatif donné qui n’occupe que 5 % des
capacités de la plate-forme, comment déterminer l’usage de ladite base de données ?
Il faut alors trouver des méthodes d’évaluation. Exemples : activités de développe-
ment et contextes transitoires de fusion-regroupement.
3. U
ne autre méthode consiste à effectuer du partitionnement : isoler les fonctions pour
éviter la globalisation des coûts. Un applicatif installé sur une partition isolée ne sera
facturé qu’au prorata de cette partition. Cette solution très pratique fonctionne beau-
coup mieux pour des applications d’entreprise que pour des logiciels techniques par
nature plus transversaux. C’est aussi une technique appréciée en cas de fusions de
SI pour éviter de payer ses licences sur la base de la globalité de la plate-forme. Cas
typique des progiciels applicatifs.
4. L
a dernière piste, aujourd’hui très peu utilisée, mais qu’il faut explorer : parvenir à
trouver des modèles de facturation basés sur des unités d’œuvre métier ou business
plutôt que sur des indicateurs techniques purement informatiques. Cette démarche
reste peu familière des utilisateurs, qui n’y pensent pas au cours de leurs négociations.
Par exemple pour un logiciel de sécurité, il s’agit d’établir une facturation à l’utilisa-
teur, et non pas au MIPS. De ce fait, si demain le nombre des utilisateurs augmente, la
facture fera de même de façon tout à fait légitime puisque le but est bien de protéger
l’utilisateur. Mais si il se produit une augmentation technique des MIPS, il n’y aura pas
d’augmentation car le service rendu ne changera pas. La difficulté consiste à trouver
l’unité d’œuvre associée à l’usage du produit ou à l’activité métier qui en découle,
ainsi que le moyen de mesurer, de rendre traçable et auditable cette unité. Il faut se
montrer imaginatif, créatif. Il s’agit de zones de discussion et de négociation avec les
PAGE 36
LiVRE BLANC
fournisseurs encore assez peu utilisées, car peu ancrées dans la culture traditionnelle
des informaticiens. Mais comme les responsables de Production se soucient de plus
en plus de l’impact métier de leur activité, ce type d’accord se trouve à l’ordre du jour.
On trouve à titre d’exemple quelques logiciels techniques facturés au nombre d’utili-
Généralités
En ce qui concerne leur facturation, les logiciels z/OS se répartissent en deux
grandes familles.
• Les logiciels investis dits zOTC (One Time Charge) que nous n’aborderons pas
plus en détail ici. Seule chose importante à retenir : bien négocier dès le départ
l’achat du logiciel en fonction des besoins réels de l’entreprise car ce type de
produit est généralement éligible au sub-capacity, ce qui signifie que l’entreprise
peut investir uniquement à proportion de la consommation réelle, et non de la
capacité du serveur.
• Les logiciels loués, sur la base de la facturation MLC (Monthly Licence Charge).
La plupart de ces logiciels sont éligibles à un mode de tarification à l’usage VWLC
(Variable Workload Licence Charge).
• Il existe également des produits loués à coût fixe (on parle de FLAT MLC). Ces
produits représentent en général de 3 à 5 % du montant de la facture totale de
l’entreprise utilisatrice, nous n’en dirons pas d’avantage à leur sujet.
Dans tout ce qui suit, nous nous intéresserons exclusivement aux produits éli-
gibles au VWLC, et qui constituent l’essentiel de la dépense logicielle.
Pour chaque logiciel de ce type, le montant à payer est calculé en fonction de l’acti-
vité des partitions sur lesquelles il fonctionne. Le système z/OS enregistre en per-
manence des informations de métrologie concernant la partition dans laquelle le
logiciel s’exécute, notamment :
• la consommation CPU (MIPS) à intervalles de temps définis qui peut servir au
capacity planning.
• la consommation MSU 4 heures (Millions of Service Unit 4H, aussi écrit MSU 4H)
qui sert de base à la facturation.
Concrètement, un programme qui, en 1990, mettait une heure à s’exécuter sur une
machine de l’époque s’exécutera peut-être en 5 minutes sur un z196 de dernière
génération. Pourtant, il consommera exactement le même nombre de MSU sur
ces 2 machines.
Le ratio MIPS/MSU évolue à chaque nouvelle génération de matériels pour main-
PAGE 37
tenir cette mesure stable dans le temps. Elle est utilisée pour déterminer la puis-
sance consommée et facturable.
Mode de calcul
Pour chaque logiciel VWLC, on considère donc sur chaque serveur l’ensemble des
partitions sur lequel il fonctionne.
La facture s’établit sur la valeur maximum atteinte dans le mois par la somme des
R4H des différentes partitions hébergeant le logiciel.
N.B. : Il s’agit du maximum de la somme des R4Hs, et non pas de la somme des maximums atteints
sur chaque LPAR, ce qui s’avérerait beaucoup plus désavantageux pour le client.
Dans ce cas, la valeur retenue est 900 MSU (et non pas 970), ce qui correspond au
maximum atteint par l’ensemble des partitions en période 3. Cette approche cor-
respond à la courbe verte dans le graphe ci-dessus (ensemble). Il y aura donc bien
plusieurs pointes en fonction du logiciel concerné
Cette opération est réalisée pour chaque serveur physique. Ensuite, les valeurs
PAGE 38
LiVRE BLANC
obtenues servent à établir une facture par serveur, ou en cas d’agrégation PSLC,
leur cumul sert à déterminer la base de facturation du logiciel.
Remarques
Comme a priori tous les logiciels ne sont pas installés sur toutes les partitions, il
convient de suivre l’évolution du max de la somme des R4Hs sur plusieurs groupes
de partitions.
Il faut porter une très grande attention à la localisation des logiciels et il peut donc
être intéressant de concentrer certains logiciels sur un petit nombre de partitions.
Mais ceci risque de s’avérer antinomique d’une approche Sysplex et des objectifs
de disponibilité continue qui en découlent. Là encore, les priorités de l’entreprise
dicteront les choix.
Notons que les seuils haut et bas de chacune des tranches (en MSUs) sont com-
muns à tous les produits VWLC. Les prix unitaires en revanche varient d’un produit
à l’autre. La première tanche est forfaitaire, que l’utilisateur possède 1, 2 ou 3
MSU, il paye toujours 4 146 € comme ticket d’entrée.
Métrologie
Tout ce qui précède montre clairement la nécessité de disposer d’une métrologie
des consommations CPU des partitions et des machines physiques, ainsi que de
l’évolution des R4Hs pertinents en fonction de la répartition des produits sur les
différentes partitions.
On voit donc à la lumière de ce qui précède que les pointes de charge exercent une
influence directe sur la facture logicielle (coûts de fonctionnement), mais aussi
sur le dimensionnement des serveurs achetés (investissements). Il paraît donc
intéressant à double titre de les gommer autant que faire se peut.
Nous pensons qu’il faut néanmoins y recourir marginalement et dans les cas les
plus flagrants.
> Autant une pointe de charge liée à l’activité Batch peut se réduire par des outils
simples et rudimentaires, autant des outils plus sophistiqués seront indiqués si
cette pointe découle de l’activité TP.
On décrira ici les principaux systèmes et outils existants, du plus simple au plus
évolué. Ils sont au nombre de 3 :
• Le softcapping (DC : Defined Capacity) : Agit sur une partition
• Le Group Capping Limit (GCL): Agit sur un groupe de partitions
•L e produit Autosoftcapping (ASC) : Agit sur un groupe de partitions et de
serveurs.
PAGE 41
Le soft capping
Depuis 2004, il est possible de limiter à une valeur arbitrairement choisie la
consommation lissée sur 4 heures de toute partition. Une nouvelle métrique est
ainsi prise en compte dans le calcul de la facturation WLC après activation du soft
capping. Il s’agit du « Defined Capacity » ou « DC ». Cette valeur, exprimée en
MSU, est positionnée via la console HMC au niveau de la partition. La ligne bleue
représente le DC dans le graphe ci-dessous.
Il indique la limite de facturation en « MSU » qu’on souhaite ne pas dépasser pour
la partition.
La somme des DC des partitions d’une machine représente la limite de facturation
en MSU de la machine.
L’outil permet aussi de gérer des profils d’activité différents en fonction d’une
période (fin de mois, chaque mardi, etc…) et ainsi d’adapter les possibilités de
softcapping d’une partition au contexte.
AutoSoftCapping permet :
-D ’optimiser la répartition des ressources « MSU » entre les partitions. La
limite introduite par le soft capping standard devient ici variable en fonction
des besoins de la partition. Elle devient ainsi beaucoup moins pénalisante que
la limite fixe introduite par le soft capping de base. Avec AutoSoftCapping,
lorsqu’une partition n’atteint pas le plafond auquel elle a droit, elle autorise
les autres partitions à utiliser le quota de « MSU » dont elle n’a pas besoin.
-D e maîtriser la facturation. La somme des « Defined Capacity » est en
permanence contrôlée par AutoSoftCapping. Ceci permet de la maintenir à
un niveau inférieur au niveau nécessaire avec du soft capping simple, tout en
obtenant de meilleures performances.
-D ’avoir une vision simple et claire, en temps réel, du comportement des
partitions et du niveau de facturation, grâce à un « reporting » à base de
graphes et de tableaux simples, compréhensibles par tous, introduisant un
langage transversal à l’entreprise.
Tout le problème consiste donc à piloter le GCL de façon à faire baisser au maximum
la facture, sans pénaliser les enjeux métiers de l’entreprise.
Une fois ces conditions remplies, la manière la plus efficace d’utiliser le Group
Capping consiste le plus souvent à définir un capping global pour l’ensemble des
partitions du serveur.
Le soft capping sur des partitions spécifiques devient dans ces conditions sans
intérêt (sauf exception, par exemple quand il s’agit de respecter certaines
obligations contractuelles vis à vis de certains éditeurs de logiciels, IBM y compris).
Il apporte une rigidité supplémentaire généralement contre-productive.
On peut par exemple démarrer la mise en œuvre durant une période d’activité
normale, à une valeur égale à la pointe de charge mensuelle habituelle, puis
baisser progressivement par palier de 5 MSUs.
Tel qu’il existe le GCL manque certes de souplesse et de dynamisme, mais possède
en l’état des fonctionnalités intéressantes. Une mise en œuvre basique moyennant
les quelques précautions décrites ci-dessus permet sans risques de faire un gain
minimal d’environ 5 % en MSU (voire plus en fonction de la situation initiale).
Cet outil démontre la possibilité de faire baisser la facture MLC, certes dans
des proportions assez faibles (mais non négligeables pour autant), de manière
totalement indolore.
C’est aussi un moyen simple et sans surcoût de se familiariser avec ces techniques.
On peut ensuite évoluer vers des outils plus sophistiqués, mais payants, si des
études complémentaires démontrent la rentabilité d’une telle démarche.
Les gains obtenus avec ASC dépassent ceux réalisés avec GCL dans un contexte
identique et peuvent atteindre environ 12 à 15 % de MSUs.
Pour le mode sans contrainte, réalisable uniquement avec ASC, vous trouverez ci-
dessous un exemple de mise en œuvre.
En paramétrant dans l’outil des seuils de softcapping mini à 2 000 MSUs et maxi à
(1) Les niveaux de consommation (IMSU) ne sont pas modifiés. Le R4H reste donc inchangé.
(2) Avec la mise en œuvre du DC, certaines partitions seront cappées (DC < R4H). Mais leur niveau de
consommation (IMSU) restant inférieur au DC, le capping n’aura pas d’impact (capping sans contrainte).
(3) Avec la variation à la baisse du DC sur la période la plus élevée du R4H, le niveau de facturation descendra
à 2 545 MSUs. Ce qui correspond à la tranche horaire de 11h00. Cela représente une diminution de 209
MSU, soit - 7,5 % sur le niveau de facturation.
Quel que soit l’outil utilisé, la mise en œuvre du soft capping nécessite une ana-
lyse approfondie, une concertation avec ceux qui administrent les environnements
(technique, de recette et de production), et enfin un engagement et une volonté
forte de l’entreprise partagés par tous.
PAGE 47
Grâce à des outils de simulation disponibles avec ASC, il est possible d’exécuter
des scénarios de mise en œuvre de softcapping sur une période antérieure, d’affi-
ner le paramétrage des partitions et de la machine, d’identifier les impacts sur le
fonctionnement des partitions, et enfin de valoriser des économies réalistes de
MSU sur la facturation des logiciels MLC.
Ces outils permettent une mise en œuvre rapide et maîtrisée du soft capping.
Enfin, de tels outils sont obligatoires pour maitriser ses niveaux de consommation,
et respecter les prévisions ainsi que les engagements contractuels pris auprès de
certains fournisseurs majeurs.
Avec ASC et une gestion optimisée, il est possible de mettre à disposition des
moteurs supplémentaires tout en limitant et maitrisant son niveau de facturation
logicielle. L’utilisation des moteurs dormants crée du white space (ou réserve de
capacité) utilisé afin de bonifier les performances… tant que le seuil de R4H n’est
pas atteint. Ceci peut amener une modification des profils d’activité tant au niveau
du TP que du batch, et avoir des répercussions positives sur le profil d’activité et le
rendement de la machine.
Le graphe ci-dessous représente les résultats obtenus avec 2 serveurs z10 710
(soit 2 x 875 MSUs) sur lesquels 1 moteur supplémentaire a été activé. Le niveau
de soft capping, maitrisé par ASC, ayant progressé tous les mois conformément au
capacity planning.
PAGE 48
LiVRE BLANC
MAINFRAME : Maîtrise des coûts en environnement Mainframe
(1) Les gains réalisés sont quantifiables par la différence entre la consommation prévue sans ASC
(i.e. La capacité de la machine sans utilisation du softcapping) et la consommation retenue,
établie par SCRT dans le cadre du softcapping.
(2) Le cumul des gains réalisés permet de quantifier sur l’année le nombre de MSUs économisés
par l’utilisation du softcapping et d’ASC.
(3) La facturation liée à la consommation CPU du mois M sera réglée à M+2. Dans ce cas, la
consommation CPU relevée pour Novembre sera réglée en Janvier suivant.
(4) Upgrade (Ajout d’un processeur sur chacune des deux machines) projeté en Novembre
Voici un exemple d’analyse d’une facture mensuelle VWLC pour deux z10 717 agré-
gés en Sysplex :
PAGE 51
Si on ne considère que la pointe de la machine dans son ensemble, soit un R4H à
2 197 MSUs, on risque de ne pas s’intéresser aux logiciels tels qu’IMS qui ne sont
présents que sur quelques partitions. Pourtant, dans notre exemple, nous consta-
tons qu’IMS, avec un R4H à 1 473 MSUs, représente 27 % de la facture globale, soit
plus que z/OS dont le R4H s’établit à 2 197 MSUs et qui représente 24 % de cette
facture.
Suite à cette analyse, voici un ensemble d’actions mises en œuvre afin de faire
baisser la facture sans impacter la consommation.
• Le regroupement des IMS et CICS sur quelques partitions fait baisser la pointe
R4H pour ces produits.
• L’arrêt des CICS ou des IMS la nuit sur les partitions de développement et de pré-
production fait passer la pointe R4H de nuit (profil d’activité Batch) à une pointe
moins forte de jour correspondant au profil d’activité TP.
• L’organisation du planning de montée de niveau des produits, en choisissant soi-
gneusement l’ordre et les dates de migration des différentes partitions, permet
de réaliser quelques économies compte-tenu des règles de facturation du SVC.
En effet, pendant la durée du SVC, le client paiera seulement la consommation
la plus élevée des deux versions au tarif de la nouvelle version. Prenons un cas
d’école pour une montée de niveau IMS V9 à IMS V10. Avant la montée de ni-
veau, le client paie 1 000 MSUs d’IMS V9 au tarif IMS V9 avec plusieurs partitions
contributrices. La migration se fait partition par partition. Au début de la montée
de niveau, le client aura 900 MSUs en IMS V9 et 100 MSUs en IMS V10. Il paiera
alors 900 MSUs au tarif IMS V10. En milieu de migration, il aura 600 MSUs en IMS
V9 et 400 MSUs en IMS V10, il paiera alors 600 MSUs au tarif IMS V10. En fin de
migration, il aura 100 MSUs en IMS V9 et 900 MSUs en IMS V10, il paiera alors
900 MSUs au tarif IMS V10.
• Etudier et choisir le type de tarification en fonction des logiciels utilisés. La tari-
fication zNALC permet, pour les logiciels Websphere DB2 , de diminuer globale-
ment le tarif. La tarification IWP, pour les logiciels comme Websphere, permet de
soustraire la consommation de celui-ci des partitions sur lesquelles il est actif.
Ceci évite de surfacturer les autres logiciels comme IMS ou CICS dans le cas où
leur pointe de consommation se produit de jour pendant le TP.
• Dans le cadre d’un Sysplex, il est aussi possible de spécialiser une (ou des)
partition(s) pour le TP avec les moniteurs associés et une (ou des) partition(s)
pour le Batch. Ainsi les MSU Batch ne viennent plus augmenter les MSU IMS,
CICS, MQ et Websphere qui ne sont actifs que sur la(les) partition(s) TP.
De la plus simple à la plus extrême, vous trouverez ci-dessous les différentes démarches
mises en œuvre ainsi que les objectifs associés. Bien que ces méthodes se généralisent,
elles restent porteuses de transformations importantes aux niveaux technique, écono-
mique, et humain.
Pour la partie matérielle, les économies varient suivant le niveau de mutualisation. L’en-
treprise pourra conserver une infrastructure dédiée, mais l’acquisition en sera généra-
PAGE 53
lement négociée par l’hébergeur. Le client réalisera des économies complémentaires
sur ses coûts de fonctionnement (énergie, bâtiment, etc.) en raison de l’absence de ma-
chines dans ses murs, et de la suppression de son ou ses datacenters.
Si cette solution semble intéressante, elle impose tout de même de prendre en compte
quelques points structurants. Le plus significatif reste la perte d’autonomie. Le client n’est
plus référencé chez les fournisseurs en tant que client direct (support, facturation, etc.),
et cette transition n’est pas toujours simple à gérer.
Pour garantir les économies matérielles et logicielles, il sera nécessaire (voire indis-
pensable) de synchroniser ses évolutions techniques avec celles des autres clients de
l’hébergeur. L’hébergeur a un rôle important et même fondamental dans cette synchro-
nisation. Plus il y a de clients, et plus la problématique gagnera en complexité (montée
de version en simultané, utilisation des même produits, etc.). Il n’est pas toujours facile
d’être un « petit » client dans ce contexte. En cas d’écart important entre les clients, les
économies risquent d’être inférieures aux prévisions. La situation extrême consiste à
se voir imposer un choix technique pour des raisons de coûts financiers, et il peut être
difficile de supporter l’ensemble des coûts induits par un choix spécifique.
La première étape peut s’effectuer sans mutualisation de serveurs. Il s’agit d’une simple
consolidation de datacenters, avec transfert des serveurs sur le(s) site(s) cible(s). Les
économies se réalisent sur les coûts de fonctionnement des datacenters, ainsi que sur
les coûts immobiliers. En revanche, en l’absence de mutualisation des serveurs, il n’y
aura pas de gain sur la partie logicielle (maintien de facturations séparées), sauf à mon-
ter un priceplex regroupant les différents serveurs, (cf ci-dessous).
Enfin, dans une configuration multiserveurs, il faudra disposer d’un Sysplex éligible à la
tarification PSLC. Si cela n’est pas obtenu naturellement à partir des différents Sysplex
et de l’activité des partitions, il faudra envisager la construction d’un Sysplex commu-
nément appelé « Sysplex de facturation (ou priceplex) ». Précisons que cette opération
borne strictement les écarts matériels et logiciels, et n’est généralement pas triviale à
mettre en œuvre. La mise en œuvre d’un Sysplex de facturation a des impacts en termes
d’architecture, d’organisation et d’exploitation, et induit une charge de mise en œuvre
conséquente.
Consolidation à l’extrême
Nous avons vu dans les étapes précédentes que la mutualisation de serveurs nécessitait
la présence d’un Sysplex éligible à la tarification PSLC sur les différents serveurs pris en
compte dans cette tarification.
Avec l’augmentation des capacités des serveurs (env. 32 000 MIPS pour un z10, env.
53 000 MIPS pour un z196), une solution mono-serveur permet de s’affranchir des
contraintes d’éligibilité à la tarification PSLC. Celle-ci étant acquise d’office dans une
telle configuration, plus besoin de priceplex.
Cette solution mono serveur profite pleinement des effets de masse, surtout si les
pointes de charge des différentes partitions, réparties initialement sur plusieurs ser-
veurs, ne se produisent pas au même moment mais se retrouvent étalées. Le nombre de
MSUs facturé sera alors de facto inférieur à la configuration multi serveurs.
Par contre, il faut prendre en compte la perte de puissance engendrée par le nombre
croissant de moteurs au sein d’un même serveur (facteur de couplage). A besoin de
puissance identique, il faudra prévoir plus de moteurs dans une configuration mono ser-
veur que dans une configuration multi serveurs.
Enfin, ce type de configuration n’est envisageable que si elle répond aux exigences de
continuité de service (temps de redémarrage d’un serveur de backup et de bascule de
l’activité sur celui-ci). Il faut notamment préciser qu’une telle configuration est incom-
patible avec des exigences de disponibilité continue. La réponse ne peut être alors qu’un
Sysplex multiserveurs avec partage de données et partage de charge, complété éven-
tuellement par l’option GDPS ou un dispositif similaire.
PAGE 55
Il faut aussi prendre en considération les risques que présente le fait de choisir une
configuration qui va au plus près des limites des possibilités du système par son nombre
de moteurs et sa puissance. Peu courantes, ces configurations sont susceptibles de
générer quelques dysfonctionnements (en effet de telles configurations exceptionnelles
mettent en jeu des portions de code spécifique et peu sollicitées). Dans ce cas, les
corrections peuvent être aussi plus longues à obtenir en cas de problèmes.
Convergence de plates-formes
Après la consolidation de datacenters et la mutualisation de serveurs pour héberger plu-
sieurs systèmes d’information, l’étape suivante concerne la convergence même de ces
systèmes d’information. Cette convergence est rendue possible par les fusions d’entités
ayant les mêmes profils d’activité. Les cas sont fréquents dans le domaine bancaire,
mais ils existent aussi dans le monde de l’industrie.
La convergence peut se faire par le choix d’un système d’information cible et le trans-
fert des données et des utilisateurs vers ce système. Cette phase permet d’harmoniser,
d’épurer et de limiter le nombre de logiciels. Elle permet de bénéficier pleinement de
l’effet de masse. Elle facilite la mise en œuvre d’un Sysplex standard et éligible, de facto,
à l’agrégation PSLC.
Démarrés en 2007, les travaux réalisés sur les 5 années écoulées ont permis l’évolution
suivante :
- 5 datacenters
- 8 serveurs
- 6 systèmes d’information
- 53 partitions
- Puissance unitaire des serveurs : de 568 MIPS à 7 500 MIPS
- Puissance totale : 24 138 MIPS
- 1 datacenter
- 1 serveur actif avec 1 serveur de backup
- 2 systèmes d’information (+ 1 SI en hébergement)
- 30 partitions
- Puissance unitaire des serveurs : env. 30 000 MIPS
- Puissance totale : env. 30 000 MIPS
PAGE 57
Dans un premier temps, TCP/IP a changé la donne, au point d’avoir depuis supplanté le
réseau SNA. Ainsi, les échanges entre le Mainframe et le monde distribué devinrent plus
naturels, ce qui se traduisit par l’apparition des applications mixtes, avec notamment la
possibilité d’accéder depuis le réseau aux données DB2 via DRDA.
Ensuite, de nouveaux middlewares sont venus compléter les moniteurs traditionnels tels
qu’IMS et CICS. Le serveur d’application WebSphere reste le plus célèbre, et a ouvert au
Mainframe la porte des technologies Java et plus récemment celles de SOA, de XML et
du Web 2.0.
Malgré tout, le Mainframe garde encore son image de dinosaure. Le frein au dévelop-
pement de la plate-forme n’est pas intrinsèquement technique, mais plutôt financier.
En effet, ces nouvelles technologies consomment beaucoup plus de CPU que les envi-
ronnements dits Legacy. Cette augmentation est principalement due à l’utilisation du
langage Java, mais aussi du langage C/C++, couramment privilégié par les fournisseurs
pour développer leurs logiciels en lieu et place de l’assembleur. La dispersion des clients
Mainframe à travers le réseau s’avère aussi plus délicate à gérer que les simples termi-
naux 3270 des années 80.
Pour limiter « la casse », IBM a fait preuve d’imagination en sortant dans les années
2000 des processeurs spécialisés dans le traitement d’une partie de ces nouveaux types
de traitements. D’un point de vue général, ces processeurs ne constituent en fait qu’une
pratique commerciale inventive (et pas une prouesse technologique, il s’agit en fait de
processeurs z au microcode modifié), même si techniquement seul le dispatcher MVS
est capable de ce genre de gymnastique :
PAGE 58
LiVRE BLANC
Sans ces processeurs dont le TCA a été réduit par 4 environ par rapport aux proces-
seurs standards, il n’aurait pas été financièrement envisageable d’héberger de telles
nouvelles applications (DRDA, Web, …) sur Mainframe. Mais le plus important concerne
la facturation à l’usage des logiciels. Ces processeurs sont exonérés de « taxe » MLC ce
Néanmoins, l’impact financier de ces nouvelles applications reste visible. C’est pourquoi
IBM continue sur sa lancée et a sorti depuis l’arrivée du z196 deux nouvelles options
intéressantes :
• Techniquement, il est maintenant possible de consolider l’ensemble des workloads
(Java, DB2, …) sur les zIIPs grâce au zAAP on zIIP.
• Commercialement, un avenant AWLC appelé IWP permet de réduire considérable-
ment l’impact MLC de ces applications. Ce nouveau mécanisme SCRT autorise à
déduire la consommation engendrée par WebSphere sur les moniteurs classiques
IMS et CICS. Il s’agit d’une véritable avancée qui devrait permettre une extension de
l’emploi de ce serveur d’application sur Mainframe, environnement qui offre tou-
jours la qualité de service la plus évoluée ainsi que des performances très appré-
ciables surtout lorsque le serveur Websphere se trouve hébergé dans la même par-
tition que les données et moniteurs Legacy.
Côté logiciel, DB2 v10 offre de nouvelles perspectives grâce aux bases de données XML.
En effet, les requêtes seront alors traitées par les APIs XML natives à présent incluses
dans le noyau MVS, ce qui qui en plus d’améliorer les performances de 30 % déporte la
consommation sur zIIP.
La démarche qualité tend à perdre de son importance depuis un certain nombre d’an-
nées, ceci pour des raisons diverses telles que perte de compétences des équipes, com-
pressions de personnel, prépondérance de la rapidité de mise en œuvre de projets à
calendriers contraints, etc, etc, etc ... Cette situation est assez paradoxale, car la baisse
constante de la qualité des développements, pour ne citer qu’elle, rendrait une telle
démarche plus que jamais indispensable actuellement.
PAGE 59
Néanmoins, on préfère souvent réaliser des investissements (matériels et logiciels) de
croissance, qui de surcroît grèvent les budgets de fonctionnement, plutôt que d’optimi-
ser l’existant.
Une démarche qualité bien conduite répond à ce double objectif, mais elle ne va pas pour
autant de soi aux yeux des décideurs… L’idée vient donc naturellement de se faire ac-
compagner par une société spécialisée qui possède une solide expérience et de solides
références en la matière.
Principe de la démarche
Après une première campagne de mesures et d’analyses menées in situ par le presta-
taire, celui-ci se fait une idée précise des potentialités de gain qu’il a décelées chez le
client. Il se trouve alors en mesure de présenter une offre commerciale.
Après accord entre les deux parties, le prestataire mènera une mission de quelques
mois chez le client, et proposera un certain nombre d’optimisations. Le client aura alors
la liberté d’accepter ou de refuser ces propositions, en fonction du bénéfice escompté,
du risque induit, de la complexité de mise en œuvre ou de tout autre critère d’apprécia-
tion. Il est ensuite de la responsabilité du client de mettre en œuvre les optimisations
proposées. De manière annexe, le prestataire fournit si nécessaire les outils de mise en
œuvre et son assistance.
Le prestataire propose des optimisations tant sur le socle technique de base (sys-
tème d’exploitation et composants majeurs tels que DB2, IMS, CICS, Webs-
phere, DFHSM, etc.) que sur le parc applicatif. Les optimisations relatives au
parc applicatif sont généralement majoritaires, et le prestataire s’attache autant
que possible à ne proposer que des optimisations « faciles » à mettre en œuvre (i.e. :
n’induisant pas de profondes modifications du code applicatif). Il sait parfaitement que
de telles optimisations auraient toutes les chances d’être refusées du fait de leur risque
et de leur charge de mise en œuvre prohibitifs.
Montage du projet
La première difficulté rencontrée dans la mise en œuvre d’une telle démarche qualité
est bien de convaincre de son utilité et de sa rentabilité, par rapport à une solution de
croissance classique. En effet, une telle démarche, hors son coût intrinsèque, induit pour
les équipes techniques en général (système et applicative) une charge de travail supplé-
mentaire dont elles n’ont généralement pas besoin, et dont le coût n’est pas négligeable.
Il faut donc longuement expliquer, argumenter et convaincre de la nécessité et de la ren-
tabilité de la démarche. Un modèle économique original peut y contribuer, comme par
exemple la rémunération « au résultat » du prestataire choisi. Ce peut être à la fois un
gage du sérieux de celui-ci, et surtout une garantie de limitation du coût de la prestation.
PAGE 60
LiVRE BLANC
De plus, ces prestataires ont généralement une compétence, une expérience et des outils
(ex : Datamining) qu’il serait trop coûteux à un client de développer et de maintenir sur
ses ressources propres. Il y a donc là une vraie valeur ajoutée pour l’entreprise cliente.
-P orter une extrême attention à l’évaluation des économies escomptées. Ne pas ou-
blier que la tarification MLC d’IBM possède un caractère fortement dégressif (d’un
rapport de 1 à 10 entre la première et la dernière tranche). Donc en cas de baisse
de la consommation MSU, les MSUs économisés seront les MSUs marginaux (les
moins chers). Il ne faut donc surtout pas se baser sur un prix moyen du MSU obtenu
par exemple en divisant la facture VWLC par le nombre de MSUs consommés. Une
telle linéarisation abusive peut conduire ensuite à de cruelles déconvenues, tant
dans l’évaluation des économies que dans le budget de la prestation.
Cet aspect est essentiel, car le prestataire anticipe les économies qu’il compte faire
réaliser à son client, et établit son prix en conséquence.
En conclusion sur ce point, il est essentiel de faire établir ou à minima valider par IBM
les simulations financières utilisées. Bien que juge et partie en la matière, IBM est
d’une certaine manière garant des chiffres qu’il annonce.
-C
as des clients liés à IBM par un contrat type ESSO : Dans un tel contrat, la dépense
MLC ne peut descendre en deçà d’une valeur minimale. Un tel dispositif peut limiter,
voire annuler l’impact financier d’une baisse de la consommation MSU. Il peut donc
être opportun de faire coïncider la prestation avec une échéance du contrat ESSO.
-L
e montage financier et le mode de rémunération du prestataire doivent rester
simple et lisible, et correspondre à la stratégie financière du moment.
-R
éciproquement, il est essentiel que les intervenants du prestataire soient intégrés
et identifiables aisément dans la structure (et dans l’annuaire) de l’entreprise. En
cas d’incident (toujours possible), les circuits d’alertes seront ainsi raccourcis, ce
qui permettra de corriger plus rapidement et a minima de dédramatiser la situation.
Ceci est essentiel pour maintenir la crédibilité de la démarche.
PAGE 61
Au démarrage de la prestation
D’une manière générale, la prestation sera d’autant plus profitable que le client aura
d’une part une vue précise des problèmes de performances liés à sa production informa-
tique, vue associée à un corpus métrologique fiable et complet ; d’autre part des équipes
techniques compétentes et capables de dialoguer avec profit avec les consultants du
prestataire. En bref, plus la maturité de l’entreprise cliente sera grande en matière d’op-
timisation, plus profitable sera la démarche, surtout sur le long terme.
De même, une compréhension précise des principes de facturation du MLC IBM est ab-
solument indispensable côté client, afin de vérifier l’impact financier des optimisations
proposées, et de ne pas se tromper de cible.
- Borner le champ d’investigations du prestataire. Pour ce faire, lui indiquer les chan-
tiers d’optimisations en cours ou à venir, et entrepris sans son concours. Il est infi-
niment plus rentable de le faire principalement travailler sur les sujets que le client
n’est pas capable de traiter sur ses ressources propres.
- Se mettre d’accord sur un procédé de mesure des gains, et en conserver la maîtrise.
- Exiger autant que faire se peut l’utilisation des outils métrologiques du client, de
préférence aux outils du prestataire. Les procédures et les outils employés seront
ainsi plus facilement maîtrisés et réutilisables par la suite.
Pour cela, il est essentiel de s’assurer le concours actif des décideurs opérationnels,
ainsi que, comme il a déjà été mentionné de l’ensemble des équipes techniques.
Pérennité de la démarche
Les optimisations proposées mettent souvent en lumière des carences organisation-
nelles et techniques plus globales ou endémiques. Il appartient donc au client d’en tirer
toutes les conséquences, en corrigeant les dysfonctionnements constatés, mais aussi en
prenant les mesures pour que ceux-ci ne se reproduisent plus.
L’enjeu pour le client consistera ensuite à intégrer et pérenniser les bonnes pratiques
inculquées, et à les appliquer avec rigueur et détermination. Ceci peut nécessiter des
ressources (notamment humaines) supplémentaires qu’il lui appartiendra d’obtenir.
S’il n’y parvient pas, il devra faire appel de manière régulière à de telles prestations, de
manière à faire corriger par d’autres les dérives qu’il n’aura su corriger lui-même.
Mais en tout état de cause, la démarche qualité décrite ici, au-delà des bénéfices qu’elle
procure, constitue une occasion unique de réhabiliter, de relégitimer et de se réappro-
prier le champ d’expertise lié à la performance, à contre-courant de la tendance triste-
ment dominante.
Ces plates-formes utilisant des logiciels IBM facturés à l’usage (MLC), les évolutions et
les regroupements ont des répercussions sur les logiciels installés, leur niveau de fac-
turation mais aussi sur les types de contrats mis en œuvre (SRA, ESSO, OIO, …).
L’objectif majeur de ces évolutions est une recherche permanente d’optimisation des
coûts matériels et logiciels.
L’augmentation rapide et conséquente du Datacenter Mainframe, associée aux impacts
financiers sur les composants matériels et logiciels, a nécessité le développement de
métiers émergents tels que « Capacity Planner » et « Software Cost Planner ».
Pour pérenniser cette recherche de maitrise des coûts et des infrastructures, il faut
disposer d’un processus de Gestion de la Capacité Mainframe opérationnel qui intègre
l’ensemble des problématiques et des besoins.
A ce niveau, on peut regretter de ne pas disposer de liens avec le business plan de nos
utilisateurs. Il s’avère même relativement difficile de récupérer des indicateurs d’acti-
vité cibles qui peuvent pourtant justifier le besoin des entités et servir de repère en cas
d’évolution de comportement (tant à la hausse qu’à la baisse).
L’ensemble de ces éléments se voit ensuite consolidé pour établir, à partir d’une base
actualisée et correspondant au contexte actuel, des projections trimestrielles sur 3 ans
des besoins de ressources et définir les configurations de serveurs associées afin d’être
en capacité de répondre aux besoins.
Cette phase dite d’actualisation du Capacity Planning a lieu une fois par an,
en fin de 1er semestre.
PAGE 65
Ce procédé d’actualisation peut être rejoué durant l’année en cas de besoin exceptionnel
non identifié, ou de changement d’hypothèse de travail. Suivant les impacts, cela peut
engendrer des modifications de configuration, une évolution matérielle, et des modifica-
tions sur la facturation logicielle IBM.
Les informations issues de la Gestion de la capacité et les projections sur 3 ans servent
aussi régulièrement dans le cadre de renégociation de contrats logiciels, ou d’acquisi-
tion de nouveaux produits.
• Par plates-formes
- Les hypothèses d’évolution sur l’année suivante à minima
- Les taux de croissance
- Les faits marquants et leurs échéances sur l’année suivante (et au-delà lorsque
c’est possible)
A partir de ces éléments, il est donc possible d’actualiser les besoins en capacité MIPS
pour le 2ième semestre de l’année en cours et d’établir les projections trimestrielles
pour les 3 années suivantes.
La capacité réelle issue de zPCR est ensuite comparée avec les besoins MIPS valorisés
dans le Capacity Planning, pour afficher les MIPS disponibles (free space) et identifier le
point de rupture. Dans le cas présent, on constate la nécessité de changer de technolo-
gie de serveurs début 2013.
A ce stade, il est possible, voire nécessaire, d’effectuer des simulations de configurations
en prenant en compte les différents modèles de serveurs, le nombre de serveurs du Da-
tacenter (dans notre exemple, nous sommes en mono serveur) et aussi les différences
de technologie (z10, z196, etc.).
Une fois de plus, l’outil zPCR se montre très utile pour réaliser ces différentes configu-
rations et comparaisons.
L’ensemble de ces éléments sera donc pris en compte pour définir les scénarios d’évolu-
tion des serveurs, faire acter le scénario retenu, et intégrer les décisions dans le budget
d’investissement.
Le Capacity Planning MSU, que nous avons mis en œuvre, est donc élaboré en prenant
en compte :
•L es logiciels MLC d’IBM utilisés sur les différentes partitions actives sur les ser-
veurs z
• Les hypothèses d’évolution d’activité de ces partitions
• Les hypothèses d’évolution de logiciels et de leurs versions
• La mise en œuvre du Softcapping
• Le niveau de facturation actuel des différents logiciels (qui constitue la base de
départ)
• Les changements de technologie hardware qui auront un impact sur la valorisation
des MSUs (z9/z10 : technologie dividende, z196 : AWLC)
A partir de ces éléments, nous établissons le tableau de Capacity Planning MSU sur 3 ans. Ce
tableau est valorisé par trimestre, et par produit. La valorisation s’effectue en déterminant
un pourcentage de croissance annuelle appliqué sur la base (1er trimestre du tableau). Le
pourcentage de croissance est calculé en prenant en compte le Capacity Planning MIPS et
(surtout) la politique d’entreprise sur la facturation logicielle (mise en œuvre de softcap-
ping, maitrise affichée des coûts logiciels, engagement contractuel, etc.)
•D
e correction, par exemple au niveau d’une plate-forme (augmentation anormale
de la consommation CPU sans augmentation de l’activité) pour revenir à une situa-
tion dite normale
Cette analyse est importante pour maîtriser toute dérive (détecter et corriger certaines
anomalies de comportement), pour ajuster les besoins de ressources au bon moment, et
enfin (et surtout) pour maîtriser et pérenniser ses investissements.
La partie Historique permet d’afficher les tendances et de vérifier la cohérence des pré-
visions de besoin dans le temps (tendance à surévaluer les besoins). Ce type d’informa-
tion est très utile lors de l’actualisation annuelle du plan de capacité.
Ici, le suivi est effectué mensuellement, sur la période de pointe des serveurs et des
plates-formes. Dans nos exemples de graphe ci-dessous, la pointe est positionnée pen-
dant la période TP (10h-12h).
PAGE 69
Graphe MIPS par serveurs :
Ce graphe permet d’afficher les besoins de MIPS au niveau d’un serveur (CP), et du
niveau maxi de consommation atteint dans le mois pendant la période de charge (TP).
Etant donné que les mesures sont effectuées au ¼ d’heure, il ne s’agit pas de pointe ins-
tantanée. Enfin, ce graphe ne représente pas la quantité de MIPS installée.
Profil du mois :
Ici, on peut constater que le maximum est atteint le 1er du mois, et que ce maximum (au-
delà de 2 700 MSUs) n’a été atteint qu’une seule fois dans le mois. Les autres pointes se
situent en général autour de 2 000 à 2 200 MSUs. Si l’on souhaite réduire son niveau de
facturation, il sera donc nécessaire d’agir uniquement sur cette journée de pointe, dans
la mesure du possible.
PAGE 71
Profil de la journée de pointe :
• Ce maximum n’est atteint qu’une seule fois dans la journée. Pour maïtriser et
réduire son niveau de facturation, il faudra donc agir sur la période TP ou sur l’inter-
valle 12h-13h
Ce type d’information peut servir à définir des clés de refacturation des logiciels MLC.
PAGE 73
4 CONCLUSION
Arrivé à la fin de ce copieux volume, le lecteur l’aura déjà compris : la maîtrise des coûts
s’aborde de multiples manières et demande plus d’un angle d’approche. Car le coût est
lui-même constitué d’un ensemble complexe d’éléments qui s’agrègent et interagissent
et qu’il s’agit de dénouer l’un après l’autre et tous ensemble. Au moment de le maîtri-
ser, il existe de nombreux leviers d’économie dont chacun ne forme qu’une partie d’une
solution globale dont la construction demande du temps et doit s’adapter au contexte de
chaque utilisateur.
Certaines opérations, l’optimisation des Workloads par exemple, demandent d’avoir déjà
atteint un niveau d’expertise conséquent dans la connaissance de ses consommations
et l’identification de ses points faibles. D’autres, comme la consolidation physique des
machines, constituent la première étape d’une vaste remise en cause par cascade de
nombreux éléments de la chaîne de coûts. D’autres encore, comme la négociation de
nouveaux modèles de licences avec les éditeurs, sont sans cesse à questionner et à ré-
inventer. Dans une telle approche, on constate aisément qu’il reste toujours des marges
de manœuvre, toujours des pistes à explorer et des travaux à conduire.
Mieux maîtriser les coûts de la plate-forme Mainframe contribue à la rendre plus pé-
renne car plus compétitive. Mais cela contribue aussi à créer des modèles pour demain.
Si nous revenons à notre introduction, si nous repartons de cette spécificité du Main-
frame auquel ses quelques décennies d’aînesse donnent souvent un temps d’avance,
nous pouvons faire un pari. Dans dix ans, dans cinq ans, dans trois ans, les démarches
dont nous avons traité ici se verront reproduites dans les environnements distribués, il
s’y posera les mêmes questions, il s’y explorera les mêmes solutions. Ce dont nous vous
avons parlé, ce n’est pas une histoire de Mainframe, c’est une histoire d’informatique.
PAGE 74
LiVRE BLANC
5
ANNEXE
GLOSSAIRE DES TERMES TECHNIQUES
d’exploitation.
HMC LPARs
Hardware Management Console Logical PARtition
console d’administration IBM basée sur partition logique qui fait apparaître un sous-
Linux pour les systèmes partitionnés et SMP ensemble d’une machine comme un serveur
des différentes familles de serveurs IBM. distinct. Sur z, les LPARs sont gérées par
HMC permet en particulier de configurer l’hyperviseur PR/SM. Un Sysplex ou un Parallel
et d’administrer les partitions logiques et Sysplex peut être composé de plusieurs LPARs.
les profils de partitions, de reconfigurer L’isolation entre LPARs sur une même machine
dynamiquement les LPARs, d’activer et est si forte qu’on peut les considérer comme
d’administrer les ressources Capacity on des systèmes réellement distincts.
Demand.
MLC*
HyperPAV Monthly Licence Charge
evolution du dispositif PAV (Cf ce sigle) qui vaste famille de licences à facturation
permet une gestion plus fine et plus dynamique. mensuelle selon l’activité enregistrée.
ICF MTBF
Internal Coupling Facility Mean Time Between Failure
une partition dans laquelle s’exécute temps moyen entre deux pannes, valeur
uniquement du code nécessaire notamment statistique indicative de la fiabilité d’un
au partage intègre des données et à la système.
synchronisation des partitions z/OS en
environnement Sysplex. MWLC*
Midrange Workload Licence Charge
IFL une licence MLC qui s’applique à VSE et une
Integrated Facility for Linux douzaine de middlewares.
processeur dédié à l’exécution de Linux sur z et
bénéficiant d’une tarification attractive. OOCOD*
On Off Capacity On Demand
IMS modèle de tarification qui autorise l’activation
Information Management System et la désactivation de processeurs et d’unités
une base de données hiérarchique développée mémoire pour répondre à des pics de charge,
par IBM en 1966, devenue depuis un système de avec une facturation trimestrielle à l’usage.
gestion de transactions complet toujours utilisé.
OSA Express 3
IPLA* carte d’interface 4 ports 10 Gbits Ethernet pour
International Product Licence Agreement mainframes System z10.
une licence de type OTC (achat + maintenance).
OTC*
Linux One time charge
système d’exploitation inspiré d’UNIX dont modèle de licence simple correspondant à la
il reprend les principes, développé sur un logique achat + support.
modèle collaboratif et placé sous une licence
dite Libre (droit d’accès aux sources, droit de PAV
redistribution, partage des modifications). Parallel Access Volume
technologie permettant de passer plusieurs
Linux for z commandes d’entrées-sorties en même temps.
système d’exploitation Linux for S/390
(Architecture 31-bit) ou Linux for zSeries Plate-forme
(Architecture 64-bit) fonctionnant sur des désigne l’ensemble des partitions dédiées au
Mainframes en partage avec l’infrastructure z/ fonctionnement d’un Système d’Information.
OS et pouvant utiliser un ou des processeurs Un serveur Mainframe héberge en général
IFL En LPAR (z9, Z10) en natif ou avec z/VM plusieurs plates-formes qui correspondent à
(accueille des centaines de serveurs) ou FICON des clients différents pour un hébergeur, ou
(mode FCP) permettant l’accès aux SAN. à des typologies différentes (production, pré-
production, développement, etc.).
PAGE 76
LiVRE BLANC
Power7 Blade SAS
des ”lames“ serveur (serveurs intégrés sous Serial Attached SCSI
la forme d’une carte enfichable) équipées des interface informatique qui fait passer des
processeurs RISC Power7 d’IBM, celui qui commandes SCSI (très utilisées pour le
RTO SSD
Recovery Time Objective Solid State Drive
délai de reprise : durée cible nécessaire à la disque dur sans pièces mobiles, le stockage
reprise des activités métiers suite à incident s’effectuant non plus sur des plateaux
ou déclaration d’un incident. Généralement magnétiques en rotation mais sur des puces
exprimée sous la forme d’une durée : un RTO mémoires.
de deux heures signifie que deux heures après
l’apparition d’un incident ou sa déclaration Sub Capacity*
le service utilisateur devra être de nouveau la possibilité de facturer un logiciel pour une
disponible. fraction de processeur et non pas pour un
processeur complet. La plupart des licences
SALC* MLC comportent des options sub capacity.
Select Application Licence Charge
une licence MLC applicable uniquement S&S
à Websphere MQ sur des machines sous Subscription and support
certaines licences MLC (AWLC, AEWLC, WLC ou maintenance associés aux logiciels IBM IPLA
EWLC). (zOTC).
PAGE 77
Sysplex & Parallel Sysplex z/Architecture
un System Complex ou Sysplex est l’association l’architecture interne des générations récentes
au sein d’une même unité logique de plusieurs de machines z compatibles 64 bits.
processeurs fonctionnant comme un système
unique. Le Parallel Sysplex est l’application zELC*
de ce mode de fonctionnement à plusieurs zSeries Entry Licence Charge
machines (jusque 32) constituées en cluster et licence à facturation mensuelle réservée aux
fonctionnant avec une seule image système à petites machines mainframe (zSeries 800, z890,
des fins de performance et/ou de disponibilité. z9 BC et z10 BC).
SzLC* zIIP
System z Lifecycle Charge System z Integrated Information Processor
licence spécifique au support z/OS. un processeur spécialisé, équipé d’un
microcode spécifique, initialement conçu pour
VU* décharger les processeurs généralistes de
Value Unit certaines tâches liées à l’exécution de DB/2.
unité de valeur propre à IBM, appuyée sur le Le domaine d’utilisation des ZiiPs a depuis été
nombre de MSUs, de moteurs, ou d’autres étendu à d’autres traitements avec des logiciels
unités de base, et utilisée pour la facturation de IBM et non-IBM.
certains utilitaires logiciels dont les outils DB2,
IMS et CICS, les produits Tivoli pour z/OS, et zNALC*
autres. System z New Application Licence Charge
licence z/OS à prix réduit pour des LPARs dans
VWLC* lesquelles s’exécutent certaines applications
Variable Workload Licence Charge qualifiées par IBM : SAP, Siebel, Peoplesoft et
licence dérivée de WLC. autres.
Websphere MQ z/OS
nouveau nom de MQ Series, un service de système d’exploitation pour Mainframes lancé
communication entre applications en mode en 2011 et héritier d’une lignée qui remonte
message avec utilisation de files d’attente. aux années 60. z/OS prend la suite d’OS/390 et
Cet ensemble d’outils permet en particulier combine les capacités de MVS (Multiple Virtual
l’échange d’informations et la réalisation de Storage) avec les Unix System Services qui
transactions entre plates-formes hétérogènes assurent l’exécution de programmes Unix sur
(zOS, Unix, Windows, etc.). la plate-forme.
WLC* z/TPF
Workload Licence Charge Transaction Processing Facility
modèle de facturation mensuelle de licence à un système d’exploitation uniquement
l’usage applicable aux machines fonctionnant transactionnel (temps réel) pour mainframes,
avec z/OS ou z/TPF en mode z/Architecture utilisé principalement par les applications
64 bits. devant absorber un débit transactionnel très
important. Ex : Systèmes de réservations
zAAP de compagnies aériennes ou ferroviaires,
System z Application Assist Processor transactions cartes bancaires, etc.
un processeur spécialisé, équipé d’un
microcode spécifique, conçu pour effectuer z/VM
certains traitements Java et XML. Ces génération la plus récente des hyperviseurs
processeurs ont la particularité de ne pas Mainframe développés par IBM dès les années 60.
modifier le nombre de MSU de la plate-forme
à laquelle ils sont associés, ce qui évite une z/VSE
augmentation des coûts logiciels. Depuis le une autre souche de systèmes d’exploitation
lancement des ZaaPs, plusieurs éditeurs ont Mainframe d’IBM, descendant du DOS/360
adapté leurs logiciels pour en tirer parti. qui équipait les premières générations de ces
machines.
PAGE 78
A propos du
Le Club des Responsables
d’Infrastructures et de Production
Le Réseau Social des Responsables d’Infrastructures et de Production
Un objectif : Rendre ses membres plus performants dans leur métier
Un Crédo : Indépendance vis-à-vis des fournisseurs
Un Cercle de confiance pour :
• Partager visions et retours d’expériences
• Echanger et travailler collectivement sur les technologies, les ressources humaines, les organisations
et processus, les approches financières des projets, les relations avec les offreurs
• Pousser un projet en interne en s’appuyant sur les travaux du CRiP
• Promouvoir les fonctions d’Infrastructure et de Production au sein des Entreprises
• Créer un réseau de communication rapide et efficace entre dirigeants
Philippe SERSOT
Président du CRiP
CTO CA-CIB
Partager nos expériences
J’ai trouvé très intéressante l’initiative du CRiP de réunir des Responsables de production en charge
d’informatiques clientes variées dans un cercle où n’interviennent pas les fournisseurs. Cela permet de
confronter ses propres idées aux retours d’expériences d’autres sociétés plus avancées sur certains sujets. Une
démarche d’autant plus indispensable que nous nous trouvons, dans le métier de la production informatique,
particulièrement exposés à des situations de grands changements, tels que la virtualisation dans ses multiples
dimensions ou le cloud computing. J’apprécie particulièrement ce souci d’apporter, partager et recevoir tout
en même temps ces indispensables retours d’expériences.
Jean-Paul AMOROS
GDF SUEZ
CTO/Directeur de la Production Informatique,
membre du Bureau Exécutif du CRiP
Le CRiP (Association Loi 1901) compte 135 grandes entreprises ou entités utilisatrices des
technologies de l’information, adhérentes ou en cours d’adhésion. Il rassemble une communauté
de plus de 1200 membres, responsables d’infrastructure ou de production.
Le CRiP est un cercle de confiance, lieu d’échanges et d’informations entre les différents
membres confrontés aux mêmes défis financiers, technologiques et organisationnels.
PAGE 80
Charte d’Ethique et
d’Engagement du CRiP
Le Club des Responsables d’Infrastructure et de Production est constitué sur la base de
valeurs et de principes d’action et de comportement, fondés sur des rapports de confiance
permanents entre ses membres.
Les membres sont les représentants des sociétés adhérentes du CRiP.
Principes d’action
· Respect de la loyauté
Les membres du CRiP ont pour principe la loyauté à l’égard des autres participants afin
d’instaurer et de maintenir des relations de confiance durables.
· Participation active
Les sociétés adhérentes au CRiP et leurs représentants membres du CRiP s’engagent à
contribuer activement à la vie du Club en apportant leur expérience et leur savoir-faire aux
travaux collectifs.
Principes de comportement
· Confidentialité
Chaque membre du CRiP s’engage à ne pas divulguer à des tiers les informations profes-
sionnelles présentées, sauf accord explicite des membres émetteurs et du bureau exécutif du
Club. Chacun des participants, membre permanent ou occasionnel, s’interdit d’utiliser direc-
tement ou indirectement, à des fins personnelles, des informations sensibles qu’il pourrait
détenir dans le cadre du Club.
· Conflits d’intérêts
Chaque membre du CRiP se doit d’éviter toute situation de conflit entre les intérêts du Club
et ses intérêts personnels ou ceux de ses proches.
Le Club est un club d’utilisateurs.
Cependant certains de ses membres peuvent appartenir à des sociétés adhérentes qui pos-
sèdent dans leurs missions une offre de service pour les autres adhérents. Il est impératif
dans ce cas que les représentants membres de ces dites sociétés aient un comportement
irréprochable et n’utilisent pas ce cercle de confiance pour promouvoir les offres de services
de la société qui les emploie.
PAGE 81
Les 17 Groupes de travail thématiques
Le mode de fonctionnement
Actuellement, 17 groupes de travail thématiques se réunissent tout au long de l’année.
Les travaux de ces groupes sont présentés à l’ensemble des membres à l’occasion des CRiP
Thématiques et de la Convention annuelle du CRiP.
STOCKAGE MÉTIERS
Animé par Animé par
François DESSABLES Marc LIMODIN
Architecte SAN Stockage Directeur des Techniques
PSA PEUGEOT-CITROËN et des Infrastructures
LA BANQUE POSTALE
Objectifs :
Identifier et partager les bonnes pratiques dans le domaine Objectifs :
du stockage, établir le cadre d’usage des différentes Traiter de l’évolution des métiers de l’infrastructure et de la
technologies. production, des problématiques de ressources humaines et
des problématiques d’organisation.
Thèmes :
- Virtualisation du stockage/de la sauvegarde Thèmes :
- Déduplication - Panorama des métiers et de leurs changements
- Sauvegarde sur disques - Sous-traitance
- Réplication CRiP Thémat -G estion des ressources Livre Blanc
- Convergence LAN-SAN ique humaines de production Métiers
- Architectures Stockage
(Prévu Juin 2012)
13 décembre
Livre Blanc 2011
Analyse et Tendance
du Stockage V.2
(édité en Juin 2011)
BASES DE DONNÉES
Animé par
Jean-Paul VEZARD
Ancien Responsable DBA à
la Société Générale
Objectifs :
Identifier les meilleures pratiques en production pour le datacenter
ITIL
Animé par
de demain et pour l’optimisation de la consommation des composants
d’infrastructure. Anne JAFFRE
Directeur des Techniques
Thèmes : responsable Qualité IT, ESSILOR International
- Optimisation énergétique Et Eric BOUVET, responsable Service
- PUE, définition d’indicateurs Management, ARKEMA
- Outillages de mesure
- Bonne gestion du froid Objectifs : Les Assises
- Green IT, design de site Rassembler et documenter les bonnes ITIL
pratiques d’utilisation d’ITIL et des CMDB 5 avril 2012
Livre Blanc CRiP Thémat
Analyse et Tendance, ique Thèmes :
DataCenter-G - Bénéfices d’ITIL
vers le Datacenter idéal V.2 reen IT
(édité en juin 2011) 19 janvier 2012 - Identification des processus ITIL prioritaires
- Adoption d’ITIL v3 et difficultés de mise en oeuvre
- Outils à adopter en soutien d’une démarche ITIL
Dossier Technique Datacenters : - Mise en œuvre de CMDB
Efficacité Energétique et indicateurs - Forces et faiblesses des outils CMDB et de Service desk
de performances - Mesure de la performance des processus
(édité en mars 2010) -R eprésentation et nommage des composants IT en CI
dans la CMDB
PAGE 82
LOW COST VIRTUALISATION
Animé par
Frédéric DIDIER
SERVEURS &
Directeur Production Informatique
CREDIT FONCIER
POSTES DE TRAVAIL
Animé par
Objectifs : Marie-Christine MOULLART
I nventorier les pratiques d’infrastructure de rupture capables Responsable Exploitation /
de fournir des services à bas coût et les pratiques associées. Direction Infrastructures et Support
GENERALI
Thèmes :
- Logiciels open source Objectifs :
- Bring-your-own-PC Recenser les expériences et les solutions
- Appliances analyser les enjeux, décrire la démarche projet.
- Différenciation des classes de service dans le datacenter
- Utilisation de services et matériels grand public Thèmes :
-S
olutions, arguments en faveur de la virtualisation
Fiche Pratique : La démarche Low Cost, décembre 2011 bonnes pratiques, pièges et limites, impacts sur les projets
les hommes et les services, les gains financiers et de niveaux
de services
CLOUD COMPUTING Dossier Technique CRiP Thémat
ique
Animé par Hyperviseur Hyper vi se ur s
Patrick JOUBERT (édité en Décembre 2010) s 20 12
15 mar
Architecture et Technologie
Transformation Director
Poste de Travail
Société Générale
Stéphane GEISSEL
manager technico-financier Nouvelle
SI grand public
SFR Génération
Objectif :
Etudier les évolutions du poste de travail d’entreprise en
Objectifs : 2012, définir les bonnes pratiques d’usage, établir les
Comprendre et analyser les technologies du cloud computing avantages économiques
pour déterminer leurs conditions d’usage.
Thèmes
Thèmes : - Réseaux sociaux d’Entreprise
- Sécurité et Cloud : quelle check-list de sécurité utiliser dans - Migration Windows 7
nos opérations Cloud ? -C lients légers, virtualisation du poste de travail, zero client,
- Gestion des aspects contractuels du Cloud (question sera etc.
portée par un GT commun Syntec numérique - e-SCM – CRiP) - Consumérisation des terminaux
- Le Paas : pour quels besoins ? - Tablettes, smartphones.
- Cloud et Informatique Durable - Démarche Bring-your-own-Device
- Facturation à la demande et refacturation interne en mode
cloud.
- HPC et Cloud : tour d’horizon, progrès depuis la campagne
2010-2011
ARCHITECTURE
Livre Blanc
Enquête et Analyse de Tendances,
Les Assises
TECHNIQUE
Modèles économiques du Cloud
Computing, Incidence sur les
métiers de l’Infrastructure et
du Cloud et de
Réseaux Socia s
D’ENTREPRISE
Animé par
de la Production, Cloud et HPC 2 février 2012ux
(édité en Juin 2011) Noël CAVALIERE
Responsable d’Architecture d’Entreprise
PSA PEUGEOT CITROEN
Mainframe
Animé par Sébastien PONS
Bruno KOCH Responsable de l’architecture Infrastructure,
Directeur Délégué des normes et standards
Architecture Système Mainframe CREDIT AGRICOLE CIB
GCE TECH (CAISSE EPARGNE)
Objectifs :
Objectifs : Analyser les modèles de standardisation et de mise en oeuvre
Gérer, optimiser et mieux maîtriser les coûts sur Mainframe, de modules opérationnels pour la construction du SI.
identifier les bonnes pratiques, inventorier les évolutions et
optimisations possibles. Thèmes :
- Perception de l’architecture technique d’entreprise
Thèmes : - Définition du métier d’architecte technique
- Modèles de facturations - Bonnes pratiques
- Panorama de l’offre logicielle CRiP Thémat
ique - Référentiels et outils de cartographie
- Rationalisation et consolidation Maîtrise des co
- Tendances du marché ûts
Mainframe
17 Novembre
Livre Blanc 2011
Mainframe - Z/OS
(Novembre 2011)
PAGE 83
PRA GOUVERNANCE
Animé par Animé par Animé par
Luc VRIGNAUD François TETE, Maryse NICLI
Responsable Division Président d’honneur et Responsable Départements Projets,
Support et Sécurité Secrétaire Général Club Intégration et Correspondants Métiers
MACIF de la Continuité d’Activité GENERALI
Objectifs : Objectifs :
Etablir le cadre technique et opérationnel des plans de Déterminer les conditions de mise en place de modèles
reprises d’activité. de gouvernance dans l’informatique de production.
Thèmes : Thèmes :
- Concepts et vocabulaire PRA - Opérations d’alignement métier
- Architectures - Gouvernance des contrats
- Cohérence applicative -V aleur ajoutée dans des environnements
- Critères de déclenchement fortement externalisés
- Maintien en conditions opérationnelles
- Validité probante d’un PRA
Fiche Pratique Alignement Stratégique
Livre Blanc de la Production Informatique aux
Plan de Reprise d’activités Métiers de l’Entreprise V.2
(PRA) (éditée en Juin 2011)
(édité en février 2011)
En association avec
Objectifs : Objectifs :
Etudier l’automatisation des processus d’exploitation Traiter de l’ensemble des problématiques liées aux réseaux
informatique et établir les bonnes pratiques associées. d’entreprise, en particulier la gestion de la mobilité et
l’exploitation des outils de travail collaboratif.
Thèmes :
- Gestion de fermes de serveurs et de Clouds Thèmes :
- Provisioning - Haute disponibilité des réseaux
- Accélération des PRA - Convergence SAN-LAN
- Traitement automatisé d’incidents - Le collaboratif Les Assises
-L a mobilité, les nouveaux terminaux du Cloud et de
Réseaux Socia s
- Outils du marché
- Difficultés rencontrées (tablettes, smartphones, ByoPC)
- Analyse de rentabilité - Réseaux et Cloud Computing 2 février 2012ux
Nicolas COURAUD
Responsable de la coordination
des travaux du CRiP
Le Cercle CTOs
Animé par Philippe Sersot, Président du CRiP, CTO de CA-CIB
Les CTOs des grandes productions françaises se rencontrent périodiquement dans ce cercle de
confiance exclusif. Au sein de cet espace d’échanges ouverts et en toute confidentialité, ils abordent
les questions stratégiques qu’ils jugent essentielles. Ils partagent en direct leurs expériences afin de
renforcer leur expertise et de prendre ainsi des décisions plus efficaces dans les domaines en rapide
évolution de l’infrastructure et de la production.
PAGE 85
> Les Assises du Cloud et des Réseaux
Sociaux d’Entreprise - 2 février 2012
> Les Assises ITIL - 5 avril 2012
Le CRiP a décidé d’élargir son format «CRiP Thématique» et de participer, pour
certains sujets, à un nouveau format d’événement d’une journée organisé by
itiForums, «les Assises». Comme pour les CRiP Thématiques, un accent sera mis
sur les retours d’expérience «vraie vie», mais avec également une vue applicative
et métier, les avancées des groupes de travail du CRIP ainsi que sur les
éclairages d’experts et d’analystes. Les Assises apporteront également une vue
rapprochée des offres et de la stratégie des principaux fournisseurs de solutions
en France tant sur le volet infrastructure que sur le volet applicatif et métier,
essentiels dans ces révolutions en marche.