Académique Documents
Professionnel Documents
Culture Documents
En savoir plus
L
es entreprises, devenues plus une technologie avancée d’analyse de • Obtenir une image à l’instant t des
mûres vis-à-vis de l’outsourcing, code source. applications pour permettre un suivi
sont désormais capables d’opérer En fournissant des indicateurs techniques dans le temps
des externalisations plus stratégiques. On aux donneurs d’ordre, ces solutions Transfert vers le prestataire
l’a récemment observé dans l’automobile permettent de piloter un parc applicatif • Réduire la phase d’acquisition de la
avec Renault ou dans la grande distribution sous-traité en temps réel, tant en terme de connaissance pour entreprendre plus
avec Carrefour. qualité, que de maintenabilité et de coût. vite des tâches productives
Résultat : le donneur d’ordre conserve la • Diminuer le coût lié à la production
Dans l’externalisation des applications maîtrise intellectuelle de ses applications d’une documentation exploitable et
métier, c’est surtout la volonté d’accroître métier et le contrôle de la relation avec maintenable par le prestataire
l’efficacité opérationnelle de l’informatique son sous-traitant.
qui est motrice : pouvoir fournir plus Contrôle de la qualité et des coûts en
rapidement un service à valeur ajoutée La valeur ajoutée de ce type de cours de projet
aux utilisateurs et aux clients dans un solutions d’Application Intelligence est • Suivre l’évolution de la maintenabilité et
contexte en perpétuelle évolution. visible à chaque étape d’une opération de la qualité pour éviter toute dérive
d’outsourcing, comme décrit ci-après. • Etre capable de valider la quantité et
Comme dans n’importe quelle opération la qualité du travail facturé
d’outsourcing, le contrat liant le • Etre en mesure de challenger le
fournisseur est capital, en particulier les Appe
sous-traitant lors des négociations
trat ls d
SLAs. Néanmoins, les applications métier de
con 'off
res d’avenants
Fin
étant par nature soumises à de fréquents • Industrialiser les recettes techniques
changements en cours de contrat, les
Tran
Cycle de vie
sfert de
Publi-Reportage
édito
La vague Cloud ou le n’importe-quoi-tenant
IT
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE
Le peuple aime détruire ses idoles. Les systèmes ouverts devaient Conception Graphique
Nicolas Herlem
anéantir les mainframes, qui se sont modernisés à marche forcée. Le Email : nico_freelance@yahoo.fr
Web 2.0 incarnerait le futur des applications alors que la virtualisation…
Parution
Bref, les technologies les plus porteuses seraient sensées prendre la IT-expert - (ISSN 1961-9855) est un journal
place de solutions en place. Pourtant dans un monde hétérogène, les édité 6 fois par an, par P&C France, sarl
de presse au capital de 60 976,61 e.
informaticiens savent qu’aujourd’hui mieux vaut miser sur une cohabitation
bien orchestrer que sur des ruptures. L’exemple des services Web n’est-il Avertissement
Tous droits réservés. Toute reproduction
pas là pour en témoigner ? intégrale ou partielle des pages publiées
dans la présente publication sans l’autori-
sation écrite de l’éditeur est interdite, sauf
dans les cas prévus par les articles 40 et
41 de la loi du 11 mars 1957. © 1996 P&C
France. Toutes les marques citées sont des
José Diz marques déposées.
Rédacteur en Chef Les vues et opinions présentées dans cette
publication sont exprimées par les auteurs
à titre personnel et sont sous leur entière
et unique responsabilité. Toute opinion,
conseil, autre renseignement ou contenu
exprimés n’engagent pas la responsabilité
de Press & Communication.
Abonnements
01 46 90 21 21
Sommaire
6 Dossier
Une entreprise peut-elle survivre sans qualité de données globale ?
La multiplication des risques et des réglementations oblige à se poser la question de la
qualité de données. Directeur technique chez Informatica, Bruno Labidoire expose une
démarche complète permettant d’implémenter une telle politique. Dense et utile.
16 Technique
Comment réussir avec ITIL ?
ITIL par-ci, ITIL par-là… De quoi parle-t-on ? Sur un ton pédagogique et avec des
explications détaillées, ce dossier montre ce qu’est ITIL et ce qu’il n’est pas, pourquoi
il peut amener à des impasses, mais aussi comment il peut apporter beaucoup à
l’entreprise. A lire sans modération.
22 Actualités Internationales
Les informations marquantes d’éditeurs, de marchés, d’organisme
de standardisation, de débats en cours et de tendances.
34 Comment ça marche ?
Anatomie de trois ESB Open Source : JBoss ESB, serviceMix et OpenESB
Voyage au cœur du middleware, avec un exposé complet et sans concession sur
les ESB Open source, et leurs versions commerciales. Schémas, explications… un
panorama très détaillé.
45 Livres
Conduite de projets informatiques par Brice-Arnaud Guérin et Le management de
la performance par les processus par Dominique Thiault.
46 Rubrique à brac
Le respect des licences libres : les juridictions veillent
Un avocat spécialisé fait un point sur des décisions juridiques liées au logiciel libre,
qui ne dédouane pas les prestataires de leurs responsabilités. Ce spécialiste revient
sur des idées reçues : distinguer commercial et open source, vide juridique, etc. Très
instructif.
entreprises. Pourtant, dans tous les secteurs, nombre d’organisations considèrent encore le manque de qualité des
données comme un problème mineur qu’elles traitent au coup par coup, et souvent dans l’urgence. Pour compenser
les défauts de leurs données, ces organisations inventent des moyens de contournement simples ou complexes.
Résultat : elles fondent la plupart de leurs décisions sur des informations peu fiables et incohérentes. Si l’on ajoute à
cela la multiplication des obligations de conformité réglementaire, les données apparaissent plus que jamais comme
un actif majeur de l’entreprise et la question de la qualité de données ne peut tout simplement plus être écartée.
Une étude menée par PricewaterhouseCoopers (interviews réalisées auprès de dirigeants de grands
groupes internationaux pour le baromètre de gestion PricewaterhouseCoopers en 2008) révèle un
décalage important entre la compréhension claire de la valeur des données et l’utilisation réelle de celle-
ci pour générer de la valeur. Plus de 70 % des cadres interrogés estiment que les données constituent
l’un des actifs les plus précieux, mais seuls 40 % d’entre eux estiment les utiliser efficacement. Cela
peut laisser penser qu’il existe un décalage entre la valeur perçue des données et la valeur obtenue
par l’utilisation de ces dernières. L’entreprise n’a pas confiance dans les données au moment de
leur utilisation. En comblant le fossé entre perception de la valeur et valeur réelle des données, les
entreprises peuvent générer davantage de valeur à partir des données et remplir leurs objectifs en
matière de gouvernance, de risque et de conformité.
La complexité du marché et des enjeux actuels ajoute de nouveaux risques que les entreprises doivent
identifier. Par exemple, à lui seul, le gouvernement américain a introduit 114 000 nouvelles règles et
réglementations pour les entreprises depuis 1981. Cette croissance exponentielle du risque et des
réglementations a atteint un point de rupture qui nécessite la mise en place de rapports réglementaires
s’appuyant sur des données fiables, pertinentes et de qualité.
Au cours de leur analyse de la gestion des risques et de la conformité, les cadres dirigeants sont confrontés
à des incohérences et à des silos organisationnels en termes d’informations et de processus. Cela est
dû à l’absence d’une stratégie de gestion des données et à un manque d’information dans l’entreprise.
Il en résulte une duplication des technologies, une fragmentation des règles et des normes de qualité,
ainsi qu’un manque de cohérence pour accéder et fournir les données aux décideurs responsables.
Depuis de nombreuses années, les DSI reconnaissent l’importance de la qualité des données comme
un élément fondamental de leur stratégie de gestion de l’information. Toutefois, il leur est difficile de
mettre en place les procédures et les programmes adéquats. Une étude (Accenture CIO survey – 2007)
montre qu’à ce jour seulement 16 % des entreprises ont mis en place un programme de qualité des
données. Cette dernière représente pourtant un enjeu critique pour l’entreprise dans les trois étapes
du cycle de vie des informations : lors de la saisie, au cours de transformations et des agrégations et
pendant l’analyse et la présentation des résultats. Une qualité de données insuffisante coûte très cher
à l’entreprise. En outre, elle conduit à une altération de la relation client, à des ruptures dans la chaine
logistique, à des décisions métiers moins pertinentes, voire pénalisantes. Des données défectueuses
invalident aussi les efforts de l’entreprise en matière de conformité réglementaire. Autant de handicaps
lourds de conséquences !
La mise en œuvre d’une initiative de qualité de données fait intervenir des personnes, des processus et
des technologies. En s’appuyant sur une plate-forme de qualité de données et sur une méthodologie
d’implémentation, les entreprises peuvent construire des solutions de qualité de données de bout en
bout conformes aux réglementations en vigueur, réduire les ruptures de chaîne d’approvisionnement et
améliorer la pertinence des décisions prises par les équipes métiers. En mettant en place dès le début
des processus de gestion de la qualité de données bien définis, les entreprises exploitent d’autant plus
efficacement la solution de qualité de données que les divers services chargés de l’implémentation et
du contrôle de cette qualité le font dans le cadre des règles et des procédures définis pour l’ensemble
de l’entreprise.
La figure ci-dessous présente les cinq étapes à considérer lors du lancement d’une initiative de gestion
de la qualité de données :
Analyser
1. Identifier et mesurer
la qualité des données
5. Contrôler la qualité
des données par 2. Définir des règles et
rapports aux objectifs des objectifs de qualité
des données
3. Concevoir des
processus d'amélioration
de la qualité
Améliorer
Les entreprises ont besoin de produits et de pratiques optimisés pour soutenir un processus de qualité des données de bout en bout
Identification et mesure de la qualité des données - Première étape décisive, car la compréhension
du niveau initial de qualité des données constitue la base des règles et des processus que vous mettrez
en place. Le cadre des dimensions de la qualité de données est utilisé pour générer les paramètres
de mesure et les objectifs. Sans évaluation préalable, la capacité à mettre en œuvre une stratégie de
qualité de données efficace est sérieusement compromise. À plus long terme, l’évaluation permet
à l’entreprise de mesurer combien ces procédures à améliorer les informations et les résultats. Les
mesures et audits de qualité de données peuvent être appliqués à tous les domaines (données clients,
fournisseurs, produits, actifs, données financières, etc.), tant sur un champ particulier que sur la totalité
des bases utilisées dans l’entreprise et pour les échanges inter-entreprises.
Définition des règles métiers et des objectifs de qualité des données - La mesure de la qualité
de données repose essentiellement sur des règles métiers et sur des normes de données internes ou
externes. La phase suivante consiste donc pour l’entreprise à spécifier des règles métiers basées sur
les normes et les données de référence préalablement arrêtées. Le cadre des dimensions de la qualité
de données est utilisé pour générer les mesures et les objectifs des critères de réussite.
Implémentation des processus d’amélioration de la qualité - Une fois les règles métiers de qualité de
données configurées, elles sont généralement déployées dans le cadre d’une stratégie d’intégration de
données plus large. Ces règles de qualité peuvent être activées au moment où les données entrent dans
une application ou lorsqu’elles sont déplacées entre des applications. Le déploiement et l’optimisation
des processus incombent aux équipes informatiques.
Dans l’initiative de qualité des données, l’entreprise définit son modèle de gouvernance, c’est-à-dire
son modèle de pilotage formalisé des personnes, processus et techniques pour faciliter la capacité à
s’appuyer sur les données comme un atout majeur de l’entreprise.
Sponsor
Qualité
des Données
Ce comité est constitué d’experts issus des principales directions de l’entreprise, les data stewards. Ils
sont responsables de la définition et de la surveillance des mesures et des indicateurs de qualité des
données de leur domaine, et coordonnent les plans d’action d’amélioration des indicateurs. L’analyste
Qualité des Données est un professionnel de la DSI. Il met en application les règles métiers définies
par les stewards dans les outils de profiling et de nettoyage.
Après avoir convaincu la direction générale et les directions métiers de l’importance de la qualité des
données et mis en place la structure organisationnelle pour supporter l’initiative, il est temps d’évaluer
les solutions technologiques. Le choix de la plate-forme s’effectuera selon plusieurs critères comme
la puissance des fonctionnalités de profiling, de nettoyage, de rapprochement et de contrôle de la
qualité de données. Une plate-forme complète, ouverte, unifiée et économique, permettra d’accéder,
de découvrir, de nettoyer et d’intégrer des données de tous types. En outre, elle saura distribuer, dans
l’ensemble de l’organisation, des données fiables et pertinentes, partout et à tout moment. Étendre la
qualité de données au-delà d’un seul département, et à l’ensemble de l’entreprise, améliorera l’efficacité
opérationnelle ainsi que les performances de toute l’organisation.
Malgré des investissements croissants dans les technologies de l’information, un nombre significatif
de projets informatiques n’apportent pas la valeur ajoutée attendue faute de fournir aux utilisateurs
les données les plus pertinentes.
Sans la technologie appropriée, le coût prohibitif de la production de données pertinentes et fiables peut
avoir une incidence notable sur la capacité d’une organisation à atteindre ses objectifs. En adoptant une
approche de centre de compétences en intégration, les entreprises peuvent réduire davantage leurs
coûts d’acquisition, d’intégration et de nettoyage des données. Ce dernier (faisant parfois référence
au centre d’excellence en intégration) est un service partagé d’une entreprise, qui permet de réaliser
une intégration méthodique de données parmi les applications et les systèmes.
Un centre de compétences en intégration optimise les ressources rares, en combinant dans un même
groupe l’intégration de données, les compétences en qualité de données, les ressources et les processus.
Cela contribue à réduire les délais de livraison, ainsi que les coûts de maintenance et de développement,
tout en améliorant le retour sur investissement par la réutilisation de sources, d’interfaces d’applications
et de règles métiers codifiées. Les centres de compétences en intégration aident également à réduire
le nombre d’opérations redondantes au cours de l’intégration de données et du contrôle de la qualité
des données, en s’appuyant sur les réussites passées, plutôt que de recommencer intégralement à
chaque nouveau projet.
Nº 1 mondial du suivi et de l’analyse des biens techniques et Afin de mieux contrôler sa chaîne d’approvisionnement, sa
technologiques, GfK Retail and Technology s’appuie sur les relation avec les fournisseurs et la gestion de ses magasins,
informations de milliers de points de vente de détaillants, de le groupe Printemps a choisi de standardiser son ERP. De
revendeurs et de distributeurs répartis dans plus de 80 pays, nombreuses solutions propriétaires et hétérogènes coexistaient
pour proposer des études de marché et un suivi des ventes de ce qui entraînait des difficultés pour le pilotage de ses activités.
biens durables et culturels. L’exactitude des données est une Les magasins rencontraient également des difficultés pour
priorité. Intégrant seulement 50 fichiers par mois il y a presque assurer la bonne intégrité des données entre les différents
dix ans, GfK Retail and Technology France en traite aujourd’hui systèmes. Une simple erreur de codes-barres EAN, par exemple,
1 700. Avec l’augmentation des données complexes, l’analyse a un impact direct sur la reconnaissance des produits en entrepôt
de la cohérence d’un fichier et de son contenu deviennent et donc sur les délais de réapprovisionnement et la qualité des
un challenge. En déployant une solution d’intégration et de services pour ses clients. La chaîne de grands magasins a donc
qualité des données, cette société peut consulter, nettoyer, choisi de profiter d’un projet de migration de données pour
intégrer et distribuer rapidement des données fiables à la améliorer la qualité des données relatives à ses 3,5 millions de
fois en interne (dans les bases de données et applications de références. La migration s’effectuera de son ERP « maison »
l’entreprise utilisées par environ 3 000 employés) et vers les Sésames vers l’ERP de SAP d’une manière progressive afin de
systèmes des clients. Des données de tous fichiers, documents nettoyer systématiquement les données qui seront injectées
ou messages (quels que soient leur format, leur complexité et dans SAP.
leurs tailles) peuvent êtres extraits, puis transformés dans un
format exploitable. Le tout, en réduisant les délais d’agrégation Dès le début du projet de migration, une solution améliorant la
de l’ensemble des données de façon spectaculaire. qualité des données est implémentée. L’une des fonctionnalités
a suscité un vif intérêt : un module facilitant l’implication des
Les bénéfices sont multiples avec le lancement accéléré de équipes métiers. Première phase : la reprise des données pour
nouveaux services d’étude de marché, l’augmentation du chiffre la migration SAP. Seconde phase : le maintien d’une cellule de
d’affaires, l’accélération des délais d’agrégation de données qualité des données, afin de pérenniser l’effort pour maintenir
(+ 400 %), la réduction de 75 % des ressources de développement, une qualité de haut niveau. Un jeu d’indicateurs très concrets
la réduction de 80 % du nombre d’erreurs et l’amélioration progressivement enrichis a été défini d’emblée, afin d’évaluer
continue de la qualité des données globale. L’automatisation de la performance en termes de qualité des données.
la résolution d’incidents a réduit considérablement les erreurs
devenues rares. Les gains de productivité sont considérables. En automatisant autant que possible la résolution d’incidents
Grâce à la simplicité de l’environnement fourni par la plate-forme avec des interfaces web de résolution générées en cas de
d’intégration et de qualité de données et ses fonctions de profiling rejet de données pour non-conformité ou ambiguïté, le groupe
de données, les délais d’intégration ont en moyenne été divisés Printemps réduit les risques liés à ce type de projets. Effet
par deux chaque année. Ce qui prenait auparavant 8 heures immédiat : l’accélération de la standardisation des processus.
est désormais réalisé en seulement 20 minutes. La plate-forme Avec un ERP et une plate-forme d’intégration et de qualité
d’intégration et de qualité des données permet de traiter des de données standards, Printemps pourra désormais mieux
données particulièrement difficiles à catégoriser et à comparer. contrôler sa chaîne d’approvisionnement et sera en mesure
En consolidant plus rapidement un volume croissant de sources d’assurer une meilleure traçabilité des produits commercialisés.
de données plus complexes, GfK Retail and Technology France Au final, Printemps offre un meilleur service à ses clients, atout
est ainsi en mesure d’accélérer le lancement de nouveaux fondamental dans le secteur de la distribution.
services et donc d’accroître ses revenus.
Le monde des affaires se caractérise par des changements continuels et par des tendances fortes telles
que la mondialisation, les fusions et acquisitions et l’externalisation des processus métiers. Alors que le
temps ne joue pas en faveur de l’entreprise, ces facteurs compliquent davantage la gestion des risques.
Certains aspects de la gestion des risques, tels que la détection des fraudes et les mesures contre
le blanchiment d’argent, ne tolèrent aucun retard dans l’extraction des données ni de s’appuyer sur
des données obsolètes. Pour y faire face, les personnes chargées de prendre de mesures immédiates
doivent pouvoir accéder et diffuser plus rapidement les données métiers critiques, afin de protéger les
employés et les actionnaires. Les entreprises peuvent disposer aujourd’hui de données fiables grâce
à l’omniprésence des services de qualité de données. Jusqu’ici, les initiatives de qualité de données
relevaient de la seule responsabilité des départements informatiques. Désormais, toutes les parties
prenantes ont les moyens de gérer la qualité des données en fonction de leurs propres besoins métiers.
Ainsi, en s’appuyant sur des avancées technologiques et des méthodologies éprouvées, les entreprises
peuvent gagner en efficacité opérationnelle et réduire les risques.
L’amélioration de la qualité des données de l’entreprise passe par la mise en place d’une initiative continue
et globale. Cet article a évoqué les concepts de qualité des données ainsi que son importance dans les
entreprises. Une mauvaise qualité des données coûte cher et conduit à des ruptures dans les processus,
à des décisions métiers moins pertinentes et à une gestion médiocre de la relation client. De plus, elle
peut invalider les efforts de l’entreprise en matière de conformité réglementaire. Il est recommandé
de s’adosser à un grand projet stratégique dans l’entreprise pour lancer une initiative autour de la
qualité des données. Mais cette initiative peut également être menée de façon indépendante. L’idée de
démarche de pérennité est essentielle et caractéristique de l’approche qualité. Elle va à l’encontre d’une
opération unique et isolée qui ne permet de nettoyer et d’améliorer les données que ponctuellement.
Cela signifie que les objectifs, mesures et indicateurs associés doivent être portés par l’ensemble
des acteurs concernés département informatique et directions métiers, doublés d’une implication
forte de la hiérarchie. La qualité des données concerne tout autant les métiers que l’informatique. La
réussite passe désormais par une approche de qualité de données globale. Plus elle sera incorporée
aux habitudes et à la culture de l’entreprise, plus la démarche qualité progressera. Paradoxalement,
son succès résidera dans sa banalisation. n
Bruno Labidoire
Directeur Technique
Bruno Labidoire est Directeur Technique chez Informatica pour l’Europe du Sud. Avant de rejoindre Informatica en 2002, il occupait
auparavant le poste de Directeur Avant-Vente pour l’Europe du Sud de l’offre CRM de Clarify. Il était chargé d’une équipe avant-vente
répartie sur la France, l’Espagne, et l’Italie. Avant de rejoindre Clarify, Bruno Labidoire a occupé différentes responsabilités dans les
domaines des serveurs Multimédia, CRM, et centres d’appels et, entre autres, responsable de projets chez Cap Gemini Telecom. Bruno
Labidoire est diplômé de l’Ecole Commerciale de la Chambre de Commerce et d’industrie de Paris.
Informatica Corporation (NASDAQ : INFA) est le leader mondial des fournisseurs indépendants de logiciels d’intégration de données.
La plate-forme Informatica constitue une offre complète, unifiée et ouverte pour les organisations. En intégrant toutes leurs sources
de données (applications traditionnelles, sources tierces, locales, distantes ou issues du Cloud computing), celles-ci tirent davantage
de valeur de leurs informations et renforcent leurs avantages concurrentiels. Plus de 3 900 entreprises dans le monde s’appuient sur
les solutions Informatica pour réduire les coûts et les délais de réponse à leurs besoins d’intégration et de qualité de données, quelles
qu’en soient l’échelle et la complexité. Pour plus d’informations, veuillez consulter le site www.informatica.com/fr
5e édition
5 et 6 mai 2010
CNIT - PARIS LA DEFENSE
En parallèle : Avec :
www.groupesolutions.fr
Comment réussir avec ITIL ?
On assiste depuis 10 ans à une montée en puissance d’ITIL. En 2004, moins de 30 % des DSI interrogées avaient
entendu parler d’ITIL, en 2007 la notoriété était de 87 % dans les DSI, et aujourd’hui toutes les DSI en ont entendu
parler, sans que cette notoriété ait toujours débouché sur des actions concrètes de mise en œuvre. De multiples
opinions se font entendre à propos d’ITIL, on entend parler d’échecs coûteux où des démarches ITIL se sont enlisées,
où des projets se sont avérés lourds, complexes, mal acceptés dans les DSI, et finalement inefficaces.
Cet article tentera de montrer comment des incompréhensions à propos de la véritable nature d’ITIL peuvent amener
à des utilisations inappropriées, des actions infructueuses, ressenties comme des échecs, quand elles contrarient la
qualité et la richesse d’ITIL par un usage inadéquat. Avant tout, il s’avère indispensable d’expliquer concrètement ce
qu’est ITIL, et surtout ce qu’ITIL n’est pas. Quelques recommandations seront détaillées pour favoriser des mises en
œuvre réussies.
ITIL signifie « Information Technology Infrastructure Library », Au-delà d’une présentation de ce qu’est ITIL, il est également
il s’agit d’une « bibliothèque » des métiers de l’infrastructure important de préciser, en quelque sorte « en creux », ce qu’ITIL
IT. Bibliothèque s’entend au sens de « conservation de la n’a jamais prétendu être.
documentation sur les métiers de l’Infrastructure ». Les objectifs
d’ITIL visent à documenter certaines des « meilleures pratiques »
en matière de gestion des services informatiques, afin de ITIL s’appuie sur les processus
constituer un standard de fait. ITIL concerne les activités liées
au support, à la production et à la maintenance. Il permet aux ITIL traite les questions d’organisation par l’angle des processus.
DSI de contractualiser avec les métiers sur le « bon » service Points communs aux approches processus, elles recherchent
(efficace, rentable, aligné sur les objectifs business…) et de le traditionnellement à identifier les « clients » de chaque processus
réaliser. ITIL a pour ambition d’apporter une forte valeur ajoutée (qui dit « client », dit qu’il a des objectifs, des attentes, des
à la DSI et à l’entreprise. besoins), ces approches raisonnent en processus et sous-
processus, activités et tâches (avec des vocabulaires variables
selon les différentes approches).
Historique et acteurs autour d’ITIL En conséquence, ITIL ne traite pas les questions d’organisation
par l’angle des structures organisationnelles (services,
ITIL a été créé dans les années 80, en Grande-Bretagne, départements, organigrammes…). ITIL ne traite pas non plus
par la Central Computer & Telecommunications Agency, une (jamais, nulle part dans la bibliothèque ITIL) la question de
agence du gouvernement britannique, avec pour objectif trancher quel « acteur » doit être en charge de telles activités ou
de recenser les bonnes pratiques en matière de gestion des opérations ou tâches. Comme toutes les approches processus,
infrastructures IT. Aujourd’hui, ITIL est devenu la propriété de ITIL est transverse aux organisations. Il ne faut pas s’attendre
l’OGC (Office Government of Commerce). Dans les années 90, à une aide d’ITIL sur la question de décider sur ces points. La
ITIL s’est répandu et consolidé, principalement en Grande- réponse à ces questions doit être prise en charge par l’entreprise
Bretagne, avec constitution du forum utilisateur ITSMF (IT elle-même. En effet, les réponses ne tomberont pas toutes faites
Service Management Forum), développements sous l’impulsion de la lecture de cette bibliothèque ITIL des bonnes pratiques.
de la mise en concurrence systématique des services internes
de l’administration britannique. En 2007, des mises à jour ont Un des intérêts majeurs du raisonnement par processus (plutôt
amené la sortie de la V3 d’ITIL. que par organisations) tient dans la possibilité d’aller au-delà
des problèmes liés à l’organisation en place, et de donner envie
Les principaux acteurs sont : aux opérationnels de travailler ensemble à la réussite d’un
l’OGC (Office Government of Commerce), l’Office public processus pour lequel chacun trouvera une motivation à son
britannique du Commerce, qui vise à travailler avec le secteur bon fonctionnement. En conséquence, dans le cours de toute
public comme catalyseur pour améliorer l’efficacité dans la méthodologie de mise en place d’ITIL, il s’avère indispensable
livraison des programmes et des projets. ITIL® et IT Infrastructure de disposer des points d’appui, des structures et des espaces
Library® sont des marques déposées de l’OGC. nécessaires (comités pour validation des décisions…) pour
ITSMF est un groupe d’utilisateurs, indépendant, et à but progresser sur le traitement de ces questions, dont ITIL fait le
non lucratif. ITSMF est le seul forum reconnu autour d’ITIL. choix (pertinent) que la réponse ne soit pas toute faite.
Il appartient et est animé par ses membres.
EXIN aux Pays-Bas, et ISEB (Information Systems Examination
Board) en Grande-Bretagne sont des contributeurs officiels, en Un recueil des meilleures pratiques,
charge de travaux de certification ITIL, organismes accrédités pas une norme
pour délivrer, après examen, les certifications.
Des acteurs privés (éditeurs, SSII, sociétés de conseil) ITIL recense et décrit de façon détaillée la compilation des
fournissent des logiciels, des services de conseil, et de meilleures pratiques, afin qu’elles soient réutilisables, pour
formation. éviter de réinventer les éléments qui sont présents dans la
bibliothèque. A contrario, ITIL ne prétend pas normaliser des
fonctionnements, interdire de procéder d’une manière ou d’une
autre. ITIL ne fixe pas de fonctionnement figé, il se cantonne
au rôle de collection (bibliothèque) d’éléments. Ces éléments
découlent de l’expérience accumulée et reflètent des pratiques
collégialement jugées bonnes par des promoteurs d’ITIL. Et qu’il
est donc bon de partager pour ne pas les réinventer, surtout
lorsqu’ils sont éprouvés depuis des années dans de nombreux
organismes.
ITIL v2 était constitué de 8 ouvrages pour décrire les processus alignant les services fournis avec le
besoin du business. Depuis la v3 des modifications ont été apportées et concernent : la structure
générale, l’introduction de nouveaux outils pour aider à l’implémentation et à la mesure des gains,
et l’introduction de nouveaux outils au niveau stratégique pour aider à promouvoir ITIL auprès des
responsables métiers en terme d’apport à la chaîne de valeur.
Les 5 ouvrages « cœur » du noyau ITIL v3 sont : Stratégie des Services (Service Strategy), Conception
des Services (Service Design); Transition des Services (Service Transition); Exploitation des Services
(Service Operation); Amélioration Continue des Services (Continual Service Improvement). Ces cinq
manuels de référence présentant les constituants de base de l’ITSM, selon l’approche du cycle de vie
des services. Une documentation complémentaire propose des cas particuliers ou des exemples, des
produits à valeur ajoutée, tels que des modèles et des schémas de flux de production.
Objectif : inscrire ITIL V3 dans la dynamique d’amélioration continue et surtout énoncer des conseils
pertinents pour des cas bien particuliers. De plus, l’efficacité opérationnelle se trouve au cœur de
cette nouvelle version. Dans ce sens, ITIL v3 fournit nombre d’éléments avisés : des conseils pour
être en conformité avec les diverses normes et réglementations en vigueur, des directives par secteur
d’activité et rubrique, de nouvelles rubriques concernant les stratégies de gestion des services (services
partagés, cosourcing et externalisation), un système de connaissance très développé favorisant la
gestion proactive des services.
Le sommaire type des données rassemblées à propos d’un processus, à l’intérieur de la bibliothèque
ITIL, rassemble les éléments suivants : Objectifs ; Périmètre ; Concepts de base ; Bénéfices/difficultés,
coûts ; Activités ; Rôle/responsabilités ; Métrologie, Indicateurs et tableaux de bord ; Outils ; Synthèse
et préconisations.
Les objectifs du processus permettent de cadrer le processus, le cadrage est précisé avec l’aide du
périmètre. Le paragraphe sur le périmètre fixe les limites du processus tels que vu par ITIL, et précise les
concepts, et fait la correspondance entre ITIL et la manière de s’y prendre au jour le jour dans telle ou telle
organisation. Les concepts de base permettent de clarifier des notions et du vocabulaire. Les Bénéfices /
Difficultés coûts servent à fournir une liste très opérationnelle d’axes de réflexion sur les enjeux objectifs
et résultats du processus tel qu’il a été cerné, et peuvent donner lieu à implantation concrète parmi les
indicateurs. Les activités permettent de suivre une décomposition logique (plutôt que normative ou
organisationnelle), telle que vue par la bibliothèque ITIL, des différentes activités à exercer à l’intérieur du
processus. Les rôles et responsabilités sont identifiés de manière générique, sans jamais qu’ITIL se mêle
de normaliser et de fixer à quel acteur au sein de l’entreprise devrait revenir telle ou telle responsabilité.
Le paragraphe sur la métrologie, les indicateurs et les tableaux de bord est rempli d’outils dans lesquels
l’entreprise peut piocher pour sa propre utilisation ; les outils sont un catalogue d’idées d’outils dont
l’implantation de certains peut se révéler astucieuse ; la synthèse et les préconisations permettent de
redonner plus de sens à la lecture des différents éléments épars du chapitre.
ITIL indique : les bénéfices et les problèmes possibles, le «comment faire en cible», mais pas le
«comment implémenter».
De nombreux outils progiciels sont présents sur le marché ITIL. Ces outils se sont bâtis pour apporter des solutions « d’informatisation »
de différents processus de l’entreprise, sur le domaine fonctionnel des services de la gestion des infrastructures : gestion du patrimoine
informatique et des inventaires, gestion des incidents et problèmes, gestion actions (interventions…) etc. Ces outils font état d’une
conformité avec ITIL. Celle-ci apporte une certaine garantie que des grands concepts issus du consensus sur la manière de voir et
la manière de faire sont pris en compte, et aussi une certaine garantie que les éléments présents dans la bibliothèque initialement
générée par ITIL sont présents.
En revanche, l’entreprise qui s’en remet au choix d’un outil informatique dit « ITIL » ne doit pas oublier que, comme dans tout projet,
même progiciel, l’adoption d’un outil même « ITIL compliant » ne résout pas à lui seul des questions d’organisation. L’entreprise doit
participer activement aux spécifications de paramétrage, qui l’obligent à répondre à des questions qu’il faut avoir clarifiées, et comme
pour tout projet informatique, l’outil est au service du processus et non le contraire. L’entreprise doit apporter sa participation à la recette
de l’outil paramétré, et vérifier que les données inventoriées sont accessibles, que les processus peuvent être suivis comme prévu
ITIL présente aussi quelques limites, qui découlent pour partie de Mieux vaut aussi éviter d’appliquer la totalité d’ITIL comme un
la construction de l’approche : son contenu relativement dense rouleau compresseur, et -au contraire- délimiter des objectifs
et détaillé est plutôt destiné aux opérationnels. Néanmoins, et un périmètre atteignables, et piocher dans la bibliothèque
un apprentissage est nécessaire pour « entrer » dans cette ce qui est applicable et pertinent.
documentation. Les préconisations ne sont pas toujours très
claires, et restent souvent à décliner par l’entreprise qui définira ITIL est un outil qui ne dicte pas les objectifs, ni les choix
ses priorités de mise en œuvre. d’organisation cible, et qui n’impose pas strictement la
démarche d’implémentation. Il nécessite de mobiliser les
Il est utile de passer par des quick wins adaptés de manière acteurs nécessaires, internes ou externes, qui ont suffisamment
fine et pertinente à l’entreprise, « découverts » et adoptés par de connaissances sur ITIL pour savoir en exploiter sa matière
les opérationnels eux-mêmes. Les quick wins peuvent découler avec un bon état d’esprit pour réussir. n
d’emprunts directs à la bibliothèque ITIL dans le texte, ou en
découler plus ou moins indirectement. Dans les deux cas,
l’entreprise tâchera de les relier à ITIL. La démarche mène au
succès lorsque les quick wins mis en œuvre sont associés à
ITIL, et lorsqu’on en attribue la paternité aux opérationnels de
la production. Cela favorise leur intérêt et leur appropriation du
contenu. Une manière aussi de convaincre les opérationnels du
bon usage et du caractère pragmatique, concret, et utilisable
d’ITIL. Par la suite, ils seront alors disposés à poursuivre sur Hugues Dieuzeide
d’autres chantiers d’évolution ou d’autres procédures de Directeur Associé
fonctionnement, dans le même état d’esprit…
Parmi les recommandations concrètes pour une méthode de Hugues DIEUZEIDE intervient notamment auprès de DSI pour aider à mettre en
mise en place, il faut veiller à rester pragmatique, à procéder œuvre des transformations. Il s’est appuyé à plusieurs reprises sur la bibliothèque
par étapes, avec des objectifs d’amélioration bien définis et ITIL lors de ces opérations de transformation de processus de la DSI.
bien délimités, à partir des problèmes réellement posés sur le
terrain et à résoudre. L’entreprise doit agir en priorité là où « ça ORESYS est une société de conseil en organisation et en S.I., de 250 consultants,
fait mal », là où il y aura des gains, pour assurer le succès par à Paris, Lyon et Bruxelles, spécialisée dans les projets de transformation. ORESYS
l’adhésion des opérationnels. Enfin, mieux vaut déployer un aide ses clients à piloter leurs activités, améliorer leur performance et mettre en
savoir-faire soutenu par un outil. Sans pour autant attendre que œuvre leurs projets de transformation. ORESYS intervient sur toutes les dimensions :
l’outil soit seul porteur du savoir-faire de l’entreprise. Un projet métiers, organisation, processus, système d’information, accompagnement du
ITIL réussi est porté et mené par les opérationnels. changement. ORESYS intervient de manière soutenue pour aider les DSI à transformer
leur organisation et leurs processus, ou à transformer l’entreprise.
Pour éviter déconvenues et déceptions, mieux vaut éviter
d’utiliser ITIL comme une norme. Au contraire, les décisions Site web : www.oresys.eu
de management appartiennent aux opérateurs de l’entreprise,
elles ne seront pas dictées par une norme plaquée de l’extérieur.
Quoi qu’il en soit, l’intérêt semble évident pour ce futur et encore mystérieux OS. Cela suffira-t-il ?… n
rt Business Development
IBM ne veut pas se faire semer sur la route du Cloud. Mi-mars, Big Blue a donc présenté une série d’outils et de ressources
estampillés « cloud de test et de développement ». Destinées à ses partenaires et à ses clients, ces solutions en ligne
devraient aider à réduire les dépenses des entreprises consacrées aux tests et développements, qui représenteraient
ment & Test Cloud - IBM Sma
une grande partie des ressources matérielles, utilisées à seulement 10-15 % de leurs capacités. Une réduction évaluée
à 50 % par IBM.
Cette offre « Smart Business Development & Test on the IBM Cloud », sensée compléter les datacenters des entreprises
et partenaires, aurait déjà séduit quelques clients comme Paypal, et de multiples partenaires. En outre, on retrouve des
extensions de type « Rational Software Delivery Services for Cloud Computing », un espace dédié « cloud computing » sur
IBM DevelopperWorks (8 millions de développeurs, informaticiens et étudiants), etc. L’offre présentée se décompose en
trois volets :
• « IBM Smart Business Development & Test Cloud » fonctionne comme un « cloud privé » derrière le pare-feu et repose
sur « Rational Software Delivery Services for Cloud Computing ». Bref, on cherche encore le Cloud…
IBM Smart Business Develop
• « IBM Smart Business Development & Test on the IBM Cloud » incarnerait une réelle offre, mode Cloud.
• « IBM CloudBurst », l’appliance préexistante regroupant matériel, logiciels et applications vient compléter le trio pour
donner l’impression dune suite « cohérente ».
Chaque offre peut effectivement présenter des intérêts spécifiques. Pourquoi absolument tenter de teinter en cloud ?
Bientôt, on ne dira plus surfer sur le Web, mais « vagabonder sur le cloud global ». Le marketing amène parfois à des
postures bien ridicules… n
Après rachat par Oracle, le dirigeant de Sun – Jonathan Schwartz – a « logiquement » été remercié. Il profite donc de
son temps libre pour s’activer sur son blog personnel avec un post intitulé « Ce que je ne pouvais pas dire.» Il défend
Google indirectement visé par Apple dans son attaque contre le téléphone Nexus One d’HTC sous Google Android
(http://jonathanischwartz.wordpress.com/2010/03/09/good-artists-copy-great-artists-steal/ : « les bons artistes copient,
les grands artistes volent »).
Si pagesjaunes.fr n’a pas à rougir de sa fréquentation avec plus de 80 millions de visites par mois, il se muscle dans la
course à la page affichée. Les multiples sites (11 pays, dont la France et les États-Unis) totalisaient environ 43 millions de
visiteurs uniques début 2010. n
Autre affaire judiciaire d’utilisation illégale de brevets, la société américaine VirnetX (spécialiste de la sécurisation des
communications IP) accuse Microsoft d’utiliser ses technologies de création et de gestion de VPN (Virtual Private Network,
ou réseau virtuel privé) dans Office Communications Server et dans Windows. Le 18 mars, une cour fédérale du Texas
condamnait le géant de Redmond à verser 105,8 millions de dollars de dommages et intérêts à VirnetX. Cependant,
Microsoft devrait interjeter appel de la décision.
Deux mois après sa sortie le 21 janvier 2010, Firefox 3.6 dépassait les 208 000
téléchargements. En outre, il a fallu attendre ce délai pour qu’une faille de sécurité
soit corrigée.
En revanche, tandis que les distributions Linux sont généralement gratuites, Red Star OS est commercialisé pour environ
5 dollars, et seul le coréen est disponible pour l’installation. L’étudiant russe confie que les Coréens ont encore du travail
pour parvenir à concurrencer Windows (XP, Vista/7). Objectif déclaré par les autorités au départ du projet.
On peut légitimement se demander si les développeurs n’ont pas installé quelques backdoors ou autres espions dans l’OS
gouvernemental. C’est pourquoi Microsoft continue à enregistrer un succès sans équivalent ! n
Les trop nombreuses mauvaises surprises, et factures délirantes, provoquées par l’internet mobile ont apparemment
ému la Commission européenne. Cette dernière a émis une directive obligeant depuis le 1er mars 2010 les opérateurs de
téléphonie mobile à plafonner les factures mobiles dans le cadre du roaming, c’est-à-dire dans le cadre de la surfacturation
d’un abonné par un opérateur mobile étranger.
Un peu brutale, la mesure prévoit de couper l’accès internet mobile aux utilisateurs qui dépasseraient le seuil, après
avertissement (à 80 % du maximum). Le plafond par défaut sera fixé à 50 euros.
CONFÉRENCE
“BUSINESS INTELLIGENCE”
Au programme :
▪ Vision IDC : évolution des besoins et des usages, enjeux et perspectives des solutions
d’informatique décisionnelle 2010 -2013, en France et en Europe.
▪ L’analyse prédictive, pour une meilleure anticipation dans le monde de l’après crise
INSCRIVEZ-VOUS GRATUITEMENT
>> SUR LE SITE : http://www.idc.fr/bi10
code invitation « ITX »
>> OU CONTACTEZ EDITH TRICHEUX
tel. : 01.56.26.26.91 etricheux@idc.com
ALM et agilité au cœur
des processus métiers
10 années ! C’est ce qu’il aura fallu pour faire entrer dans le vocabulaire commun de l’informatique l’acronyme ALM
pour Application Lifecycle Management, ou gestion du cycle de vie des applications. Les années 1999 et 2000 ayant
consommé une bonne partie des ressources et moyens informatiques pour pallier les éventuels « bugs de l’an 2000 »,
c’est à partir de 2000/2001 que le monde du développement logiciel a pris en compte de nombreux chantiers sensés
innover ou améliorer les techniques de développement traditionnelles. Et ce, à une échelle industrielle.
Stratégies métier et IT :
de l’importance d’être différent
Années 2000 : l’essor des IDE Un des points clés de l’agilité réside dans l’idée d’amélioration
continue, qui s’applique à tout type de projet, et à toute démarche
3ème étape (2010), que nous sommes en train de vivre et qui itérative. Dans le processus agile, généralement découpé en
illustre bien les principes fondamentaux de l’ALM : l’ensemble étape de courte durée, la première action à entreprendre à la
des équipes impliquées dans un projet embarque sur un fin d’un cycle (que l’on appelle « sprint ») consiste à dresser un
même pont, les équipes techniques, mais aussi métiers. Qualité état sur le déroulement du sprint qui vient de se terminer et
et agilité sont au cœur des processus de développement, d’analyser simplement et rapidement l’ensemble, afin d’améliorer
la convergence s’effectuant via des environnements de le fonctionnement de l’équipe, des outils et de l’organisation
développement collaboratifs (sorte de HUB) associés à des pour la prochaine étape.
serveurs de développements.
L’agilité a pour vocation l’amélioration continue et l’efficacité, en
passant par de petites étapes successives, de façon pragmatique
et adaptée aux équipes et ressources en place. Ce dernier point
est très important : il ne sert à rien de chercher à atteindre un
niveau d’agilité sur une grille de mesure quelconque, ou par
rapport à un niveau de maturité global. En revanche, Il est
pertinent, une fois identifiée votre situation vis-à-vis de l’agilité,
de déterminer quels leviers activer, et quelles solutions mettre
en place pour progresser et -in fine- franchir une étape. Si cela
se traduit par une progression sur un niveau de maturité, tant
2010 : l’ALM collaboratif mieux, mais là n’est pas l’essentiel.
François Merand
Platform & ALM Advisor
Division Plateforme
et Ecosystème
“ L’ E N T R E P R I S E C O L L A B O R A T I V E ”
Au programme :
▪ Vision IDC : état de l’art du marché, enjeux et perspectives 2013 des solutions de communication et de
collaboration
▪ Les réseaux sociaux d’entreprise : place à l’intelligence et la créativité collective
▪ L’entreprise 2.0 et ses clients :
- De nouveaux véhicules de communication et de commerce se développent. Comment accompagner ce
développement et en tirer parti ?
▪ Les apports technologiques pour soutenir l’essor de l’entreprise 2.0 :
- Le Cloud Computing pour optimiser la communication et la collaboration au sein des équipes et à
l’extérieur
- Quelles solutions de gestion des contenus web 2.0 ?
▪ Discours de clôture : les nouveaux et futurs usages de l’Internet en entreprise. Rupture
Internet et monde virtuel
Serge SOUDOPLATOFF, fondateur et président d’Almatropie, association vouée à la promotion des usages
d’Internet
▪ De nombreux retours d’expérience en matière d’usage du web 2.0 :
RATP, Suez environnement-Lyonnaise des Eaux, l’APEC, 2xmoinscher
Pour découvrir les mutations en cours, en comprendre les enjeux, usages et opportunités,
INSCRIVEZ-VOUS GRATUITEMENT
>> SUR LE SITE : http://www.idc.fr/entreprise20
code invitation « ITX »
>> OU CONTACTEZ EDITH TRICHEUX
tel. : 01.56.26.26.91 etricheux@idc.com
Anatomie de trois
ESB Open Source
JBoss ESB, serviceMix et OpenESB
Les avantages de cette architecture sont assez évidents : découplage des applications entre elles,
création de formats pivots dans l’entreprise… En outre, changer une application impacte uniquement
la modification des connecteurs EAI.
Application B
Application B
Application C
Application A
Application C
Application A
EAI :
Processus
Application D métier
Application E
Application D
Application E
Une question se pose alors : quelles sont les principales différences entre les ESB (Enterprise Service
Bus) et les EAI ?
• Les EAI ont en interne une approche qui oblige le passage par un point centralisé. L’intégration point
à point se retrouve entièrement dans l’EAI lui-même. Au contraire, les ESB ont une architecture dite
distribuée : le bus est implémenté dans différents systèmes et sur différentes machines.
• Les EAI n’utilisent pas ou peu de standards ouverts. Chaque EAI fait une implémentation propriétaire
de la gestion des messages. Ce qui limite les possibilités d’évolutions et pénalise la flexibilité dans
des systèmes hétérogènes. Au contraire, les ESB sont conçus à partir de standards tels que la
gestion des messages en java (JMS), XML, JCA (Architecture de composant standard J2EE), etc.
Cette approche de standards ouverts (open-standard) est une réponse de l’industrie du logiciel à une
double contrainte :
• celle des clients n’appréciant pas la sensation d’enfermement dans une solution propriétaire, et qui
refusait de l’adopter.
• celle du monde du logiciel libre qui a poussé vers ce type d’approche pour des raisons philosophiques,
liées à au choix des standards ouverts favorisant l’interopérabilité.
Pour permettre d’optimiser et de mettre en commun les meilleures pratiques (Design Pattern), des
initiatives ont été prises autour de modèles : les EIP ou Enterprise Integation Pattern (1). Le projet Apache
Camel est l’un des premiers projets open source à avoir intégré des composants standards (2).
En réaction à l’évolution du marché et à l’émergence d’offres basées sur des solutions open source,
tous les acteurs historiques de l’intégration disposent désormais de leurs offres « ESB ».
L’étude de trois solutions open source destinées aux entreprises (avec des offres de service et de
support) permet de comprendre les fonctions-clés d’un ESB. Cet article va donc détailler :
• la solution OpenESB (JCAPS 6) de Sun/Oracle,
• la solution Service Mix (Fuse ESB) de Progress Software,
• la solution JBoss ESB de JBoss/Redhat.
1) http://www.eaipatterns.com 2) http://camel.apache.org/
Comptabilité
Registry
Base
de données (LDAP)
Les applications du système d’informations ne doivent pas avoir connaissance les unes des autres.
De ce fait, lorsqu’une application appelle un service métier du type « passer une commande », cela
passe par l’ESB qui dirige l’appel vers la bonne application.
Conversion de protocole
Toutes les applications ne disposent pas d’une technologie qui leur permet aisément d’utiliser tous les
types de protocole de communication. Par ailleurs, le programmeur peut souhaiter utiliser le service
métier tel qu’il existe. Justement, l’ESB fournit une liste riche en protocoles supportés : webservice,
FTP, fichier, Soap, JMS, EDI, HL7, Edifact, Swift, etc.
Transformation du message
Application
Legacy
Application
Transformation Message
Chaque application possède son format de données. Pour interconnecter plusieurs applications,
l’ESB effectue des transformations de format de message. L’une des bonnes pratiques consiste à
développer un format pivot à travers toute l’entreprise et à créer des transformations pour chaque
application vers et depuis ce format pivot. Ceci évite de transporter un format propriétaire à travers
tout le système d’information.
Routage basé
sur du contenu Comptabilité
Standard
Suivant le contenu d’un message, le système destinataire peut changer. C’est pourquoi l’ESB propose
des composants de routage basé uniquement sur le contenu du message ou suite à l’appel d’une
application tierce pour identifier le destinataire. Ceci permet de faire évoluer le système d’information
(suivant le rythme des fusions/acquisitions des entreprises, par exemple) sans impacter toutes les
interfaces des différentes applications.
Marketing direct
Enrichissement Message Application
Commande
CRM
Dans de nombreux SI, l’information autour d’une même donnée est souvent présente dans plusieurs
applications. Sur un appel de service, l’ESB peut puiser des informations dans divers systèmes afin
d’enrichir la donnée dont l’application cible à besoin.
Ainsi (voir plus loin), dans OpenESB, associer un MDM (Master Data Management) permet de faciliter
le rapprochement des données en provenance de plusieurs systèmes.
Lorsque le système d’information est connecté à des systèmes externes, des authentifications/
cryptages de données sont nécessaires ainsi que de la transmission d’identification (type SSO). Les
ESB permettent nativement d’intégrer tous ces mécanismes dans toutes les étapes d’un flux.
Surveillance et supervision
Pour combler cette fonctionnalité, qui incarne une de leurs faiblesses, les ESB open source offrent
tous les outils nécessaires pour se connecter à des solutions externes.
Portail
IEP
MDM
Administration
Au cœur de la solution : le NMR (Normalized Message Router), bénéficie de l’approche JBI (Java Business
Integration) avec sa notion de composant pour les outils d’intégration. La spécification standardisée
JBI est implémentée par plusieurs ESB dont serviceMix et openESB.
Service Engine
Components register
the service they provide
Orchestration Transformation
J2EE Platform
(BPEL) (XSLT)
WSDL WSDL WSDL
System Management
JBI
Normalized Message Router Core
Services
J2EE Platform
Comme l’indique le schéma, ce bus permet d’interconnecter tous les composants JBI, qu’ils soient
fournisseurs ou consommateurs de messages. Une description type WSDL (Web Service Description
Language) est utilisée pour décrire l’interface du composant JBI.
Une des particularités de l’offre autour d’openESB tient dans la richesse des outils de développement
et de supervision.
Côté développement, les principaux composants graphiques n’ont rien à envier aux outils propriétaires.
De plus, tout se déploie depuis l’IDE vers un serveur d’application J2EE : local pour tous les serveurs, et
sur un serveur à distance s’il s’agit de Glassfish ESB (qui est un serveur Glassfish standard contenant
tous les composants d’exécution ESB).
• l’éditeur BPEL très riche permet de définir graphiquement les étapes ainsi que les mappings
d’affectation simple
• un éditeur de transformation XSLT (non graphique).
• un éditeur IEP (graphique)
• un éditeur d’application composite CASA
La solution GlassfishESB (OpenESB déployé sur un serveur d’application Glassfish) est la plus
aboutie dans le monde open-source, autant pour sa robustesse et sa fiabilité que pour ses fonctions
d’administration.
OpenESB profite de toutes les fonctionnalités d’entreprise de glassfish :
• performance : n serveur J2EE très performant et peu gourmand en mémoire ;
• fiabilité et robustesse : en mode haute-disponibilité (HA), Glassfish gère lui-même les réplications
de sessions et parmi celles-ci, il gère nativement la reprise sur incident (sur un cluster) ;
• en administration, la console dite « gwt-console » est étendue par des composants de l’ESB pour
ajouter des capacités d’administration et de supervision spécifiques aux composants déployés. Par
exemple, en mode console, le BPEL a le même mode de visualisation que sous Netbeans. Il permet
ainsi facilement de faire communiquer les équipes de production avec les équipes de développement
sur les mêmes visuels.
OpenESB met en avant une approche à base de service d’orchestration BPEL. Tous les exemples sont
basés dessus et la communication faite par Sun/Oracle porte principalement sur cette approche. Certes,
cette approche se justifie pour des processus d’orchestration complexes qui peuvent éventuellement
déboucher sur des interactions humaines. Toutefois, pour des flux plus simples avec des patterns
standards, il n’existe pas dans l’offre de solution concurrente à Apache Camel. On trouve bien un
composant JBI Camel avec son éditeur sous Netbeans, mais il n’est pas graphique et il faut coder en
fichier XML les flux réalisés avec Apache Camel.
Le futur d’OpenESB s’appelle Fuji. Celui-ci reposera sur des composants OSGI - Open Services Gateway
Initiatives (comme la version 3 de Glassfish) et sur Maven pour la partie développement. Il sera possible
de créer et de déployer des composants Fuji à partir de commandes Maven. Cela permettra d’utiliser
d’autres outils de développement que Netbeans.
OpenESB est un bon ESB, basé sur une architecture solide (JBI-NMR, Glassfish, gwt-console) et sur
un environnement de développement convivial (Netbeans) pour quelques composants standards
(BPEL, IEP). Malheureusement, les nombreux composants n’affichent pas tous le même niveau de
qualité et de fonctionnalité. Les deux principaux qui distinguent cette solution sont le composant de
transformation XSLT et le composant Apache Camel.
Malheureusement, Sun n’a jamais été très à l’aise avec les communautés open-source et peu apte à
réellement les animer. De nombreux composants existent, mais la communauté n’est pas très active
en dehors des salariés de Sun.
Les principaux contributeurs (développeurs) de ces projets open source sont salariés de Progress
Software. Dans la version supportée, Progress Software a ajouté deux autres produits :
• le plug-in Eclipse Fuse Integration Designer pour définir graphiquement définir des flux pour Apache
Camel
• et Fuse HQ qui permet d’ajouter des fonctions de supervision et d’administration au serveur Hyperic
HQ Enterprise.
Une démarche a été initiée afin d’étendre les normes OSGI (Open Services Gateway Initiatives), qui
viennent de l’industrie, au monde des serveurs J2EE. L’implémentation de référence de ces normes
est le serveur DMserver édité par la société SpringSource (il est à noter que cette dernière salarie
également une grande partie des contributeurs au projet Apache Tomcat). DMserver vient d’être cédé
à la fondation Eclipse sous le nom « Virgo ». Le projet Apache Karaf est une autre implémentation de
ces normes OSGI pour J2EE.
Dans sa version 4, ServiceMix repose sur l’approche composant OSGI. Il se déploie donc sur un serveur
OSGI type Apache Karaf.
Votre
composant JBI
ServiceMix
Components
JBI CXF Camel
Compatibility layer NMR NMR
Dans cette illustration, chaque élément de la configuration est un composant OSGI et l’ordre d’empilement
représente leur interdépendance.
Un des grands avantages de cette approche à base de composants OSGI tient dans la capacité à
déployer deux versions d’un même composant dans un même serveur. Il n’est ainsi plus nécessaire
de réaliser des migrations massives ou de lancer une instance de serveurs d’application pour chaque
version de composants.
De plus, l’approche de Fuse ESB diffère radicalement de celle retenue pour OpenESB. En effet, les
outils de développement sont basés sur Apache Camel, donc sur les patterns d’intégration d’entreprise.
Approche opportune puisque la plupart des flux d’intégration ne nécessitent pas de processus
d’orchestration comme BPEL, moins performant, car ils mettent en œuvre des mécanismes techniques
complexes comme la persistance. Il est toujours possible d’intégrer un moteur d’exécution BPEL de
la fondation Apache comme Apache ode.
L’outillage de développement est basé sur l’offre autour d’Eclipse (pour la partie BPEL, Webservice,
etc.) et sur l’offre Fuse Intégration Designer. Cette panoplie correspond bien à l’outillage de tout
développeur java/J2EE.
L’offre autour des outils de la fondation Apache est très active et est de plus en plus plébiscitée par les
entreprises, autant pour sa pertinence technique et fonctionnelle que pour ses performances :
• les choix techniques autour des composants OSGI et JBI ;
• les choix d’outillage de développement basé sur une approche EIP et non tout sur le BPEL ;
• performance : Progress Software affiche quelques références très impressionnantes auprès
d’entreprises qui gèrent plus de 20 000 transactions métiers par seconde avec la suite Fuse.
Le seul manque de cette offre est l’absence totale d’un moteur IEP/CEP. De son côté, la fondation
Eclipse développe un projet nommé swordfish (don de la société Sopera) qui se base sur serviceMix.
Ce projet vise à proposer améliorer et à simplifier les possibilités de déploiement, de supervision, etc.
Un projet malheureusement peu actif à ce jour…
Riche en événements…
JBoss ESB permet de réaliser toutes les transformations décrites pour les deux précédents ESB :
transformation de protocole et de message, sécurité…
L’approche de JBoss ESB est assez proche de celle d’Apache Camel. Il s’agit d’une suite d’actions
qui sont déclenchées suite à la réception d’un événement. La richesse des événements fournis en
standard est satisfaisante, et il est très simple de l’étendre. De plus, avec JBoss JBPM, il est possible
de déployer une l’orchestration de service ainsi que la gestion des corbeilles utilisateurs.
En couplant JBoss ESB et JBoss JBPM, il est possible d’orchestrer des processus métiers complexes.
JBoss JBPM gère la logique métier tandis que JBoss ESB fournit toute la pile technique pour se
connecter facilement en entrée ou en sortie aux applications externes.
Hormis l’éditeur JBPM très pratique, le développement s’effectue via fichier de paramétrage, et il
n’existe pas de designer graphique. Ce qui ne favorise pas la prise en main.
Une des lacunes importantes JBoss ESB est son manque d’intégration avec
JBoss Rules. Actuellement, l’intégration se fait uniquement sur l’appel du
moteur de règles pour réaliser des choix. Or, JBoss Rules dispose de trois
autres composantes qui pourraient être exploitées :
• Le moteur full BPMN2 avec son designer graphique sous Eclipse. Et il
s’agit de la seule offre open source (ou presque) sur ce sujet. Ceci permet
d’avoir des processus métiers très complexes avec des interactions
nombreuses, et dans un langage de description métier (BPMN2 fait partie
de la normalisation de l’OMG qui normalise également UML). De plus,
exécuté dans le moteur de règles, un processus peut-être interrompu
à tout moment. Cela permet une gestion élégante des exceptions
métiers.
• Un moteur IEP/CEP qui permet de mélanger des règles métiers d’une
manière temporelle. Cette fonctionnalité IEP/CEP est aussi présente
dans openESB. L’utilisation de JBoss Rules permet d’obtenir les mêmes
fonctionnalités, mais plus évoluées, car elles bénéficient de la richesse
d’un moteur de règles.
• Un outil de gouvernance et de référentiel des règles : Guvnor. Il permet de
stocker l’ensemble des artefacts (règles, IEP/CEP et processus BPMN2)
et ceci d’une manière versionnée. Il serait alors également possible de
stocker les autres artefacts de JBoss ESB et JBoss JBPM pour disposer
d’un réel référentiel d’entreprise.
Dans l’état actuel, JBoss ESB est une offre classique qui ne se distingue pas. Une bonne solution dont
l’approche trop classique ne favorise pas l’adoption. En revanche, l’ajout à cette offre de JBoss Rules
permet de concevoir une offre unique sur le marché.
OpenESB fait partie de la première catégorie et ServiceMix/JBoss ESB de la seconde. C’est pourquoi
OpenESB bénéficie d’une belle plate-forme qui se rapproche d’une offre commerciale classique avec
la maturité attendue d’un tel outil. Les deux autres sont à l’image de leurs communautés et de leur
niveau de maturité sur le sujet de l’ESB. ServiceMix comme JBoss ESB sont très utilisés dans leurs
versions communautaires, mais beaucoup moins dans leurs versions supportées, en France. Ces
projets attendent des contributions pour grandir.
Il convient de choisir l’outil le plus adapté à son approche du SI, à sa démarche et aux outils attendus :
• Les outils restent des outils. Les fonctionnalités sont plus importantes. Il importe de privilégier une
solution qui saura évoluer dans le temps. OpenESB se trouve dans cette catégorie : bons choix
technologiques, et fonctionnalités très correctes.
• Les outils doivent répondre aux besoins sur des sujets extrêmes comme la volumétrie, l’évolution
permanente des flux (ce qui va imposer de déployer plusieurs versions d’un même flux), etc. En un
mot, l’approche par composant comme OSGI est la solution à la modularité nécessaire. ServiceMix
avec tous les autres composants de la fondation Apache correspond alors parfaitement. Bien que
plus complexe à mettre en œuvre, la solution apporte la flexibilité indispensable.
• Pour une grande modularité dans les flux sans nécessité de l’approche par composant et peu
d’intérêt pour les standards, JBoss ESB incarne une bonne solution.
• L’ESB de la fondation Apache a un avenir clairement tracé vers des pratiques fidèles à l’avenir de
l’informatique.
• OpenESB suit les pas de ServiceMix. D’ailleurs, les mêmes choix de spécifications ont été effectués les
deux outils : JBI, OSGI et NMR ne sont que quelques exemples. OpenESB va rencontrer le problème
de stratégie qu’Oracle voudra adopter sur cet ESB. Il est probable qu’Oracle maintiendra une équipe
« core » developpeur. Une communauté sera à créer pour permettre à cet outil d’évoluer.
• L’ESB de JBoss/Redhat accuse certainement le plus de retard sur l’implémentation de ces
spécifications. Cela va même plus loin, car JBoss ne souhaite pas passer par les standards JBI
et NMR (OSGI sera implémenté dans la version 6 du serveur d’application JBoss). En revanche,
JBoss profite de la forte culture de ses communautés et possède quelques outils autour de son
ESB qui peuvent lui permettre d’innover vers des fonctions dont les autres solutions open source ne
disposent pas, comme le référentiel d’entreprise (avec Guvnor de JBoss Rules). Cela passera tout
de même par le respect de standard d’implémentation comme JBI et NMR pour faciliter l’écriture
de composant portable d’un ESB à l’autre. n
Nicolas Héron
Architecte J2EE, SOA et moteur de règle au sein du groupe Adéo, contributeur au projet drools
Un livre de plus sur la conduite de projet ? Oui et non ! En effet, très pratique, cet ouvrage se veut plutôt
un manuel d’accompagnement complet et opérationnel. Les auteurs restent précis et concrets et nous
épargnent leurs opinions et réflexions, trop souvent exposées sans aucun intérêt pour le lecteur dans
ce type de manuel.
Destiné aux informaticiens et chefs de projets, le livre présente de façon utile toutes les étapes d’un
projet en laissant chacun effectuer ses choix en connaissance de cause. Le lecteur appréciera l’approche
pragmatique et la description des outils conçus pour la conduite des projets. Assez logique lorsque l’on
sait que Brice-Arnaud Guérin est responsable des développements logiciels chez LexisNexis.
Schémas, tableaux détaillés, cas expliqué… le ton didactique est renforcé par la présentation de méthodes
de chiffrage, de planification, de gestion des risques, d’organisation fonctionnelle, etc. Les multiples outils
proposés peuvent être enrichis par des exemples à télécharger sur le site de l’éditeur. D’ailleurs, l’ouvrage
est disponible au format électronique sur le site d’ENI.
Le sous-titre donne le ton : « du BPM à la pratique du pilotage de processus ». S’appuyant sur des exemples
concrets, de nombreuses illustrations, des fiches pratiques et des recommandations de mise en œuvre, le
livre évite de tomber dans le piège de l’intellectualisation qui rend souvent le propos inintelligible et peu
opérationnel. L’auteur propose aussi des méthodes, des règles, des modèles et des supports pratiques
facilement réutilisables et adaptables.
massivement utilisés, ils restent encore parfois mal connus, spécialement du point de vue juridique.
De plus, leur mode de production, qui mêle de manière composite des communautés bénévoles et des
La particularité de tous ces logiciels est de préserver les libertés Sans rentrer dans chaque détail de cette affaire, rappelons
des utilisateurs. Ces derniers bénéficient de quatre libertés simplement que le 13 novembre 2000, la société EDU 4 était
fondamentales, formalisées par la Free Software Foundation déclarée attributaire du marché correspondant à l’appel d’offre
fondée en 1985 par Richard Stallman. Ils doivent pouvoir de l’AFPA portant sur le déploiement « d’espaces ouverts de
exécuter, étudier, redistribuer et améliorer le programme sous formation » (EOF) à travers la France, intégrant un matériel
licence libre. Or, le seul moyen informatique de garantir ces informatique multimédia, un réseau informatique associé, des
libertés revient à assurer l’accès au code source du programme logiciels de communication, de télétutorat et de pilotage ainsi
et pas seulement à son binaire, comme le font les éditeurs de que les ressources de produits pédagogiques. Au cours de
logiciels propriétaires. l’exécution de ce marché, diverses difficultés se sont révélées
et l’AFPA, qui s’estimait trompée, a sollicité la résolution du
Il est fondamental de comprendre que les logiciels libres marché.
s’opposent conceptuellement aux logiciels propriétaires, qui
restreignent les libertés de l’utilisateur, et non pas aux logiciels Aucun accord amiable n’ayant pu être trouvé entre les parties,
commerciaux. D’ailleurs, de nombreux logiciels libres sont – de l’AFPA a introduit une instance devant le Tribunal de Grande
fait – des logiciels commerciaux. Instance de Bobigny afin de faire résilier le contrat aux torts de
la société EDU 4. Bien que le Tribunal n’ait pas fait droit aux
demandes de l’AFPA et n’ait pas prononcé la résiliation du
L’open-source encadré par des licences marché, il n’a pas accordé à la société EDU 4 l’intégralité des
dommages-intérêts sollicités et cette dernière a, en conséquence,
Il existe deux catégories principales de licences libres ou open interjeté appel du jugement.
source.
D’une part, les licences « permissives » telles que les licences Contre toute attente, la Cour d’Appel de Paris a infirmé le
BSD ou X11 (aussi appelée MIT) qui n’imposent pas ou peu jugement dans son intégralité et prononcé la résolution du
d’obligations aux utilisateurs. Les logiciels qu’elles régissent marché aux torts de la société EDU 4.
peuvent notamment être incorporés dans des logiciels
propriétaires. L’AFPA sollicitait la résolution du marché au motif que le produit
D’autre part, les licences fondées sur la notion de « copyleft » livré par la société EDU 4 ne faisait pas mention de la présence
exigent que toute redistribution du logiciel concerné soit faite du logiciel libre VNC, publié sous licence GNU/GPLv2, lequel
sous la même licence ou une licence compatible, à l’exclusion avait été modifié, que les mentions relatives aux droits des
de toute licence propriétaire. La plus célèbre des licences libres auteurs de VNC avaient été supprimées pour être remplacées
est la licence GNU/GPL de la Free Software Foundation, qui par celles d’EDU 4, que le texte de la licence GNU/GPLv2 avait
régit par exemple le système GNU/Linux. également été supprimé, et que le mécanisme de protection de
VNC avait été modifié en introduisant un mot de passe connu
Cette notion de copyleft est centrale car c’est cette construction uniquement de EDU 4 et non modifiable.
juridique qui permet de garantir la pérennité des quatre libertés
précitées que l’auteur initial a souhaité accorder à l’ensemble La société EDU 4 contestait les allégations de l’AFPA, notamment
des utilisateurs. au motif que les corrections nécessaires devaient être réalisées
dans la version définitive de la solution devant être livrée.
Ainsi, un logiciel régi par une licence copyleft ne peut pas devenir
propriétaire. Il se crée alors un cercle vertueux de partage du code La Cour a prononcé la résolution du marché au motif que la
source informatique : si une personne profite du travail de tiers, la société EDU 4 avait manqué à ses obligations contractuelles en
contrepartie est que son travail sera ensuite utilisable par tous. livrant un produit « d’une part qui présentait pour les utilisateurs
Outre l’accès au code source et au maintien de ce dernier sous des EOF des risques d’atteinte à la vie privée, et d’autre part qui
une licence libre, il faut, pour respecter pleinement les termes de la ne satisfaisait pas aux termes de la licence GNU GPL puisque
licence, fournir une copie du texte complet et respecter les notices la société EDU 4 avait fait disparaître les copyrights d’origine
de copyright des auteurs précédents. Ces obligations s’appliquent de VNC sur les propriétés de deux fichiers en les remplaçant
immédiatement dès la distribution du logiciel, et envers tout tiers, par les siens et avait supprimé le texte de la licence. » La Cour a
quel que soit son statut juridique ou économique (entreprise, également relevé que le code source n’était pas fourni, ce qui
particulier, client payant, utilisateur à titre gratuit, etc.). constitue une autre violation de la licence.