Vous êtes sur la page 1sur 48

IT

LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE

Une entreprise peut-elle survivre


sans qualité de données globale ?
PAGE 6

Comment réussir avec ITIL ?


PAGE 16

ALM et agilité au cœur


des processus métiers
PAGE 28

Anatomie de trois ESB


Open Source :
PAGE 34
Bimestriel - mars/avril 2010

Le respect des licences libres :


les juridictions veillent PAGE 46
n°84
ZOOM OUTSOURCING

L’avis des Directions Informatiques

Ministère des Finances


Direction Générale des Impôts
Nadine Chauvière
Sous-Directrice des SI de la DGI

« Les solutions d’Application Intelligence


CAST nous aident à obtenir une meilleure
visibilité de notre parc applicatif au travers
de tableaux de bord composés d’indicateurs
techniques objectifs afin de faciliter le
dialogue avec les équipes et avec nos
maîtrises d’ouvrage. »

Groupe SFR Cegetel


Eric Eteve
Directeur Informatique
Centre Ingénierie Mobilité

« La solution CAST de gestion de la sous-


traitance est un élément clé dans le système
de pilotage mis en place par SFR-Cegetel
sur ses TMA. Nous avons constaté une
attention plus particulière apportée par les
SSII à la qualité des livrables et à la fiabilité
des chiffrages depuis qu’ils savent que nous
pouvons facilement les auditer. »

Framatome - Groupe AREVA


Michel Fondeviole
DSI de Framatome-ANP

« CAST fournit des critères objectifs


d’appréciation dans le dialogue parfois
difficile avec le sous-traitant ainsi que des
indicateurs nécessaires au suivi de l’évolution
des applications et constitue au sein de
Framatome un outil de progrès partagé. »

En savoir plus

Demandez le Livre Blanc rédigé par le


Gartner Group et CAST sur ce thème :
« Information Series on Application
Management » :
www.castsoftware.com/outsourcing

Découvrez l’expérience de plusieurs


sociétés utilisatrices de solutions
d’Application Intelligence :
www.castsoftware.com/customers
www.castsoftware.com

La maîtrise des applications


et des prestataires dans
une opération d’outsourcing
De la valeur ajoutée de l’Application
Intelligence pour piloter efficacement
un parc applicatif sous-traité

L
es entreprises, devenues plus une technologie avancée d’analyse de • Obtenir une image à l’instant t des
mûres vis-à-vis de l’outsourcing, code source. applications pour permettre un suivi
sont désormais capables d’opérer En fournissant des indicateurs techniques dans le temps
des externalisations plus stratégiques. On aux donneurs d’ordre, ces solutions Transfert vers le prestataire
l’a récemment observé dans l’automobile permettent de piloter un parc applicatif • Réduire la phase d’acquisition de la
avec Renault ou dans la grande distribution sous-traité en temps réel, tant en terme de connaissance pour entreprendre plus
avec Carrefour. qualité, que de maintenabilité et de coût. vite des tâches productives
Résultat : le donneur d’ordre conserve la • Diminuer le coût lié à la production
Dans l’externalisation des applications maîtrise intellectuelle de ses applications d’une documentation exploitable et
métier, c’est surtout la volonté d’accroître métier et le contrôle de la relation avec maintenable par le prestataire
l’efficacité opérationnelle de l’informatique son sous-traitant.
qui est motrice : pouvoir fournir plus Contrôle de la qualité et des coûts en
rapidement un service à valeur ajoutée La valeur ajoutée de ce type de cours de projet
aux utilisateurs et aux clients dans un solutions d’Application Intelligence est • Suivre l’évolution de la maintenabilité et
contexte en perpétuelle évolution. visible à chaque étape d’une opération de la qualité pour éviter toute dérive
d’outsourcing, comme décrit ci-après. • Etre capable de valider la quantité et
Comme dans n’importe quelle opération la qualité du travail facturé
d’outsourcing, le contrat liant le • Etre en mesure de challenger le
fournisseur est capital, en particulier les Appe
sous-traitant lors des négociations
trat ls d
SLAs. Néanmoins, les applications métier de
con 'off
res d’avenants
Fin
étant par nature soumises à de fréquents • Industrialiser les recettes techniques
changements en cours de contrat, les
Tran

Cycle de vie
sfert de

seuls SLAs se révèlent vite insuffisants Renouvellement de contrat, transfert ou


technique

pour garantir la qualité de service et éviter d'une opération ré-internalisation


connaissance
Recette

les dérives de coûts. d'Outsourcing • Déterminer et qualifier les écarts entre


s

la prestation prévue et les livrables


C’est là que le bât blesse : l’externalisation Co
recettés
ntr jet
pro
des applications métier occasionne un ôle
des
coûts Suiv
i de • Disposer des informations techniques
risque de perte rapide de savoir-faire caractéristiques du portefeuille
technologique et par conséquent critique. applicatif en fin de prestation
Vigilance et suivi sont de mise pour garder
le contrôle de la qualité de service et Le leader mondial de ce type de solutions
éviter les dépendances par nature Audit de l’existant et préparation des est d’ailleurs un éditeur français, CAST.
dangereuses. appels d’offres Reconnu par les analystes informatiques
• Déterminer les caractéristiques comme précurseur du marché, CAST
L’externalisation réussie d’applications techniques du portefeuille applicatif compte plus 500 comptes utilisateurs de
métier est donc le fruit d’une vision existant avant de le sous-traiter sa plate-forme d’Application Intelligence
anticipatrice partagée avec le prestataire. • Disposer d’informations de référence dans le monde.
Sont ainsi apparues des solutions dites pour évaluer les propositions des sous-
d’Application Intelligence, basées sur traitants

Publi-Reportage
édito
La vague Cloud ou le n’importe-quoi-tenant

IT
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE

Voilà donc le Cloud porté aux nues !


Après avoir été raillées, les Salesforce, Amazon,
Google et autres peuvent sourire. Et comment ! Tout
devient Cloud, même et surtout ce qui ne l’est pas ! Editeur
Press & Communication France
Chez l’un le « Cloud privé » (aberration sémantique) Une filiale du groupe CAST
a remplacé le datacenter, ou l’application hébergée 3, rue Marcel Allégot
92190 Meudon - FRANCE
sans rien changer, si ce n’est l’étiquette… Chez Tél. : 01 46 90 21 21
cet autre, le marketing, désolé de ne pas répondre Fax. : 01 46 90 21 20
http://www.it-expertise.com
au critère multitenant, invente le Cloud « mega-tenant », tout comme on Email : redaction@it-expertise.com
pourrait évoquer un lac sans eau et sans profondeur…
Rédacteur en chef
José Diz
Bref : la nébuleuse prend des formes plus que fantaisiste : sans Cloud Email : j.diz@it-expertise.com

point de salut ! Pourtant, le datacenter, l’infogérance, l’hébergement… et Directeur de publication


même les applications traditionnelles (on-premise) restent des solutions Aurélie Magniez
Email : a.magniez@it-expertise.com
pertinentes. Et cette situation risque de perdurer pendant quelques
longues années. Abonnements/Publicité
Email : abonnement@it-expertise.com

Le peuple aime détruire ses idoles. Les systèmes ouverts devaient Conception Graphique
Nicolas Herlem
anéantir les mainframes, qui se sont modernisés à marche forcée. Le Email : nico_freelance@yahoo.fr
Web 2.0 incarnerait le futur des applications alors que la virtualisation…
Parution
Bref, les technologies les plus porteuses seraient sensées prendre la IT-expert - (ISSN 1961-9855) est un journal
place de solutions en place. Pourtant dans un monde hétérogène, les édité 6 fois par an, par P&C France, sarl
de presse au capital de 60 976,61 e.
informaticiens savent qu’aujourd’hui mieux vaut miser sur une cohabitation
bien orchestrer que sur des ruptures. L’exemple des services Web n’est-il Avertissement
Tous droits réservés. Toute reproduction
pas là pour en témoigner ? intégrale ou partielle des pages publiées
dans la présente publication sans l’autori-
sation écrite de l’éditeur est interdite, sauf
dans les cas prévus par les articles 40 et
41 de la loi du 11 mars 1957. © 1996 P&C
France. Toutes les marques citées sont des
José Diz marques déposées.
Rédacteur en Chef Les vues et opinions présentées dans cette
publication sont exprimées par les auteurs
à titre personnel et sont sous leur entière
et unique responsabilité. Toute opinion,
conseil, autre renseignement ou contenu
exprimés n’engagent pas la responsabilité
de Press & Communication.

Abonnements
01 46 90 21 21

Vous pouvez vous abonner gratuitement


sur http://www.it-expertise.com/

4 IT-expert n°84 - mars/avril 2010


IT-expert n°84 - mars/avril 2010

Sommaire
6 Dossier
Une entreprise peut-elle survivre sans qualité de données globale ?
La multiplication des risques et des réglementations oblige à se poser la question de la
qualité de données. Directeur technique chez Informatica, Bruno Labidoire expose une
démarche complète permettant d’implémenter une telle politique. Dense et utile.

16 Technique
Comment réussir avec ITIL ?
ITIL par-ci, ITIL par-là… De quoi parle-t-on ? Sur un ton pédagogique et avec des
explications détaillées, ce dossier montre ce qu’est ITIL et ce qu’il n’est pas, pourquoi
il peut amener à des impasses, mais aussi comment il peut apporter beaucoup à
l’entreprise. A lire sans modération.

22 Actualités Internationales
Les informations marquantes d’éditeurs, de marchés, d’organisme
de standardisation, de débats en cours et de tendances.

28 Quoi de neuf docteur ?


ALM et agilité au cœur des processus métiers
Ce dossier apporte un éclairage de l’évolution de la gestion du cycle de vie des
applications (ALM pour Application Lifecycle Management) : des tâches séparant IT
et utilisateurs, aux IDE ajoutant tests et architecture, jusqu’au collaboratif qui posent
sur le même pont utilisateurs et IT.

34 Comment ça marche ?
Anatomie de trois ESB Open Source : JBoss ESB, serviceMix et OpenESB
Voyage au cœur du middleware, avec un exposé complet et sans concession sur
les ESB Open source, et leurs versions commerciales. Schémas, explications… un
panorama très détaillé.

45 Livres
Conduite de projets informatiques par Brice-Arnaud Guérin et Le management de
la performance par les processus par Dominique Thiault.

46 Rubrique à brac
Le respect des licences libres : les juridictions veillent
Un avocat spécialisé fait un point sur des décisions juridiques liées au logiciel libre,
qui ne dédouane pas les prestataires de leurs responsabilités. Ce spécialiste revient
sur des idées reçues : distinguer commercial et open source, vide juridique, etc. Très
instructif.

IT-expert n°84 - mars/avril 2010 5


Une entreprise
peut-elle survivre
sans qualité
de données globale ?
Dans le climat économique actuel, disposer des données de bonne qualité est une condition de survie pour les

entreprises. Pourtant, dans tous les secteurs, nombre d’organisations considèrent encore le manque de qualité des

données comme un problème mineur qu’elles traitent au coup par coup, et souvent dans l’urgence. Pour compenser

les défauts de leurs données, ces organisations inventent des moyens de contournement simples ou complexes.

Résultat : elles fondent la plupart de leurs décisions sur des informations peu fiables et incohérentes. Si l’on ajoute à

cela la multiplication des obligations de conformité réglementaire, les données apparaissent plus que jamais comme

un actif majeur de l’entreprise et la question de la qualité de données ne peut tout simplement plus être écartée.

6 IT-expert n°84 - mars/avril 2010


Dossier

Le risque rôde à tous les étages


En effet, il y existe un lien direct entre la qualité des données de l’entreprise et ses performances. Des
données de bonne qualité permettent à l’entreprise de rester compétitive et de continuer à avancer
dans un contexte économique perturbé. Pour opérer au maximum de son efficacité, être en conformité
avec le nombre croissant de règlementations, mieux gérer le risque, l’entreprise a besoin de données
de bonne qualité. Et ce, pas uniquement dans un département, mais partout et à tous les niveaux de
l’organisation, à l’intérieur et à l’extérieur des firewalls. Dans un tel contexte, la mise en œuvre d’une
véritable politique de qualité des données s’avère être un élément déterminant pour l’entreprise. La
direction générale et ses directions métiers pourront ainsi disposer d’une vision unifiée et exploitable
des informations, afin de prendre les bonnes décisions au moment opportun.

Les dangers de l’utilisation de données incorrectes


Dans le domaine des technologies de l’information, l’intégration et la réconciliation de données comptent
parmi les projets les plus inquiétants. En fait, il faut reformuler ce constat : ces projets deviennent vraiment
critiques lorsque l’intégration de données se passe mal. Parfois les données sont fausses dès le départ,
à cause d’erreurs faites par les utilisateurs dès la saisie, de façon accidentelle ou délibérée. Il arrive aussi
que les données soient bonnes au départ, mais qu’ensuite, déplacées d’une base de données ou d’un
système vers un autre, elles dérivent, qu’elles soient tronquées ou encore altérées. Les données peuvent
devenir obsolètes, ou encore faire l’objet de conflits internes, au sein d’une organisation – chacun se
cramponnant aux données le concernant, personne ne voulant partager, sans parler des risques de fraude
encourus lorsque l’on perd la visibilité sur ces données. De plus, le volume phénoménal de données que
l’entreprise produit chaque jour n’arrange rien. Les projets concernant les données peuvent mal tourner
de bien des façons.

Les dirigeants se méfient de leurs données

Une étude menée par PricewaterhouseCoopers (interviews réalisées auprès de dirigeants de grands
groupes internationaux pour le baromètre de gestion PricewaterhouseCoopers en 2008) révèle un
décalage important entre la compréhension claire de la valeur des données et l’utilisation réelle de celle-
ci pour générer de la valeur. Plus de 70 % des cadres interrogés estiment que les données constituent
l’un des actifs les plus précieux, mais seuls 40 % d’entre eux estiment les utiliser efficacement. Cela
peut laisser penser qu’il existe un décalage entre la valeur perçue des données et la valeur obtenue
par l’utilisation de ces dernières. L’entreprise n’a pas confiance dans les données au moment de
leur utilisation. En comblant le fossé entre perception de la valeur et valeur réelle des données, les
entreprises peuvent générer davantage de valeur à partir des données et remplir leurs objectifs en
matière de gouvernance, de risque et de conformité.

Multiplication des risques et des réglementations

La complexité du marché et des enjeux actuels ajoute de nouveaux risques que les entreprises doivent
identifier. Par exemple, à lui seul, le gouvernement américain a introduit 114 000 nouvelles règles et
réglementations pour les entreprises depuis 1981. Cette croissance exponentielle du risque et des
réglementations a atteint un point de rupture qui nécessite la mise en place de rapports réglementaires
s’appuyant sur des données fiables, pertinentes et de qualité.

De l’urgence d’une harmonisation globale

Au cours de leur analyse de la gestion des risques et de la conformité, les cadres dirigeants sont confrontés
à des incohérences et à des silos organisationnels en termes d’informations et de processus. Cela est
dû à l’absence d’une stratégie de gestion des données et à un manque d’information dans l’entreprise.
Il en résulte une duplication des technologies, une fragmentation des règles et des normes de qualité,
ainsi qu’un manque de cohérence pour accéder et fournir les données aux décideurs responsables.

IT-expert n°84 - mars/avril 2010 7


Avez-vous les moyens de la non-qualité ?

Depuis de nombreuses années, les DSI reconnaissent l’importance de la qualité des données comme
un élément fondamental de leur stratégie de gestion de l’information. Toutefois, il leur est difficile de
mettre en place les procédures et les programmes adéquats. Une étude (Accenture CIO survey – 2007)
montre qu’à ce jour seulement 16 % des entreprises ont mis en place un programme de qualité des
données. Cette dernière représente pourtant un enjeu critique pour l’entreprise dans les trois étapes
du cycle de vie des informations : lors de la saisie, au cours de transformations et des agrégations et
pendant l’analyse et la présentation des résultats. Une qualité de données insuffisante coûte très cher
à l’entreprise. En outre, elle conduit à une altération de la relation client, à des ruptures dans la chaine
logistique, à des décisions métiers moins pertinentes, voire pénalisantes. Des données défectueuses
invalident aussi les efforts de l’entreprise en matière de conformité réglementaire. Autant de handicaps
lourds de conséquences !

Cap sur la gestion de la qualité des données globale


Pour exploiter au mieux son capital de données, l’entreprise doit lancer une initiative de « qualité
des données ». Stratégique pour l’entreprise, ce programme doit être permanent et ne pas rester
une mesure isolée dans le temps. La qualité des données concerne de nombreuses fonctions
métiers et informatiques au sein de toute l’organisation. Elle nécessite de définir des processus
formels de qualité des données appliqués par la direction, qui permettent d’agir sur l’ensemble
des projets : de la standardisation des données, au profilage, en passant par le nettoyage, jusqu’à
l’enrichissement. Il faut définir des règles de gestion des données de l’entreprise, édictées pour garantir
la complétude, la conformité, la cohérence, l’exactitude, la non-duplication et l’intégrité des données.
Bref : un programme de gouvernance des données. Pour garantir son efficacité, ce programme
doit inclure un comité, un ensemble de procédures et leur plan d’exécution. Autour des données, le
programme doit mettre en pratique les contrôles de qualité des données et diffuser les bonnes pratiques.
Il est articulé autour de deux approches :
• Une approche proactive incluant les bonnes pratiques à appliquer. Quand de nouvelles données
sont générées, de nouveaux projets affectant les données sont lancés ou des actions de qualité
sont effectuées.
• Une approche réactive incluant les actions de correction de non-qualité, les actions de mise en
conformité suite à des nouveaux règlements, les actions d’intégration suite à la mise en œuvre des
nouvelles architectures orientées-services (SOA).

Les cinq étapes d’implémentation

La mise en œuvre d’une initiative de qualité de données fait intervenir des personnes, des processus et
des technologies. En s’appuyant sur une plate-forme de qualité de données et sur une méthodologie
d’implémentation, les entreprises peuvent construire des solutions de qualité de données de bout en
bout conformes aux réglementations en vigueur, réduire les ruptures de chaîne d’approvisionnement et
améliorer la pertinence des décisions prises par les équipes métiers. En mettant en place dès le début
des processus de gestion de la qualité de données bien définis, les entreprises exploitent d’autant plus
efficacement la solution de qualité de données que les divers services chargés de l’implémentation et
du contrôle de cette qualité le font dans le cadre des règles et des procédures définis pour l’ensemble
de l’entreprise.

8 IT-expert n°84 - mars/avril 2010


Dossier

La figure ci-dessous présente les cinq étapes à considérer lors du lancement d’une initiative de gestion
de la qualité de données :

Analyser
1. Identifier et mesurer
la qualité des données

5. Contrôler la qualité
des données par 2. Définir des règles et
rapports aux objectifs des objectifs de qualité
des données

3. Concevoir des
processus d'amélioration
de la qualité

Améliorer
Les entreprises ont besoin de produits et de pratiques optimisés pour soutenir un processus de qualité des données de bout en bout

Identification et mesure de la qualité des données - Première étape décisive, car la compréhension
du niveau initial de qualité des données constitue la base des règles et des processus que vous mettrez
en place. Le cadre des dimensions de la qualité de données est utilisé pour générer les paramètres
de mesure et les objectifs. Sans évaluation préalable, la capacité à mettre en œuvre une stratégie de
qualité de données efficace est sérieusement compromise. À plus long terme, l’évaluation permet
à l’entreprise de mesurer combien ces procédures à améliorer les informations et les résultats. Les
mesures et audits de qualité de données peuvent être appliqués à tous les domaines (données clients,
fournisseurs, produits, actifs, données financières, etc.), tant sur un champ particulier que sur la totalité
des bases utilisées dans l’entreprise et pour les échanges inter-entreprises.

Définition des règles métiers et des objectifs de qualité des données - La mesure de la qualité
de données repose essentiellement sur des règles métiers et sur des normes de données internes ou
externes. La phase suivante consiste donc pour l’entreprise à spécifier des règles métiers basées sur
les normes et les données de référence préalablement arrêtées. Le cadre des dimensions de la qualité
de données est utilisé pour générer les mesures et les objectifs des critères de réussite.

Conception de processus d’amélioration de la qualité - cette phase concerne la configuration


des processus de nettoyage et d’amélioration des données (c’est-à-dire les processus d’analyse, de
nettoyage, de normalisation, de rapprochement, de déduplication et de contrôle). Les plans d’amélioration
de la qualité de données sont le plus souvent créés par les équipes métiers, dans la mesure où ce sont
elles qui connaissent et comprennent le mieux ces informations.

Implémentation des processus d’amélioration de la qualité - Une fois les règles métiers de qualité de
données configurées, elles sont généralement déployées dans le cadre d’une stratégie d’intégration de
données plus large. Ces règles de qualité peuvent être activées au moment où les données entrent dans
une application ou lorsqu’elles sont déplacées entre des applications. Le déploiement et l’optimisation
des processus incombent aux équipes informatiques.

IT-expert n°84 - mars/avril 2010 9


Surveillance de la qualité des données par rapport aux objectifs - S’inscrivant dans le long terme,
cette phase implique la production et la diffusion de tableaux de bord et de rapports de tendances.
Les rapports permettent souvent aux utilisateurs d’explorer en détail les enregistrements de qualité
insuffisante. Chaque gestionnaire de données doit périodiquement examiner les enregistrements de
qualité insuffisante et lancer les actions correctives appropriées, celles-ci pouvant être manuelles
ou automatisées. La présence conjointe d’outils de reporting et de traitement des exceptions est
indispensable dans une solution globale destinée à supporter des programmes de conformité et de
gouvernance de données.

Quelles sont les données manquantes


Exhaustivité
ou inutilisables ?

Quelles sont les données enregistrées sous


Conformité
un format non standard ?

Quelles sont les valeurs de données qui


Cohérence
donnent des informations conflictuelles ?

Quelles sont les données incorrectes ou


Exactitude
obsolètes ?

Quels sont les enregistrements ou les


Duplication
attributs de données qui se répètent ?

Quelles sont les données manquantes


Intégrité
ou non référencées ?
Cadre de la dimension de la qualité des données

Vers une gouvernance des données

Dans l’initiative de qualité des données, l’entreprise définit son modèle de gouvernance, c’est-à-dire
son modèle de pilotage formalisé des personnes, processus et techniques pour faciliter la capacité à
s’appuyer sur les données comme un atout majeur de l’entreprise.

Implication de la direction générale et des directions opérationnelles


Pour lancer cette démarche, deux garanties de succès doivent être réunies : le sponsoring de la
direction générale, et l’implication de tous les acteurs. Il faut, pour convaincre la direction générale,
prendre le temps de mesurer l’impact de la non-qualité et surtout démontrer que la qualité est source
de compétitivité pour l’entreprise. Reste ensuite à faire preuve de pédagogie auprès des directions
opérationnelles. Le directeur général ou le directeur des opérations, propriétaire des données, ne
s’implique pas au quotidien dans la qualité des données. Cependant, il doit s’assurer que l’initiative
est lancée, et créer un comité de « qualité des données ».

10 IT-expert n°84 - mars/avril 2010


Dossier

Le comité de « qualité des données »


Le modèle de gouvernance doit comprendre une structure organisationnelle chargée de l’amélioration de
la qualité des données dans l’entreprise. Le comité de « qualité des données » est sous la responsabilité
d’un sponsor, généralement nommé par un membre de la direction générale qui gère l’initiative. Le
sponsor doit avoir une influence sur l’ensemble des directions métiers, et ce comité a la responsabilité
de la qualité des données de toute l’entreprise. Il définit objectifs et priorités, et s’assure que tous les
projets incorporent la gestion de la qualité des données dans leurs processus de saisie, de transformation
ou de restitution. Il s’assure également de la disponibilité des financements nécessaires à l’initiative. Il
se réunit régulièrement pour assurer le suivi sur la qualité, faire le point sur les actions d’amélioration,
et décider des nouvelles priorités.

Sponsor
Qualité
des Données

Steward Steward Analyste Opérations


Données Données Qualité Qualité
Ventes Marketing des Données des Données

Comité Qualité des Données

Ce comité est constitué d’experts issus des principales directions de l’entreprise, les data stewards. Ils
sont responsables de la définition et de la surveillance des mesures et des indicateurs de qualité des
données de leur domaine, et coordonnent les plans d’action d’amélioration des indicateurs. L’analyste
Qualité des Données est un professionnel de la DSI. Il met en application les règles métiers définies
par les stewards dans les outils de profiling et de nettoyage.

Le socle technologique le plus adapté

Après avoir convaincu la direction générale et les directions métiers de l’importance de la qualité des
données et mis en place la structure organisationnelle pour supporter l’initiative, il est temps d’évaluer
les solutions technologiques. Le choix de la plate-forme s’effectuera selon plusieurs critères comme
la puissance des fonctionnalités de profiling, de nettoyage, de rapprochement et de contrôle de la
qualité de données. Une plate-forme complète, ouverte, unifiée et économique, permettra d’accéder,
de découvrir, de nettoyer et d’intégrer des données de tous types. En outre, elle saura distribuer, dans
l’ensemble de l’organisation, des données fiables et pertinentes, partout et à tout moment. Étendre la
qualité de données au-delà d’un seul département, et à l’ensemble de l’entreprise, améliorera l’efficacité
opérationnelle ainsi que les performances de toute l’organisation.

Synchroniser les équipes métiers et informatiques

Malgré des investissements croissants dans les technologies de l’information, un nombre significatif
de projets informatiques n’apportent pas la valeur ajoutée attendue faute de fournir aux utilisateurs
les données les plus pertinentes.

IT-expert n°84 - mars/avril 2010 11


Jusqu’ici, trois problèmes compromettaient souvent la valeur des départements informatiques et
faisaient obstacle à la mise en œuvre d’initiatives pourtant critiques pour l’entreprise :
• des utilisateurs métiers dépendants des équipes informatiques pour obtenir les informations pertinentes
nécessaires à leur travail ;
• des utilisateurs métiers jugeant que les données qu’on leur fournit ne sont pas dignes de confiance
pour ce qu’ils souhaitent en faire ;
• des utilisateurs métiers n’ayant pas accès aux données en temps voulu et sous la forme appropriée.

Un grand zeste de SOA et de référentiel


Or, certaines solutions facilitent l’alignement entre les équipes métiers et informatiques en procurant
aux utilisateurs métiers les moyens de s’impliquer directement dans le processus de développement
informatique. Des plates-formes d’intégration et de qualité des données avancées aident les entreprises
à dépasser ces trois défis grâce à la collaboration entre l’informatique et les métiers, à la prise en
compte continue de la qualité de données et à des services de données basés sur une architecture
orientée-services (SOA).
Par exemple, certaines solutions du marché proposent des outils basés sur un navigateur pour les
analystes pour gérer la qualité des données à partir de l’interface familière d’un navigateur Web. Les
analystes peuvent ainsi directement spécifier leurs besoins métiers. La production automatique des
détails d’implémentation en générant automatiquement les règles et consignes d’implémentation
à partir des spécifications métiers permettent ensuite d’éviter les écarts résultant d’une mauvaise
traduction technique des besoins métiers. En implémentant un référentiel de métadonnées commun
sur lequel on s’appuie pour toutes les spécifications et objets, les analystes métiers et les développeurs
informatiques peuvent plus facilement communiquer et partager leurs travaux.

Des règles pour prendre les bonnes mesures


Il est désormais possible de spécifier des règles de qualité pour pratiquement toutes les données clients,
produits, actifs et données financières. Une fois définies, ces règles peuvent être réutilisées autant
que nécessaire, ce qui garantit la cohérence des informations entre les différentes applications. Des
outils unifiés à base de rôles des différentes parties prenantes attribuent à chacun la prise en charge
de la qualité des données qu’il connaît le mieux. Les tableaux de bord de qualité de données, les
outils simples destinés aux analystes et les outils de productivité mis à disposition des développeurs
permettent aux utilisateurs et analystes métiers, aux gestionnaires de données et aux développeurs
d’être directement impliqués dans la mesure et l’amélioration de la qualité de données. Une gouvernance
à base de règles réduit considérablement les coûts d’administration de systèmes en permettant une
gestion centralisée de toutes les règles de données.

Une collaboration en bonne intelligence


Au lieu de relever exclusivement de la compétence des départements informatiques, la qualité de
données peut ainsi être gérée conjointement avec les départements métiers. Les entreprises privilégieront
des solutions de qualité de données bénéficiant d’un socle technologique et d’une méthodologie qui
permettent aux équipes IT et métiers de travailler efficacement ensemble, de gérer les processus de
qualité de données dans toute l’entreprise et, ainsi, de garantir aux utilisateurs que toutes les données
sont complètes, cohérentes, exactes et actualisées, où qu’elles se trouvent dans l’entreprise.

Enjeu d’un centre de compétences en intégration de données

Sans la technologie appropriée, le coût prohibitif de la production de données pertinentes et fiables peut
avoir une incidence notable sur la capacité d’une organisation à atteindre ses objectifs. En adoptant une
approche de centre de compétences en intégration, les entreprises peuvent réduire davantage leurs
coûts d’acquisition, d’intégration et de nettoyage des données. Ce dernier (faisant parfois référence
au centre d’excellence en intégration) est un service partagé d’une entreprise, qui permet de réaliser
une intégration méthodique de données parmi les applications et les systèmes.

12 IT-expert n°84 - mars/avril 2010


Dossier

Un centre de compétences en intégration optimise les ressources rares, en combinant dans un même
groupe l’intégration de données, les compétences en qualité de données, les ressources et les processus.
Cela contribue à réduire les délais de livraison, ainsi que les coûts de maintenance et de développement,
tout en améliorant le retour sur investissement par la réutilisation de sources, d’interfaces d’applications
et de règles métiers codifiées. Les centres de compétences en intégration aident également à réduire
le nombre d’opérations redondantes au cours de l’intégration de données et du contrôle de la qualité
des données, en s’appuyant sur les réussites passées, plutôt que de recommencer intégralement à
chaque nouveau projet.

GfK : 1 700 fichiers sur 80 pays traités chaque mois Printemps

Nº 1 mondial du suivi et de l’analyse des biens techniques et Afin de mieux contrôler sa chaîne d’approvisionnement, sa
technologiques, GfK Retail and Technology s’appuie sur les relation avec les fournisseurs et la gestion de ses magasins,
informations de milliers de points de vente de détaillants, de le groupe Printemps a choisi de standardiser son ERP. De
revendeurs et de distributeurs répartis dans plus de 80 pays, nombreuses solutions propriétaires et hétérogènes coexistaient
pour proposer des études de marché et un suivi des ventes de ce qui entraînait des difficultés pour le pilotage de ses activités.
biens durables et culturels. L’exactitude des données est une Les magasins rencontraient également des difficultés pour
priorité. Intégrant seulement 50 fichiers par mois il y a presque assurer la bonne intégrité des données entre les différents
dix ans, GfK Retail and Technology France en traite aujourd’hui systèmes. Une simple erreur de codes-barres EAN, par exemple,
1 700. Avec l’augmentation des données complexes, l’analyse a un impact direct sur la reconnaissance des produits en entrepôt
de la cohérence d’un fichier et de son contenu deviennent et donc sur les délais de réapprovisionnement et la qualité des
un challenge. En déployant une solution d’intégration et de services pour ses clients. La chaîne de grands magasins a donc
qualité des données, cette société peut consulter, nettoyer, choisi de profiter d’un projet de migration de données pour
intégrer et distribuer rapidement des données fiables à la améliorer la qualité des données relatives à ses 3,5 millions de
fois en interne (dans les bases de données et applications de références. La migration s’effectuera de son ERP « maison »
l’entreprise utilisées par environ 3 000 employés) et vers les Sésames vers l’ERP de SAP d’une manière progressive afin de
systèmes des clients. Des données de tous fichiers, documents nettoyer systématiquement les données qui seront injectées
ou messages (quels que soient leur format, leur complexité et dans SAP.
leurs tailles) peuvent êtres extraits, puis transformés dans un
format exploitable. Le tout, en réduisant les délais d’agrégation Dès le début du projet de migration, une solution améliorant la
de l’ensemble des données de façon spectaculaire. qualité des données est implémentée. L’une des fonctionnalités
a suscité un vif intérêt : un module facilitant l’implication des
Les bénéfices sont multiples avec le lancement accéléré de équipes métiers. Première phase : la reprise des données pour
nouveaux services d’étude de marché, l’augmentation du chiffre la migration SAP. Seconde phase : le maintien d’une cellule de
d’affaires, l’accélération des délais d’agrégation de données qualité des données, afin de pérenniser l’effort pour maintenir
(+ 400 %), la réduction de 75 % des ressources de développement, une qualité de haut niveau. Un jeu d’indicateurs très concrets
la réduction de 80 % du nombre d’erreurs et l’amélioration progressivement enrichis a été défini d’emblée, afin d’évaluer
continue de la qualité des données globale. L’automatisation de la performance en termes de qualité des données.
la résolution d’incidents a réduit considérablement les erreurs
devenues rares. Les gains de productivité sont considérables. En automatisant autant que possible la résolution d’incidents
Grâce à la simplicité de l’environnement fourni par la plate-forme avec des interfaces web de résolution générées en cas de
d’intégration et de qualité de données et ses fonctions de profiling rejet de données pour non-conformité ou ambiguïté, le groupe
de données, les délais d’intégration ont en moyenne été divisés Printemps réduit les risques liés à ce type de projets. Effet
par deux chaque année. Ce qui prenait auparavant 8 heures immédiat : l’accélération de la standardisation des processus.
est désormais réalisé en seulement 20 minutes. La plate-forme Avec un ERP et une plate-forme d’intégration et de qualité
d’intégration et de qualité des données permet de traiter des de données standards, Printemps pourra désormais mieux
données particulièrement difficiles à catégoriser et à comparer. contrôler sa chaîne d’approvisionnement et sera en mesure
En consolidant plus rapidement un volume croissant de sources d’assurer une meilleure traçabilité des produits commercialisés.
de données plus complexes, GfK Retail and Technology France Au final, Printemps offre un meilleur service à ses clients, atout
est ainsi en mesure d’accélérer le lancement de nouveaux fondamental dans le secteur de la distribution.
services et donc d’accroître ses revenus.

IT-expert n°84 - mars/avril 2010 13


Le problème de qualité des données peut devenir un atout

Le monde des affaires se caractérise par des changements continuels et par des tendances fortes telles
que la mondialisation, les fusions et acquisitions et l’externalisation des processus métiers. Alors que le
temps ne joue pas en faveur de l’entreprise, ces facteurs compliquent davantage la gestion des risques.
Certains aspects de la gestion des risques, tels que la détection des fraudes et les mesures contre
le blanchiment d’argent, ne tolèrent aucun retard dans l’extraction des données ni de s’appuyer sur
des données obsolètes. Pour y faire face, les personnes chargées de prendre de mesures immédiates
doivent pouvoir accéder et diffuser plus rapidement les données métiers critiques, afin de protéger les
employés et les actionnaires. Les entreprises peuvent disposer aujourd’hui de données fiables grâce
à l’omniprésence des services de qualité de données. Jusqu’ici, les initiatives de qualité de données
relevaient de la seule responsabilité des départements informatiques. Désormais, toutes les parties
prenantes ont les moyens de gérer la qualité des données en fonction de leurs propres besoins métiers.
Ainsi, en s’appuyant sur des avancées technologiques et des méthodologies éprouvées, les entreprises
peuvent gagner en efficacité opérationnelle et réduire les risques.

Une fois mise place, l’opération doit devenir un réflexe continu

L’amélioration de la qualité des données de l’entreprise passe par la mise en place d’une initiative continue
et globale. Cet article a évoqué les concepts de qualité des données ainsi que son importance dans les
entreprises. Une mauvaise qualité des données coûte cher et conduit à des ruptures dans les processus,
à des décisions métiers moins pertinentes et à une gestion médiocre de la relation client. De plus, elle
peut invalider les efforts de l’entreprise en matière de conformité réglementaire. Il est recommandé
de s’adosser à un grand projet stratégique dans l’entreprise pour lancer une initiative autour de la
qualité des données. Mais cette initiative peut également être menée de façon indépendante. L’idée de
démarche de pérennité est essentielle et caractéristique de l’approche qualité. Elle va à l’encontre d’une
opération unique et isolée qui ne permet de nettoyer et d’améliorer les données que ponctuellement.
Cela signifie que les objectifs, mesures et indicateurs associés doivent être portés par l’ensemble
des acteurs concernés département informatique et directions métiers, doublés d’une implication
forte de la hiérarchie. La qualité des données concerne tout autant les métiers que l’informatique. La
réussite passe désormais par une approche de qualité de données globale. Plus elle sera incorporée
aux habitudes et à la culture de l’entreprise, plus la démarche qualité progressera. Paradoxalement,
son succès résidera dans sa banalisation. n

Bruno Labidoire
Directeur Technique

Bruno Labidoire est Directeur Technique chez Informatica pour l’Europe du Sud. Avant de rejoindre Informatica en 2002, il occupait
auparavant le poste de Directeur Avant-Vente pour l’Europe du Sud de l’offre CRM de Clarify. Il était chargé d’une équipe avant-vente
répartie sur la France, l’Espagne, et l’Italie. Avant de rejoindre Clarify, Bruno Labidoire a occupé différentes responsabilités dans les
domaines des serveurs Multimédia, CRM, et centres d’appels et, entre autres, responsable de projets chez Cap Gemini Telecom. Bruno
Labidoire est diplômé de l’Ecole Commerciale de la Chambre de Commerce et d’industrie de Paris.

Informatica Corporation (NASDAQ : INFA) est le leader mondial des fournisseurs indépendants de logiciels d’intégration de données.
La plate-forme Informatica constitue une offre complète, unifiée et ouverte pour les organisations. En intégrant toutes leurs sources
de données (applications traditionnelles, sources tierces, locales, distantes ou issues du Cloud computing), celles-ci tirent davantage
de valeur de leurs informations et renforcent leurs avantages concurrentiels. Plus de 3 900 entreprises dans le monde s’appuient sur
les solutions Informatica pour réduire les coûts et les délais de réponse à leurs besoins d’intégration et de qualité de données, quelles
qu’en soient l’échelle et la complexité. Pour plus d’informations, veuillez consulter le site www.informatica.com/fr

14 IT-expert n°84 - mars/avril 2010


EXPOSITION - CONFÉRENCES - ATELIERS

Réduisez vos coûts télécoms,


gagnez en productivité et
bénéficiez de toutes les applications sur IP !

5e édition

Intranet 2.0 : découvrez toutes les solutions


de partage d’information et de collaboration.

5 et 6 mai 2010
CNIT - PARIS LA DEFENSE
En parallèle : Avec :

pour visiter et vous inscrire aux conférences :

www.groupesolutions.fr
Comment réussir avec ITIL ?
On assiste depuis 10 ans à une montée en puissance d’ITIL. En 2004, moins de 30 % des DSI interrogées avaient

entendu parler d’ITIL, en 2007 la notoriété était de 87 % dans les DSI, et aujourd’hui toutes les DSI en ont entendu

parler, sans que cette notoriété ait toujours débouché sur des actions concrètes de mise en œuvre. De multiples

opinions se font entendre à propos d’ITIL, on entend parler d’échecs coûteux où des démarches ITIL se sont enlisées,

où des projets se sont avérés lourds, complexes, mal acceptés dans les DSI, et finalement inefficaces.

Cet article tentera de montrer comment des incompréhensions à propos de la véritable nature d’ITIL peuvent amener

à des utilisations inappropriées, des actions infructueuses, ressenties comme des échecs, quand elles contrarient la

qualité et la richesse d’ITIL par un usage inadéquat. Avant tout, il s’avère indispensable d’expliquer concrètement ce

qu’est ITIL, et surtout ce qu’ITIL n’est pas. Quelques recommandations seront détaillées pour favoriser des mises en

œuvre réussies.

16 IT-expert n°84 - mars/avril 2010


Technique

ITIL, kesako ? Ce qu’est ITIL et ce qu’il n’est pas

ITIL signifie « Information Technology Infrastructure Library », Au-delà d’une présentation de ce qu’est ITIL, il est également
il s’agit d’une « bibliothèque » des métiers de l’infrastructure important de préciser, en quelque sorte « en creux », ce qu’ITIL
IT. Bibliothèque s’entend au sens de « conservation de la n’a jamais prétendu être.
documentation sur les métiers de l’Infrastructure ». Les objectifs
d’ITIL visent à documenter certaines des « meilleures pratiques »
en matière de gestion des services informatiques, afin de ITIL s’appuie sur les processus
constituer un standard de fait. ITIL concerne les activités liées
au support, à la production et à la maintenance. Il permet aux ITIL traite les questions d’organisation par l’angle des processus.
DSI de contractualiser avec les métiers sur le « bon » service Points communs aux approches processus, elles recherchent
(efficace, rentable, aligné sur les objectifs business…) et de le traditionnellement à identifier les « clients » de chaque processus
réaliser. ITIL a pour ambition d’apporter une forte valeur ajoutée (qui dit « client », dit qu’il a des objectifs, des attentes, des
à la DSI et à l’entreprise. besoins), ces approches raisonnent en processus et sous-
processus, activités et tâches (avec des vocabulaires variables
selon les différentes approches).

Historique et acteurs autour d’ITIL En conséquence, ITIL ne traite pas les questions d’organisation
par l’angle des structures organisationnelles (services,
ITIL a été créé dans les années 80, en Grande-Bretagne, départements, organigrammes…). ITIL ne traite pas non plus
par la Central Computer & Telecommunications Agency, une (jamais, nulle part dans la bibliothèque ITIL) la question de
agence du gouvernement britannique, avec pour objectif trancher quel « acteur » doit être en charge de telles activités ou
de recenser les bonnes pratiques en matière de gestion des opérations ou tâches. Comme toutes les approches processus,
infrastructures IT. Aujourd’hui, ITIL est devenu la propriété de ITIL est transverse aux organisations. Il ne faut pas s’attendre
l’OGC (Office Government of Commerce). Dans les années 90, à une aide d’ITIL sur la question de décider sur ces points. La
ITIL s’est répandu et consolidé, principalement en Grande- réponse à ces questions doit être prise en charge par l’entreprise
Bretagne, avec constitution du forum utilisateur ITSMF (IT elle-même. En effet, les réponses ne tomberont pas toutes faites
Service Management Forum), développements sous l’impulsion de la lecture de cette bibliothèque ITIL des bonnes pratiques.
de la mise en concurrence systématique des services internes
de l’administration britannique. En 2007, des mises à jour ont Un des intérêts majeurs du raisonnement par processus (plutôt
amené la sortie de la V3 d’ITIL. que par organisations) tient dans la possibilité d’aller au-delà
des problèmes liés à l’organisation en place, et de donner envie
Les principaux acteurs sont : aux opérationnels de travailler ensemble à la réussite d’un
l’OGC (Office Government of Commerce), l’Office public processus pour lequel chacun trouvera une motivation à son
britannique du Commerce, qui vise à travailler avec le secteur bon fonctionnement. En conséquence, dans le cours de toute
public comme catalyseur pour améliorer l’efficacité dans la méthodologie de mise en place d’ITIL, il s’avère indispensable
livraison des programmes et des projets. ITIL® et IT Infrastructure de disposer des points d’appui, des structures et des espaces
Library® sont des marques déposées de l’OGC. nécessaires (comités pour validation des décisions…) pour
ITSMF est un groupe d’utilisateurs, indépendant, et à but progresser sur le traitement de ces questions, dont ITIL fait le
non lucratif. ITSMF est le seul forum reconnu autour d’ITIL. choix (pertinent) que la réponse ne soit pas toute faite.
Il appartient et est animé par ses membres.
EXIN aux Pays-Bas, et ISEB (Information Systems Examination
Board) en Grande-Bretagne sont des contributeurs officiels, en Un recueil des meilleures pratiques,
charge de travaux de certification ITIL, organismes accrédités pas une norme
pour délivrer, après examen, les certifications.
Des acteurs privés (éditeurs, SSII, sociétés de conseil) ITIL recense et décrit de façon détaillée la compilation des
fournissent des logiciels, des services de conseil, et de meilleures pratiques, afin qu’elles soient réutilisables, pour
formation. éviter de réinventer les éléments qui sont présents dans la
bibliothèque. A contrario, ITIL ne prétend pas normaliser des
fonctionnements, interdire de procéder d’une manière ou d’une
autre. ITIL ne fixe pas de fonctionnement figé, il se cantonne
au rôle de collection (bibliothèque) d’éléments. Ces éléments
découlent de l’expérience accumulée et reflètent des pratiques
collégialement jugées bonnes par des promoteurs d’ITIL. Et qu’il
est donc bon de partager pour ne pas les réinventer, surtout
lorsqu’ils sont éprouvés depuis des années dans de nombreux
organismes.

IT-expert n°84 - mars/avril 2010 17


ITIL n’est pas exhaustif, loin de là ! Dans des expériences réussies dans l’entreprise. Et, pendant certaines phases de réflexion ou
de mise en place de principes ITIL on observe fréquemment des durant au cours de la transformation, l’entreprise adoptera les
actions qui vont au-delà de ce que la bibliothèque commune concepts induits par le vocabulaire, et parfois le vocabulaire
propose. Cela ne retire aucun mérite à cette bibliothèque qui induit par ITIL. Ce vocabulaire commun est un facteur facilitant
n’a pas pour vocation d’imposer son contenu , mais d’éviter de l’intégration de contributeurs qui proviennent de différents
réinventer de multiples éléments qui y sont déjà présents. horizons. ITIL induit des concepts précis, pas toujours en
phase avec le vocabulaire employé au jour le jour dans une
entreprise. Par exemple, ITIL distingue clairement la notion
Fournir des services en soulignant les relations d’incident de la notion de problème. Dans certains cas, il faut faire
avec les clients rejoindre les concepts d’ITIL et les concepts de l’entreprise. Les
concepts d’ITIL résultent d’une manière de voir les processus
La bibliothèque ITIL est décomposée selon des processus. La de service, vision partagée de façon consensuelle par de
philosophie de la présentation consiste à toujours repartir des multiples organisations, et dans laquelle la vision du service
notions de service au client, d’aligner les processus par rapport est fermement implantée. Les concepts employés dans une
aux résultats attendus, aux attentes, aux besoins et objectifs des entreprise proviennent souvent de processus résultant de
clients du processus. À titre d’illustration, dans chaque chapitre l’empilement au fil des années de modes de fonctionnement.
ITIL on trouve des listes d’indicateurs clés de performance Cela peut aider à se poser plusieurs questions. Par exemple
(Key Performance Indicators KPI), dont la liste s’avère souvent aujourd’hui une entreprise A utilise 3 notions, celles de « dossiers
précieuse. Parmi la liste de KPI dans la bibliothèque, plusieurs client », « dossiers back-office » et « dossiers correctifs ». Alors,
indicateurs sont déjà identifiés à l’intérieur de l’entreprise. Souvent, laquelle correspond réellement à la notion d’incident, ou à la
ils sont déjà mesurés ou bien déjà identifiés comme importants à notion de problème ? Laquelle est à cheval entre les deux ?
calculer (par ex. pour une entreprise X le pourcentage d’incidents Quelles modifications trouvera l’entreprise A pour clarifier
résolus dans les temps contractuels), les voir dans la liste des et fluidifier sa manière de prendre en charge les incidents et
KPI ITIL conforte l’entreprise X sur la réalité de leur importance problèmes ? Etc.
pour de nombreuses entreprises de tous les pays. Pour d’autres
indicateurs, l’entreprise X n’avait pas imaginé les calculer : pour un
indicateur qui ne semble pas avoir d’intérêt (par ex. coût moyen Pas une démarche uniforme,
de traitement d’un Incident), l’entreprise X en trouve un autre ni une méthodologie toute faite
qui résulte d’un angle de vue particulier, auquel elle n’avait pas
pensé auparavant (par ex. pourcentage d’Incidents fermés par le Il ne suffit pas de décréter que l’on va mettre en œuvre ITIL, pour
centre de services sans support extérieur), et dont la mesure va se doter d’une méthode ou une démarche. Avant de mettre en
lui permettre de mieux perfectionner son service rendu. œuvre ITIL dans une organisation, il lui faut définir proprement
quels objectifs concrets elle cherche à atteindre (cela peut être
de réparer un processus qui semble « cassé », d’améliorer tel
ITIL contribue à une démarche qualité niveau de service, de mobiliser les équipes autour de la résolution
de difficultés liées à un processus, de gagner en efficacité sur
ITIL est en phase avec les démarches qualité, avec les un sujet…). Ensuite, il convient de déterminer les meilleures
représentations processus telles qu’on les trouve dans Six Sigma démarches à mettre en place (ampleur des moyens, délais…)
(par exemple, la bibliothèque ITIL reprend à son compte un schéma pour atteindre ces objectifs. Certains passages d’ITIL abordent
très proche de celui du SIPOC de Six Sigma pour Supplier-Input- ces questions, mais on observe souvent que les opérationnels
Processus-Output-Client). Comme ces démarches qualité en survolent ces passages d’ITIL qui ne leur sont pas forcément
général, ITIL contient également les processus d’amélioration destinés, mais intéressent plutôt les décideurs. Malgré leur
continue. À l’opposé d’autres démarches qualité et d’amélioration pertinence, les lignes générales de ces chapitres ne sont pas
continue, qui sont volontairement conçues pour être adaptables toujours applicables. Elles mélangent du bon sens (fixer des
dans de très nombreux cas de figure et qui héritent d’emblée, par objectifs, mettre en place les moyens de mesurer leur atteinte…)
construction, d’un fort niveau d’abstraction. ITIL est centré sur des notions un peu abstraites (créer une vision...), et des éléments
les services de l’infrastructure de l’IT, et la bibliothèque fourmille qui résultent de l’effet collection ou bibliothèque (Business Case,
d’exemples dont l’application concrète se révèle pragmatique métriques, Balanced Score Card, techniques pour la conduite
et immédiate. du changement…). Bien qu’intéressants, ces éléments ne sont
pas toujours pertinents. Inutile donc de « dérouler un rouleau
compresseur ITIL ». Comment réussir l’implémentation d’ITIL ? En
Mieux communiquer avec un langage commun prenant du temps et du recul pour décrire ses propres objectifs,
atteignables compte tenu de sa situation de départ, et d’en
ITIL apporte de nombreux éléments concrets dans sa bibliothèque déduire le meilleur chemin. Le facteur clé de succès pour un
et les nomme, ce qui induit un vocabulaire cohérent pour tous décideur réside dans cette préparation.

18 IT-expert n°84 - mars/avril 2010


Technique

Comment se présente ITIL ?

ITIL v2 était constitué de 8 ouvrages pour décrire les processus alignant les services fournis avec le
besoin du business. Depuis la v3 des modifications ont été apportées et concernent : la structure
générale, l’introduction de nouveaux outils pour aider à l’implémentation et à la mesure des gains,
et l’introduction de nouveaux outils au niveau stratégique pour aider à promouvoir ITIL auprès des
responsables métiers en terme d’apport à la chaîne de valeur.

Les 5 ouvrages « cœur » du noyau ITIL v3 sont : Stratégie des Services (Service Strategy), Conception
des Services (Service Design); Transition des Services (Service Transition); Exploitation des Services
(Service Operation); Amélioration Continue des Services (Continual Service Improvement). Ces cinq
manuels de référence présentant les constituants de base de l’ITSM, selon l’approche du cycle de vie
des services. Une documentation complémentaire propose des cas particuliers ou des exemples, des
produits à valeur ajoutée, tels que des modèles et des schémas de flux de production.

Objectif : inscrire ITIL V3 dans la dynamique d’amélioration continue et surtout énoncer des conseils
pertinents pour des cas bien particuliers. De plus, l’efficacité opérationnelle se trouve au cœur de
cette nouvelle version. Dans ce sens, ITIL v3 fournit nombre d’éléments avisés : des conseils pour
être en conformité avec les diverses normes et réglementations en vigueur, des directives par secteur
d’activité et rubrique, de nouvelles rubriques concernant les stratégies de gestion des services (services
partagés, cosourcing et externalisation), un système de connaissance très développé favorisant la
gestion proactive des services.

ITIL contient 23 processus (dont 3 sont en cours de description) dans ITIL V3 :


• Stratégie des services : Gestion de la demande, Gestion financière, Gestion du portefeuille des
services
• Conception des services : Gestion du catalogue, Gestion des niveaux de services, Gestion des
fournisseurs, Gestion de la disponibilité, Gestion de la continuité, Gestion de la capacité, Gestion
de la sécurité de l’information
• Transition des services : Gestion des actifs et des configurations , Gestion des changements, Gestion
des mises en production et des déploiements, Gestion de la connaissance, Gestion de l’évaluation
(non décrit) , Gestion des tests et validations (non décrit)
• Exploitation des services : Gestion des événements, Gestion des incidents, Gestion des problèmes,
Gestion de l’exécution des requêtes, Gestion des accès
• Amélioration continue des services : Gestion de l’amélioration continue des services, Gestion du
reporting.

Le sommaire type des données rassemblées à propos d’un processus, à l’intérieur de la bibliothèque
ITIL, rassemble les éléments suivants : Objectifs ; Périmètre ; Concepts de base ; Bénéfices/difficultés,
coûts ; Activités ; Rôle/responsabilités ; Métrologie, Indicateurs et tableaux de bord ; Outils ; Synthèse
et préconisations.

Les objectifs du processus permettent de cadrer le processus, le cadrage est précisé avec l’aide du
périmètre. Le paragraphe sur le périmètre fixe les limites du processus tels que vu par ITIL, et précise les
concepts, et fait la correspondance entre ITIL et la manière de s’y prendre au jour le jour dans telle ou telle
organisation. Les concepts de base permettent de clarifier des notions et du vocabulaire. Les Bénéfices /
Difficultés coûts servent à fournir une liste très opérationnelle d’axes de réflexion sur les enjeux objectifs
et résultats du processus tel qu’il a été cerné, et peuvent donner lieu à implantation concrète parmi les
indicateurs. Les activités permettent de suivre une décomposition logique (plutôt que normative ou
organisationnelle), telle que vue par la bibliothèque ITIL, des différentes activités à exercer à l’intérieur du
processus. Les rôles et responsabilités sont identifiés de manière générique, sans jamais qu’ITIL se mêle
de normaliser et de fixer à quel acteur au sein de l’entreprise devrait revenir telle ou telle responsabilité.
Le paragraphe sur la métrologie, les indicateurs et les tableaux de bord est rempli d’outils dans lesquels
l’entreprise peut piocher pour sa propre utilisation ; les outils sont un catalogue d’idées d’outils dont
l’implantation de certains peut se révéler astucieuse ; la synthèse et les préconisations permettent de
redonner plus de sens à la lecture des différents éléments épars du chapitre.

ITIL indique : les bénéfices et les problèmes possibles, le «comment faire en cible», mais pas le
«comment implémenter».

IT-expert n°84 - mars/avril 2010 19


Les éditeurs et le marché des outils ITIL

De nombreux outils progiciels sont présents sur le marché ITIL. Ces outils se sont bâtis pour apporter des solutions « d’informatisation »
de différents processus de l’entreprise, sur le domaine fonctionnel des services de la gestion des infrastructures : gestion du patrimoine
informatique et des inventaires, gestion des incidents et problèmes, gestion actions (interventions…) etc. Ces outils font état d’une
conformité avec ITIL. Celle-ci apporte une certaine garantie que des grands concepts issus du consensus sur la manière de voir et
la manière de faire sont pris en compte, et aussi une certaine garantie que les éléments présents dans la bibliothèque initialement
générée par ITIL sont présents.

En revanche, l’entreprise qui s’en remet au choix d’un outil informatique dit « ITIL » ne doit pas oublier que, comme dans tout projet,
même progiciel, l’adoption d’un outil même « ITIL compliant » ne résout pas à lui seul des questions d’organisation. L’entreprise doit
participer activement aux spécifications de paramétrage, qui l’obligent à répondre à des questions qu’il faut avoir clarifiées, et comme
pour tout projet informatique, l’outil est au service du processus et non le contraire. L’entreprise doit apporter sa participation à la recette
de l’outil paramétré, et vérifier que les données inventoriées sont accessibles, que les processus peuvent être suivis comme prévu

D’autres quick wins ont été identifiés dans différentes situations


Les quick wins autour d’ITIL d’aide à la mise en œuvre d’ITIL. Ceux évoqués ci-dessus
ne résultent pas tous de la simple lecture et application des
ITIL permet des quick wins. Des exemples de gains rapides informations qui se trouvent dans la bibliothèque ITIL. Et ne
sont nombreux, liés de façon très directe ou indirecte à ITIL. sont pas forcément pertinents pour toutes les situations. Il
Toutefois, ces gains rapides n’apparaissent souvent qu’après est important d’impliquer les opérationnels pour identifier ces
une mise en place de quelques semaines dans une grande actions de modifications. Mettre en avant les quick wins ne doit
organisation. En effet, l’organisation doit généralement amender pas faire perdre de vue des actions de fond, mais dont la mise
un outil informatique existant (validation de spécifications, en œuvre est également parfois la seule de nature à apporter
mise en production…) ou modifier ses processus opérationnels de profondes modifications indispensables.
(planifier, communiquer sur le changement…).

Parmi des gains rapides constatés sur le terrain : Écueils fréquents


• travailler sur l’attribution automatisée des incidents. Une dans la mise en œuvre d’ITIL
matrice d’assignation peut être mise au point, de façon plus
ou moins automatisée. Certaines entreprises ont poussé La mise en place d’ITIL n’est pas toujours aisée. Contrairement aux
très loin cette automatisation, au risque de répartir certains opinions parfois entendues, il ne suffit pas de s’en remettre à des
incidents de façon erronée. Pour d’autres, la matrice a un « experts ITIL » pour résoudre les problèmes de l’entreprise : ITIL
rôle d’appui, d’indicateur. Avancer dans cette voie est utile n’impose ni démarche claire, ni objectifs, ni phasage, ni instances
dans le cas où l’analyse des processus révèle des difficultés d’étude et de décision. Au mieux, il rappelle des recommandations,
liées à l’étape d’assignation ; comme cadrer, phaser, étudier… L’entreprise qui utilise ITIL ne
• mettre en place une matrice de priorisation des incidents. doit pas attendre qu’il prenne des décisions à sa place. Il lui
Cette matrice peut déterminer la priorité en combinant l’impact reste à être au clair sur les objectifs qu’elle attache à la mise en
attendu, l’urgence… ; œuvre d’ITIL, à identifier les structures qui vont devoir travailler
• simplifier et regrouper les processus de Gestion de Confi- sur la mise en œuvre, et à prendre les décisions appropriées. ITIL
guration et de Gestion des Mises en Production (GMEP) ; reste un instrument, propose des éléments pour éviter de tout
• soulever systématiquement certaines questions avant réinventer et fournit de la matière pour aider l’entreprise à résoudre
chaque mise en production, comme clarifier la nature de ses problèmes. Cependant, cette bibliothèque n’identifie pas les
l’indisponibilité, clarifier la procédure de retour arrière, problèmes, et ne les résout pas.
identifier les jalons dans le cours de la MEP pour décider
des retours-arrière... ;
• séparer plus nettement les modalités de gestion des incidents
et des problèmes (GI et GP) et octroyer du temps sur des Conclusion
tâches de résolution des problèmes ;
• alléger toutes les gestions de demandes très régulières ITL présente de nombreux apports bénéfiques : il s’agit d’un
(réinitialisation des mots de passe, changements vivier de bonnes pratiques avec des concepts de bon sens, il
d’habilitations…) et le cas échéant les sortir des circuits de présente une organisation claire des processus de production
gestion des incidents ; et des relations entre ces processus, il facilite le dialogue en
• aviser systématiquement les équipes de la hotline de chacune établissant un langage commun (interne DSI, métier, fournisseurs,
des mises en production à venir ; éditeurs d’outils pour la DSI), c’est une source d’améliorations
• … à la fois à court terme et à long terme.

20 IT-expert n°84 - mars/avril 2010


Technique

ITIL présente aussi quelques limites, qui découlent pour partie de Mieux vaut aussi éviter d’appliquer la totalité d’ITIL comme un
la construction de l’approche : son contenu relativement dense rouleau compresseur, et -au contraire- délimiter des objectifs
et détaillé est plutôt destiné aux opérationnels. Néanmoins, et un périmètre atteignables, et piocher dans la bibliothèque
un apprentissage est nécessaire pour « entrer » dans cette ce qui est applicable et pertinent.
documentation. Les préconisations ne sont pas toujours très
claires, et restent souvent à décliner par l’entreprise qui définira ITIL est un outil qui ne dicte pas les objectifs, ni les choix
ses priorités de mise en œuvre. d’organisation cible, et qui n’impose pas strictement la
démarche d’implémentation. Il nécessite de mobiliser les
Il est utile de passer par des quick wins adaptés de manière acteurs nécessaires, internes ou externes, qui ont suffisamment
fine et pertinente à l’entreprise, « découverts » et adoptés par de connaissances sur ITIL pour savoir en exploiter sa matière
les opérationnels eux-mêmes. Les quick wins peuvent découler avec un bon état d’esprit pour réussir. n
d’emprunts directs à la bibliothèque ITIL dans le texte, ou en
découler plus ou moins indirectement. Dans les deux cas,
l’entreprise tâchera de les relier à ITIL. La démarche mène au
succès lorsque les quick wins mis en œuvre sont associés à
ITIL, et lorsqu’on en attribue la paternité aux opérationnels de
la production. Cela favorise leur intérêt et leur appropriation du
contenu. Une manière aussi de convaincre les opérationnels du
bon usage et du caractère pragmatique, concret, et utilisable
d’ITIL. Par la suite, ils seront alors disposés à poursuivre sur Hugues Dieuzeide
d’autres chantiers d’évolution ou d’autres procédures de Directeur Associé
fonctionnement, dans le même état d’esprit…

Parmi les recommandations concrètes pour une méthode de Hugues DIEUZEIDE intervient notamment auprès de DSI pour aider à mettre en
mise en place, il faut veiller à rester pragmatique, à procéder œuvre des transformations. Il s’est appuyé à plusieurs reprises sur la bibliothèque
par étapes, avec des objectifs d’amélioration bien définis et ITIL lors de ces opérations de transformation de processus de la DSI.
bien délimités, à partir des problèmes réellement posés sur le
terrain et à résoudre. L’entreprise doit agir en priorité là où « ça ORESYS est une société de conseil en organisation et en S.I., de 250 consultants,
fait mal », là où il y aura des gains, pour assurer le succès par à Paris, Lyon et Bruxelles, spécialisée dans les projets de transformation. ORESYS
l’adhésion des opérationnels. Enfin, mieux vaut déployer un aide ses clients à piloter leurs activités, améliorer leur performance et mettre en
savoir-faire soutenu par un outil. Sans pour autant attendre que œuvre leurs projets de transformation. ORESYS intervient sur toutes les dimensions :
l’outil soit seul porteur du savoir-faire de l’entreprise. Un projet métiers, organisation, processus, système d’information, accompagnement du
ITIL réussi est porté et mené par les opérationnels. changement. ORESYS intervient de manière soutenue pour aider les DSI à transformer
leur organisation et leurs processus, ou à transformer l’entreprise.
Pour éviter déconvenues et déceptions, mieux vaut éviter
d’utiliser ITIL comme une norme. Au contraire, les décisions Site web : www.oresys.eu
de management appartiennent aux opérateurs de l’entreprise,
elles ne seront pas dictées par une norme plaquée de l’extérieur.

IT-expert n°84 - mars/avril 2010 21


Actualités
internationales
Google prépare une version entreprise de Chrome OS

À l’occasion de la dernière RSA Conference en mars 2010, Google a présenté


les fonctionnalités de sécurité implémentées dans Chrome OS et les netbooks
vendus avec l’OS. Et une version Entreprise de netbook Chrome OS serait
planifiée pour 2011, selon le site Networkworld.com. Les premiers netbooks
équipés du nouvel OS devraient arriver au second semestre 2010. Mais
Google envisagerait une version plus musclée en fonctions d’administration
pour les entreprises.

Au-delà de l’utilisation de technologies de type sandbox et de mise à jour


automatique, Google proposera Chrome OS sur des modèles dotés de puces
TPM (Trusted Platform Module), cryptographie pour chiffrer les clés secrètes, mais
aussi pour contrôler le comportement des applications sur le système. Bien que des
démonstrations aient été réalisées pour en révéler certaines failles, les puces TPM restent efficaces
et très complexes à attaquer. Par ailleurs, un « mode programmeur » serait accessible sur simple pression d’un bouton des
netbooks équipés de Chrome OS. Une facilité qui nécessiterait encore quelques mesures de sécurité complémentaires
& Test

de l’aveu même des spécialistes de Google.

Quoi qu’il en soit, l’intérêt semble évident pour ce futur et encore mystérieux OS. Cela suffira-t-il ?… n
rt Business Development

IBM lance et relance des solutions de tests, soi-disant Cloud…

IBM ne veut pas se faire semer sur la route du Cloud. Mi-mars, Big Blue a donc présenté une série d’outils et de ressources
estampillés « cloud de test et de développement ». Destinées à ses partenaires et à ses clients, ces solutions en ligne
devraient aider à réduire les dépenses des entreprises consacrées aux tests et développements, qui représenteraient
ment & Test Cloud - IBM Sma

une grande partie des ressources matérielles, utilisées à seulement 10-15 % de leurs capacités. Une réduction évaluée
à 50 % par IBM.

Cette offre « Smart Business Development & Test on the IBM Cloud », sensée compléter les datacenters des entreprises
et partenaires, aurait déjà séduit quelques clients comme Paypal, et de multiples partenaires. En outre, on retrouve des
extensions de type « Rational Software Delivery Services for Cloud Computing », un espace dédié « cloud computing » sur
IBM DevelopperWorks (8 millions de développeurs, informaticiens et étudiants), etc. L’offre présentée se décompose en
trois volets :
• « IBM Smart Business Development & Test Cloud » fonctionne comme un « cloud privé » derrière le pare-feu et repose
sur « Rational Software Delivery Services for Cloud Computing ». Bref, on cherche encore le Cloud…
IBM Smart Business Develop

• « IBM Smart Business Development & Test on the IBM Cloud » incarnerait une réelle offre, mode Cloud.
• « IBM CloudBurst », l’appliance préexistante regroupant matériel, logiciels et applications vient compléter le trio pour
donner l’impression dune suite « cohérente ».

Chaque offre peut effectivement présenter des intérêts spécifiques. Pourquoi absolument tenter de teinter en cloud ?
Bientôt, on ne dira plus surfer sur le Web, mais « vagabonder sur le cloud global ». Le marketing amène parfois à des
postures bien ridicules… n

22 IT-expert n°84 - mars/avril 2010


Actualités internationales

L’ex-dirigeant de Sun règle quelques comptes avec Apple et Microsoft

Après rachat par Oracle, le dirigeant de Sun – Jonathan Schwartz – a « logiquement » été remercié. Il profite donc de
son temps libre pour s’activer sur son blog personnel avec un post intitulé « Ce que je ne pouvais pas dire.» Il défend
Google indirectement visé par Apple dans son attaque contre le téléphone Nexus One d’HTC sous Google Android
(http://jonathanischwartz.wordpress.com/2010/03/09/good-artists-copy-great-artists-steal/ : « les bons artistes copient,
les grands artistes volent »).

Il dévoile au passage que Steve Jobs l’avait menacé de poursuites


judiciaires pour utilisation de brevets Apple dans une interface
graphique que développait Sun. Finalement, ce type d’argument a
été abandonné lorsque Jonathan Schwartz lui fait remarquer que son
produit ressemblait fort à un logiciel acquis par Sun lors du rachat
de la société Lighthouse Design. Et surtout, Jobs abandonne quand
Schwartz met en avant des brevets sur Unix détenus par Sun, et
menace d’attaquer Mac OS si Apple décide de poursuivre Sun !

Avec Scott Mc Neally (ex-dirigeant de Sun), il rencontre Bill Gates et


Steve Ballmer à propos d’Open Office. Toujours selon lui, Gates attaque
bille en tête : « Microsoft détient le marché des suites bureautiques, et
nos brevets sont partout dans OpenOffice. » Objectif : faire payer Sun
pour chaque téléchargement d’Open Office ! Intéressant… Répondant
au duo que .net reprenait bien des choses de Java, Microsoft devrait
alors reverser des royalties pour chaque copie de Windows…

Une lecture très enrichissante. n

123people rejoint le groupe Pages Jaunes

Selon le groupe français PagesJaunes, la recherche de


renseignements sur des individus représenterait « 30%
du volume total des recherches sur Internet. » D’où son
intérêt pour la société 123people. En effet, ce moteur
de recherche rassemble en une seule page toutes les
informations qu’il glane sur d’autres sites Web comme
Google, MySpace, YouTube, Wikipedia, pagesjaunes,
Facebook, Bing, LinkedIn, etc.

En rachetant 123people pour un montant non révélé, le


groupe PagesJaunes enrichit ses services pagesjaunes.
fr. Outre son annuaire, et l’application iPhone, 123people
rejoint un service de cartographie et de géolocalisation
(ex-Mappy) et un service de petites annonces.

Si pagesjaunes.fr n’a pas à rougir de sa fréquentation avec plus de 80 millions de visites par mois, il se muscle dans la
course à la page affichée. Les multiples sites (11 pays, dont la France et les États-Unis) totalisaient environ 43 millions de
visiteurs uniques début 2010. n

IT-expert n°84 - mars/avril 2010 23


Deux brevets coûtent près de 400 millions à Microsoft

Le 17 mars, un tribunal texan a confirmé la condamnation de Microsoft pour violation de


brevets en faveur de la société canadienne i4i, à laquelle l’éditeur d’Office devra verser
290 millions de dollars.

En mai 2009, cet éditeur spécialisé – qui portait plainte


contre Microsoft pour avoir utilisé son procédé d’encodage
XML dans Word 2003 et 2007– avait déjà emporté une victoire
avec une amende de 200 millions de dollars infligée à l’éditeur de
Redmond, avec suspension de la vente de Word au 10 janvier. Après
plusieurs recours, une suspension de la vente est annulée, et la fonction XML liée au litige est
retirée des logiciels Word aux États-Unis. Mais l’amende est portée à 290 millions en janvier
2010. Un appel fait suite à cette décision. Là encore, un tribunal vient confirmer la décision
d’infliger une amende de 290 millions de dollars.

Autre affaire judiciaire d’utilisation illégale de brevets, la société américaine VirnetX (spécialiste de la sécurisation des
communications IP) accuse Microsoft d’utiliser ses technologies de création et de gestion de VPN (Virtual Private Network,
ou réseau virtuel privé) dans Office Communications Server et dans Windows. Le 18 mars, une cour fédérale du Texas
condamnait le géant de Redmond à verser 105,8 millions de dollars de dommages et intérêts à VirnetX. Cependant,
Microsoft devrait interjeter appel de la décision.

Décidément, le Texas ne réussit pas à Microsoft ! n

Plus de 30 000 applications Android, majoritairement gratuites

Courant mars, Google pouvait se vanter de comptabiliser 30 000


applications pour sa plate-forme mobile Android, selon le site
MobileCrunch, qui précisait que 61 % de ces logiciels seraient
gratuits. Une belle prouesse pour ce système d’exploitation
âgé seulement de quelques mois ! Et les nouveaux outils de
conception d’applications 3D devraient stimuler encore ces
développements.

Si l’iPhone peut pavaner avec ses quelques 140 000 applications,


le désamour entre Apple et les développeurs pourrait bien
profiter à Google. La société à la pomme a tout de même une
fâcheuse tendance à cadenasser ses modèles économiques.
L’avènement d’Android est donc forcément une excellente
nouvelle, et une réponse tranquille à une arrogance de plus
en plus évidente.

En effet, Nokia tente bien, lui aussi, un retour. Cependant, le


fleuron européen des années 90 et 2000 saura-t-il redevenir
attractif avec son environnement Symbian ? En tout état de
cause, Symbian reste la plate-forme la plus installée des
trois…

Lors du Mobile World Congress il y a quelques semaines, Éric


Schmitt (dirigeant de Google) dévoilait que ses partenaires
écoulaient 60 000 terminaux Android par jour ! n

24 IT-expert n°84 - mars/avril 2010


Actualités internationales

Firefox 3.6 : 200 millions de téléchargements


et une grosse faille colmatée !

Deux mois après sa sortie le 21 janvier 2010, Firefox 3.6 dépassait les 208 000
téléchargements. En outre, il a fallu attendre ce délai pour qu’une faille de sécurité
soit corrigée.

Les résultats de Statcounter Global Stats créditent Firefox de 30,96 % de part de


marché contre 57.94 % pour Internet Explorer, des chiffres qui passent respectivement
à 39,25 % et 46,43 % en Europe (sur un échantillon de millions de sites Web, au 10 mars
2010). Toutefois, la France reste un peu plus en retrait avec 33,97 % pour Firefox et 55,84 % pour
Internet Explorer. Toutefois, si l’on examine les résultats en détail pour la France, on constate l’avance d’Internet Explorer
7 à 32,55 % contre devant IE 8 à 16,86 %, talonné par
Firefox 3.0 à 15,8 % et la version 3.5 à 13,56 %... mais
très loin devant Firefox 3.6 à 2.92 %.

La faille de sécurité critique concernant le support du


format WOFF a monopolisé l’attention de la fondation
Mozilla (Web Open Font Format) qui a très vite publié
une mise à jour. Certes, la possibilité de prise en main
à distance d’un ordinateur par un pirate n’est pas de
nature à favoriser l’adoption d’un navigateur…

Téléchargez donc la version 3.6.2 qui au passage apporte


d’autres petites corrections mineures ! n

Une distribution Linux signée « Corée du Nord »

La République populaire démocratique de Corée opte pour le Libre ! En effet,


ses dirigeants ont décidé de développer leur propre Linux. Des détails ont
été fournis par un jeune étudiant russe de l’université de Kim Il-Sung qui a
posté son article depuis l’ambassade de Russie. En 2009, Pyongyang a pris la
décision de concevoir ce système d’exploitation Linux baptisé Red Star. Deux
versions seraient disponibles : Red Star Classique et Server. Des distributions
qui incluent les logiciels traditionnels : Firefox rebaptisé Naenara, Open Office et
un gestionnaire d’e-mails. Peu gourmand, Red Star se contente d’un Pentium
III à 800 MHz, 256 Mo de mémoire vive et 3 Go d’espace disque.

En revanche, tandis que les distributions Linux sont généralement gratuites, Red Star OS est commercialisé pour environ
5 dollars, et seul le coréen est disponible pour l’installation. L’étudiant russe confie que les Coréens ont encore du travail
pour parvenir à concurrencer Windows (XP, Vista/7). Objectif déclaré par les autorités au départ du projet.

On peut légitimement se demander si les développeurs n’ont pas installé quelques backdoors ou autres espions dans l’OS
gouvernemental. C’est pourquoi Microsoft continue à enregistrer un succès sans équivalent ! n

IT-expert n°84 - mars/avril 2010 25


Un plafond bloquant pour les factures d’Internet mobile

Les trop nombreuses mauvaises surprises, et factures délirantes, provoquées par l’internet mobile ont apparemment
ému la Commission européenne. Cette dernière a émis une directive obligeant depuis le 1er mars 2010 les opérateurs de
téléphonie mobile à plafonner les factures mobiles dans le cadre du roaming, c’est-à-dire dans le cadre de la surfacturation
d’un abonné par un opérateur mobile étranger.

Un peu brutale, la mesure prévoit de couper l’accès internet mobile aux utilisateurs qui dépasseraient le seuil, après
avertissement (à 80 % du maximum). Le plafond par défaut sera fixé à 50 euros.

Certes, la mesure semble radicale. Toutefois, de


nombreux abonnés européens avaient porté
plainte après avoir reçu des factures de
plusieurs dizaines de milliers d’euros,
malgré des « forfaits illimités ».

De même, le volume de données


échangées est lui plafonné à 1 euro
le mégaoctet. Ces mesures restent dans
la logique de ce qui existe pour la téléphonie
vocale et les SMS dans l’espace européen.

Apparemment ces tarifs devraient encore


être revus à la baisse. On souhaiterait que
des accords au-delà de l’Europe permettent
d’utiliser plus franchement la téléphonie mobile
lors de déplacements ou de vacances. Encore
que… pour les vacances… n

Free table sur 5 millions d’abonnés en 2011

Le 23 mars, le groupe Iliad (maison mère de Free)


annonçait ses résultats 2009 : un chiffre d’affaires
de 1,995 milliard d’euros en hausse de 25 % (contre
+29,1 % l’an passé), et 389 000 nouveaux abonnés
pour un total de 4,456 millions fin 2009. Iliad se
montre optimiste et annonce un objectif de 5 millions
d’abonnés en haut débit en 2011 ! Côté mobilité,
l’opérateur utilisera sa licence pour lancer son offre en
2012, avec une couverture de 27 % de la population
en janvier 2012.

Plus surprenant, le trublion d’Internet, qui s’est fait


connaître sur la guerre des prix, a expliqué qu’il pourrait
bien faire passer son abonnement tout-compris
(Internet-téléphone-TV) de 30 à 35 euros par mois…
Le Co fondateur Xavier Niel a clairement montré du
doigt les coupables de cet état de fait : l’UFC/Que
Choisir « qui, au travers d’un travail délibéré, cherche
à faire monter les prix de ce marché… » et les pouvoirs
publics qui cumulent sans cesse les taxes sur les revenus des opérateurs. L’UFC dénonce en effet le non-respect de loi
Chatel par l’opérateur qui utilise un chemin détourné afin de facturer sa hotline à ses abonnés. Ne serait-ce pas plutôt pour
financer la nouvelle politique d’intervention de proximité par des techniciens proches de ses abonnés dans la journée ?
Dans ce cas, les abonnés ne seraient-ils pas prêts à payer pour ce confort à réelle valeur ajoutée ? n

26 IT-expert n°84 - mars/avril 2010


L’informatique décisionnelle dans un contexte de
reprise et d’incertitude
mercredi 2 juin 2010 (9h-15h), à Paris

CONFÉRENCE
“BUSINESS INTELLIGENCE”

Au programme :

▪ Vision IDC : évolution des besoins et des usages, enjeux et perspectives des solutions
d’informatique décisionnelle 2010 -2013, en France et en Europe.

▪ La BI accessible : 2009-2010, une période charnière entre maturité et


démocratisation

▪ L’analyse prédictive, pour une meilleure anticipation dans le monde de l’après crise

▪ Rationalisation des systèmes d’information décisionnels : jusqu’où dans les


entreprises ?

▪ Exploiter plus efficacement l’information d’entreprise pour dégager le


potentiel d’intelligence des données

▪ Les prochaines étapes ? Quelle BI à l’horizon 2013 ? BI et web 2.0, BI et


mobilité, BI et temps réel, BI et SBA

▪ Avec le grand témoignage de Eric HOBEIN, Business Intelligence Manager


chez EUROPAGES

Conférence organisée par


Cabinet leader de conseil
et d’études, dans les
technologies de l’information

INSCRIVEZ-VOUS GRATUITEMENT
>> SUR LE SITE : http://www.idc.fr/bi10
code invitation « ITX »
>> OU CONTACTEZ EDITH TRICHEUX
tel. : 01.56.26.26.91 etricheux@idc.com
ALM et agilité au cœur
des processus métiers
10 années ! C’est ce qu’il aura fallu pour faire entrer dans le vocabulaire commun de l’informatique l’acronyme ALM

pour Application Lifecycle Management, ou gestion du cycle de vie des applications. Les années 1999 et 2000 ayant

consommé une bonne partie des ressources et moyens informatiques pour pallier les éventuels « bugs de l’an 2000 »,

c’est à partir de 2000/2001 que le monde du développement logiciel a pris en compte de nombreux chantiers sensés

innover ou améliorer les techniques de développement traditionnelles. Et ce, à une échelle industrielle.

28 IT-expert n°84 - mars/avril 2010


Quoi de neuf Docteur ?

Stratégies métier et IT :
de l’importance d’être différent

L’un des premiers objectifs de la stratégie métier de l’entreprise


vise à créer puis valoriser un avantage compétitif sur le
marché : l’entreprise cherche à être différente. D’autre part,
toutes les stratégies métiers embarquent virtuellement une
composante IT qui s’appuie généralement sur des applications et
développements spécifiques. On comprend donc aisément que
disposer d’une informatique supportant les visées stratégiques
s’avère primordial pour toute entreprise désirant innover. Elle
cherche alors à se doter d’une informatique stratégique, à
même de comprendre les enjeux métiers, mais aussi capable
d’anticiper les tendances à venir du marché.
2000-2010 : vers l’ALM collaboratif

Le monde informatique vit donc depuis à un rythme soutenu,


ponctué d’avancées technologiques, aussi bien du côté
infrastructures que du côté solutions de développement :
2002 marque la percée des méthodologies de développement,
2004 impose les principes de gouvernance du S.I. En 2005, les
principes de l’ALM sont plus largement acceptés par le marché.
À la fin de cette même année, un changement durable s’installe
dans les entreprises : le métier s’approprie l’IT, propulsant sur le
devant de la scène des métiers moins connus jusqu’alors tels
que celui d’architecte. Même si les avancées technologiques IT stratégique et avantage compétitif
continuent (la virtualisation par exemple), le point le plus marquant
des années 2008 et 2009 aura été le grand changement de l’IT, La fenêtre de différenciation durant laquelle l’entreprise dispose
sa modification en profondeur pour se mettre enfin au service d’un avantage compétitif est courte et très en amont du cycle de
des métiers de l’entreprise. vie de ses produits ou services. D’où la nécessité de disposer
d’une informatique stratégique, à même d’accompagner et
2010 marque l’entrée de l’IT dans une phase collaborative, dans même d’anticiper les innovations que va proposer l’entreprise.
des entreprises maitrisant de mieux en mieux leurs processus Développer rapidement et efficacement des logiciels ou services
métiers et pour lesquelles les logiciels pilotent de plus en plus le répondants à ces besoins et s’assurer qu’ils seront aisément
« business ». Pressions métiers et pressions technologiques : le gérables et modifiables, voilà les principaux challenges du
Système d’information est mis à rude épreuve et impose donc à développement des applications. Toujours cette même quête
l’industrie du développement logiciel de constantes mutations de l’agilité…
et améliorations.

De la stratégie métier à l’ALM


La stratégie métier impose d’être différent de ses concurrents.
Cela se traduit par des investissements IT stratégiques, et souvent
par des développements spécifiques. Et c’est précisément ici
que l’ALM entre en jeu. Disposer d’une vraie filière ALM est
essentiel pour créer de la valeur stratégique.

Les différentes plateformes applicatives du marché et leurs offres


respectives en outils de développement s’étoffent désormais
de concepts ou principes assez clairement définis, visant à
couvrir des thèmes tels que : productivité, qualité, collaboration,
intégration, coûts, flexibilité… Cette liste non exhaustive prouve
combien la notion d’ALM se positionne à un niveau élevé dans
Collaboration métier & IT : l’ALM au cœur des processus les fondamentaux de l’entreprise, et combien la frontière dépasse
largement les seuls critères de développement des applications.
L’ALM est-il pour autant un processus métier fondamental Tout projet informatique (ou autre) nait d’une idée… sensée
de l’entreprise ? Quelles connexions existe-t-il entre ALM et répondre à un besoin. Le cycle de vie des applications couvre
stratégie métier ? toute la période durant laquelle une entreprise ou organisation

IT-expert n°84 - mars/avril 2010 29


engage des moyens et des ressources, que ces moyens soient En fait, l’ALM est elle-même un processus métier critique de
financiers ou humains, de cette idée de départ jusqu’à la fin de l’entreprise, un de ceux qui supporte les nombreux autres
vie de l’application associée. processus métiers. Toute organisation développant des logiciels
devrait considérer l’ALM comme un processus métier aussi
important que ses autres processus métiers critiques. En effet,
être meilleur dans son processus de création logiciel procure
forcément un avantage compétitif.

Le succès de vos projets de développement

La mise en place d’une démarche ALM au sein des équipes


doit se faire de façon pragmatique et mesurée. Pragmatique,
car la démarche en elle-même implique trois composantes
essentielles :
1. L’humain (les équipes) sur lequel repose la gestion du projet
au quotidien, mais auquel il faut aussi poser des contraintes
de productivité. Les objectifs à travers le pilotage et la
transparence des projets, sont simples : favoriser l’excellence,
Les 3 piliers de l’ALM responsabiliser, mesurer et améliorer la qualité.
2. Un ensemble de technologies, auxquelles on demandera
On distingue trois grands piliers dans l’ALM: d’être performantes, outillées, interopérables, sécurisées
• la « Gouvernance » qui couvre l’ensemble de la période ; et administrables. L’objectif de qualité logicielle sera atteint
• le « SDLC ou software Development LifeCycle » (cycle de vie en utilisant des outils productifs, très intégrés, mais aussi
du développement de logiciel), qui commence en général extensible et possédant une courbe d’apprentissage
un peu après la période précédente, et se répète au cours réduite.
du temps, lors des mises à jour (nouvelle version, correctifs, 3. Des processus, souvent assimilés aux méthodologies de
etc.) ; développement, impliquant la mise en place de guides, de
• et l’« exploitation », qui débute en général avant la fin du cycle procédures de gestion des risques et des exigences. Les
SDLC, avec le déploiement, et qui couvre toute la période objectifs ici sont la mise en place d’un accompagnement
de vie de l’application dans le S.I. méthodologique, personnalisable et non intrusif, et ce, dans
un souci de collaboration.
La partie SDLC est la mieux identifiée à ce jour : elle regroupe
toutes les phases qui ponctuent le développement du logiciel Ces trois composantes sont intimement liées et « condamnées » à
(gestion de projet, gestion des tests et plan de test, modélisation, vivre et à évoluer ensemble. Rien ne sert de « faire de la méthode »
gestion des exigences, intégration continue, etc.). Son objectif pour la méthode si cette dernière n’est pas aisément acceptée
consistant à optimiser le processus de bout en bout (on parle par les équipes, et si elle n’est pas facilement « injectable » dans
souvent d’industrialisation du développement). Par ailleurs, l’environnement de développement.
l’évolution des outils de développement a aussi subi de
profondes mutations. L’industrie est passée des compilateurs L’histoire des outils et environnements de développement est
et éditeurs des années 70/80, aux IDE (Integrated Development encore une fois riche d’enseignement sur l’évolution de ce
Environment) des années 80/90, pour arriver aux plateformes triptyque « humains-technologies-méthodes ». Elle se découpe en
de développement en équipes contemporaines. trois grandes étapes placées sous le signe de la convergence :

30 IT-expert n°84 - mars/avril 2010


Quoi de neuf Docteur ?

1ère étape (années 90) : convergence des développeurs qui


utilisent un éditeur de code source et un compilateur adapté
à leur langage de développement. L’objectif consiste alors à
briser les murs séparant les développeurs pour les embarquer
tous sur un même pont. La convergence se fera à travers des
outils tels que les référentiels de code source, les moteurs de
builds ou les premiers outils de tests unitaires (des outils orientés
« tâche » pour l’essentiel).

Années 90 : des outils orientés « tâche »

2ème étape (années 2000) : convergence des équipes projets,


incluant toutes les personnes techniques travaillant sur un même
projet (chef de projet, architectes, administrateur de bases de
données, etc.). Cette fois, l’objectif vise à réunir sur le pont
l’ensemble de ces personnes en favorisant la transparence et la
communication entre les membres de l’équipe. La convergence
se fait à cette époque au travers d’IDE ou Environnement de
Développement Intégré, regroupant tous les outils utiles aux Ces serveurs permettent à chacun des acteurs du projet de se
profils techniques dans une même solution. connecter avec leurs outils familiers. En retour, ils permettent
de centraliser et consolider tous les éléments et évènements
qui rythment la vie du projet. Alors, il devient plus simple et
rapide d’utiliser ces données pour piloter les projets en temps
réel, tout en analysant et en anticipant grâce aux indicateurs
clés d’avancement.

L’agilité au cœur des projets

Années 2000 : l’essor des IDE Un des points clés de l’agilité réside dans l’idée d’amélioration
continue, qui s’applique à tout type de projet, et à toute démarche
3ème étape (2010), que nous sommes en train de vivre et qui itérative. Dans le processus agile, généralement découpé en
illustre bien les principes fondamentaux de l’ALM : l’ensemble étape de courte durée, la première action à entreprendre à la
des équipes impliquées dans un projet embarque sur un fin d’un cycle (que l’on appelle « sprint ») consiste à dresser un
même pont, les équipes techniques, mais aussi métiers. Qualité état sur le déroulement du sprint qui vient de se terminer et
et agilité sont au cœur des processus de développement, d’analyser simplement et rapidement l’ensemble, afin d’améliorer
la convergence s’effectuant via des environnements de le fonctionnement de l’équipe, des outils et de l’organisation
développement collaboratifs (sorte de HUB) associés à des pour la prochaine étape.
serveurs de développements.
L’agilité a pour vocation l’amélioration continue et l’efficacité, en
passant par de petites étapes successives, de façon pragmatique
et adaptée aux équipes et ressources en place. Ce dernier point
est très important : il ne sert à rien de chercher à atteindre un
niveau d’agilité sur une grille de mesure quelconque, ou par
rapport à un niveau de maturité global. En revanche, Il est
pertinent, une fois identifiée votre situation vis-à-vis de l’agilité,
de déterminer quels leviers activer, et quelles solutions mettre
en place pour progresser et -in fine- franchir une étape. Si cela
se traduit par une progression sur un niveau de maturité, tant
2010 : l’ALM collaboratif mieux, mais là n’est pas l’essentiel.

IT-expert n°84 - mars/avril 2010 31


L’agilité incarne en fait une nouvelle approche du développement, Les méthodes agiles bousculent de nombreuses pratiques
basée sur un modèle itératif, en constante évolution, mais établies :
aussi sur une approche empirique au niveau processus, • Figer les bonnes pratiques est dangereux : mieux vaut adapter
communication et documentation. Ce qui est bien éloigné de ces pratiques en fonction des objectifs de la prochaine
l’approche classique, inspirée par les processus industriels en itération, de la composition de l’équipe, des contraintes de
cascade, avec des exigences figées dès le début du projet, l’environnement.
avec une planification inscrite dans le marbre et des étapes • Définir et mettre en place un processus prévisible et planifié :
prédéfinies… pour, au final, ne pas être suivie ni respectée… tentant, mais au final risqué. Il est préférable de se concentrer
sur les tâches à réaliser. On évite ainsi la perte de vue
À l’opposé, les équipes agiles font un peu de tout, tout le temps, globale.
évitant ainsi « l’effet tunnel » :
La solution : mettre en place une équipe autoorganisée, qui définit
elle-même ses pratiques pour chaque itération. Les critères
de succès s’en trouvent radicalement modifiés. En effet, les
changements, inévitables dans la vie d’un projet, doivent être
considérés comme naturels. Les équipes de petite taille n’ont
pas de leader et surtout pas de relation hiérarchique affichée :
on cherchera à désigner des « facilitateurs » ou « supporteurs »
plutôt que des experts ou des autorités.

Attention toutefois à ne pas confondre agilité et « bazar organisé » !


Cette simplicité apparente, cette absence de hiérarchie stricte,
impose une rigueur quotidienne de tous les acteurs. De même,
la documentation et la gestion des exigences doivent être
Cette approche permet de découvrir le ou les résultats du projet extrêmement bien définies et suivies.
de façon permanente, et elle autorise donc une très grande
souplesse en termes de réaction et de correction. La mise en La démarche, souple, n’en reste pas moins rigoureuse. Il existe
place d’un processus de livraisons itératives (en lieu et place sur le marché de nombreuses offres disponibles, à l’exemple
des livraisons incrémentales) permet de réagir de façon plus de Visual Studio 2010 et Team Foundation Server de Microsoft,
souple, d’anticiper les modifications à apporter, sans pour autant ainsi que des compétences rompues à ce type de mise en œuvre
tout remettre en cause. chez de nombreux partenaires. n

François Merand
Platform & ALM Advisor
Division Plateforme
et Ecosystème

Décider le plus tard possible

32 IT-expert n°84 - mars/avril 2010


Web 2.0 et outils collaboratifs : quels bénéfices pour vos salariés et vos clients ?
IDC, filiale française du leader mondial des études dans le domaine des nouvelles technologies de
l’information et des communications vous invite
mardi 18 mai 2010 (9h-15h30), à Paris, à la conférence

“ L’ E N T R E P R I S E C O L L A B O R A T I V E ”

Conférence organisée par

Au programme :
▪ Vision IDC : état de l’art du marché, enjeux et perspectives 2013 des solutions de communication et de
collaboration
▪ Les réseaux sociaux d’entreprise : place à l’intelligence et la créativité collective
▪ L’entreprise 2.0 et ses clients :
- De nouveaux véhicules de communication et de commerce se développent. Comment accompagner ce
développement et en tirer parti ?
▪ Les apports technologiques pour soutenir l’essor de l’entreprise 2.0 :
- Le Cloud Computing pour optimiser la communication et la collaboration au sein des équipes et à
l’extérieur
- Quelles solutions de gestion des contenus web 2.0 ?
▪ Discours de clôture : les nouveaux et futurs usages de l’Internet en entreprise. Rupture
Internet et monde virtuel
Serge SOUDOPLATOFF, fondateur et président d’Almatropie, association vouée à la promotion des usages
d’Internet
▪ De nombreux retours d’expérience en matière d’usage du web 2.0 :
RATP, Suez environnement-Lyonnaise des Eaux, l’APEC, 2xmoinscher

Pour découvrir les mutations en cours, en comprendre les enjeux, usages et opportunités,
INSCRIVEZ-VOUS GRATUITEMENT
>> SUR LE SITE : http://www.idc.fr/entreprise20
code invitation « ITX »
>> OU CONTACTEZ EDITH TRICHEUX
tel. : 01.56.26.26.91 etricheux@idc.com
Anatomie de trois
ESB Open Source
JBoss ESB, serviceMix et OpenESB

Historiquement, les outils d’intégrations (EAI) ont été les premiers

permettant de créer un « bus » d’entreprise, ou – du moins – de créer

un passage obligé d’interconnexion entre différents systèmes.

34 IT-expert n°84 - mars/avril 2010


Comment ça marche ?

Se libérer des chaînes du tout propriétaire

Les avantages de cette architecture sont assez évidents : découplage des applications entre elles,
création de formats pivots dans l’entreprise… En outre, changer une application impacte uniquement
la modification des connecteurs EAI.

Application B

Application B
Application C

Application A
Application C

Application A

EAI :
Processus
Application D métier
Application E

Application D
Application E

Intégration d’un EAI

Une question se pose alors : quelles sont les principales différences entre les ESB (Enterprise Service
Bus) et les EAI ?
• Les EAI ont en interne une approche qui oblige le passage par un point centralisé. L’intégration point
à point se retrouve entièrement dans l’EAI lui-même. Au contraire, les ESB ont une architecture dite
distribuée : le bus est implémenté dans différents systèmes et sur différentes machines.
• Les EAI n’utilisent pas ou peu de standards ouverts. Chaque EAI fait une implémentation propriétaire
de la gestion des messages. Ce qui limite les possibilités d’évolutions et pénalise la flexibilité dans
des systèmes hétérogènes. Au contraire, les ESB sont conçus à partir de standards tels que la
gestion des messages en java (JMS), XML, JCA (Architecture de composant standard J2EE), etc.

Cette approche de standards ouverts (open-standard) est une réponse de l’industrie du logiciel à une
double contrainte :
• celle des clients n’appréciant pas la sensation d’enfermement dans une solution propriétaire, et qui
refusait de l’adopter.
• celle du monde du logiciel libre qui a poussé vers ce type d’approche pour des raisons philosophiques,
liées à au choix des standards ouverts favorisant l’interopérabilité.

L’open source fait jaillir l’ESB

Pour permettre d’optimiser et de mettre en commun les meilleures pratiques (Design Pattern), des
initiatives ont été prises autour de modèles : les EIP ou Enterprise Integation Pattern (1). Le projet Apache
Camel est l’un des premiers projets open source à avoir intégré des composants standards (2).
En réaction à l’évolution du marché et à l’émergence d’offres basées sur des solutions open source,
tous les acteurs historiques de l’intégration disposent désormais de leurs offres « ESB ».

L’étude de trois solutions open source destinées aux entreprises (avec des offres de service et de
support) permet de comprendre les fonctions-clés d’un ESB. Cet article va donc détailler :
• la solution OpenESB (JCAPS 6) de Sun/Oracle,
• la solution Service Mix (Fuse ESB) de Progress Software,
• la solution JBoss ESB de JBoss/Redhat.

1) http://www.eaipatterns.com 2) http://camel.apache.org/

IT-expert n°84 - mars/avril 2010 35


Au cœur d’un ESB
Découplage des applications

Entreprise Service Bus


CRM
Application
Fichier
Hot-line configuration
XML

Comptabilité

Registry
Base
de données (LDAP)

Les applications du système d’informations ne doivent pas avoir connaissance les unes des autres.
De ce fait, lorsqu’une application appelle un service métier du type « passer une commande », cela
passe par l’ESB qui dirige l’appel vers la bonne application.

Conversion de protocole

Entreprise Service Bus

Application Adapteur Adepteur Legacy


jms fichier
Application

Toutes les applications ne disposent pas d’une technologie qui leur permet aisément d’utiliser tous les
types de protocole de communication. Par ailleurs, le programmeur peut souhaiter utiliser le service
métier tel qu’il existe. Justement, l’ESB fournit une liste riche en protocoles supportés : webservice,
FTP, fichier, Soap, JMS, EDI, HL7, Edifact, Swift, etc.

Transformation du message

Entreprise Service Bus

Application
Legacy
Application

Transformation Message

36 IT-expert n°84 - mars/avril 2010


Comment ça marche ?

Chaque application possède son format de données. Pour interconnecter plusieurs applications,
l’ESB effectue des transformations de format de message. L’une des bonnes pratiques consiste à
développer un format pivot à travers toute l’entreprise et à créer des transformations pour chaque
application vers et depuis ce format pivot. Ceci évite de transporter un format propriétaire à travers
tout le système d’information.

Routage des messages

Entreprise Service Bus Comptabilité


Grand Compte
Application
Internet

Routage basé
sur du contenu Comptabilité
Standard

Suivant le contenu d’un message, le système destinataire peut changer. C’est pourquoi l’ESB propose
des composants de routage basé uniquement sur le contenu du message ou suite à l’appel d’une
application tierce pour identifier le destinataire. Ceci permet de faire évoluer le système d’information
(suivant le rythme des fusions/acquisitions des entreprises, par exemple) sans impacter toutes les
interfaces des différentes applications.

Enrichissement des messages

Commande client Commande client


Avec le détail
sur le client
Entreprise Service Bus

Marketing direct
Enrichissement Message Application
Commande

Lecture d’information sur le client

CRM

Dans de nombreux SI, l’information autour d’une même donnée est souvent présente dans plusieurs
applications. Sur un appel de service, l’ESB peut puiser des informations dans divers systèmes afin
d’enrichir la donnée dont l’application cible à besoin.

Ainsi (voir plus loin), dans OpenESB, associer un MDM (Master Data Management) permet de faciliter
le rapprochement des données en provenance de plusieurs systèmes.

IT-expert n°84 - mars/avril 2010 37


Ouverture en toute sécurité

Lorsque le système d’information est connecté à des systèmes externes, des authentifications/
cryptages de données sont nécessaires ainsi que de la transmission d’identification (type SSO). Les
ESB permettent nativement d’intégrer tous ces mécanismes dans toutes les étapes d’un flux.

Surveillance et supervision

Pour combler cette fonctionnalité, qui incarne une de leurs faiblesses, les ESB open source offrent
tous les outils nécessaires pour se connecter à des solutions externes.

Sun éclaire le chemin avec OpenESB


Version open source de l’ESB de Sun, OpenESB 2.2 utilise un serveur glassfish 2.2 et la technologie
Netbeans 6.7.1.Il succède au produit ICAN 5, acquis par Sun lors du rachat de la société SeeBeyond.
Du fait du rachat de Sun par Oracle, OpenESB se trouve de facto concurrencé par l’offre SOA-ESB de
ce dernier. Par ailleurs, Oracle travaille également à la convergence de ses outils internes et de ceux
de la suite SOA de BEA, après son rachat.

OpenESB est composé de plusieurs briques:


• un ESB tel que nous l’avons décrit précédemment,
• un outil d’orchestration de service (BPEL),
• un outil d’IEP (Intelligent Event Processing), qui permet d’agréger, d’ordonnancer… des messages
dans le temps,
• un outil de MDM, qui est un outil couramment utilisé dans les suites logicielles décisionnelles. Il est
ici utilisé pour gérer des données de référence autour de l’interconnexion de briques du système
d’information,
• un outil d’administration (dit console ESB) qui n’est présent que si OpenESB est déployé sur le
serveur d’application Glassfish (car il est un composant d’extension de la console d’administration
Glassfish).

Portail

Open ESB BAM


Business Dashboards

IEP
MDM
Administration

Complex Event Processing


Console ESB

Business Process Management


Orchestration BPEL

Entreprise Service bus


Mediation - Adapters - Routing - Transformation

Message Server - Application Server


Directory Server - SSO

38 IT-expert n°84 - mars/avril 2010


Comment ça marche ?

Un IDE central pour déployer simplement

Au cœur de la solution : le NMR (Normalized Message Router), bénéficie de l’approche JBI (Java Business
Integration) avec sa notion de composant pour les outils d’intégration. La spécification standardisée
JBI est implémentée par plusieurs ESB dont serviceMix et openESB.

Service Engine
Components register
the service they provide
Orchestration Transformation
J2EE Platform
(BPEL) (XSLT)
WSDL WSDL WSDL

System Management
JBI
Normalized Message Router Core
Services

WSDL WSDL WSDL


WS-I Basic AS2 JMS
SOAP Protocole Bindings

J2EE Platform

Comme l’indique le schéma, ce bus permet d’interconnecter tous les composants JBI, qu’ils soient
fournisseurs ou consommateurs de messages. Une description type WSDL (Web Service Description
Language) est utilisée pour décrire l’interface du composant JBI.

Une des particularités de l’offre autour d’openESB tient dans la richesse des outils de développement
et de supervision.

Côté développement, les principaux composants graphiques n’ont rien à envier aux outils propriétaires.
De plus, tout se déploie depuis l’IDE vers un serveur d’application J2EE : local pour tous les serveurs, et
sur un serveur à distance s’il s’agit de Glassfish ESB (qui est un serveur Glassfish standard contenant
tous les composants d’exécution ESB).
• l’éditeur BPEL très riche permet de définir graphiquement les étapes ainsi que les mappings
d’affectation simple
• un éditeur de transformation XSLT (non graphique).
• un éditeur IEP (graphique)
• un éditeur d’application composite CASA

Un ESB très abouti…

La solution GlassfishESB (OpenESB déployé sur un serveur d’application Glassfish) est la plus
aboutie dans le monde open-source, autant pour sa robustesse et sa fiabilité que pour ses fonctions
d’administration.
OpenESB profite de toutes les fonctionnalités d’entreprise de glassfish :
• performance : n serveur J2EE très performant et peu gourmand en mémoire ;
• fiabilité et robustesse : en mode haute-disponibilité (HA), Glassfish gère lui-même les réplications
de sessions et parmi celles-ci, il gère nativement la reprise sur incident (sur un cluster) ;
• en administration, la console dite « gwt-console » est étendue par des composants de l’ESB pour
ajouter des capacités d’administration et de supervision spécifiques aux composants déployés. Par
exemple, en mode console, le BPEL a le même mode de visualisation que sous Netbeans. Il permet
ainsi facilement de faire communiquer les équipes de production avec les équipes de développement
sur les mêmes visuels.

IT-expert n°84 - mars/avril 2010 39


… plutôt pour les projets complexes

OpenESB met en avant une approche à base de service d’orchestration BPEL. Tous les exemples sont
basés dessus et la communication faite par Sun/Oracle porte principalement sur cette approche. Certes,
cette approche se justifie pour des processus d’orchestration complexes qui peuvent éventuellement
déboucher sur des interactions humaines. Toutefois, pour des flux plus simples avec des patterns
standards, il n’existe pas dans l’offre de solution concurrente à Apache Camel. On trouve bien un
composant JBI Camel avec son éditeur sous Netbeans, mais il n’est pas graphique et il faut coder en
fichier XML les flux réalisés avec Apache Camel.

Le futur d’OpenESB s’appelle Fuji. Celui-ci reposera sur des composants OSGI - Open Services Gateway
Initiatives (comme la version 3 de Glassfish) et sur Maven pour la partie développement. Il sera possible
de créer et de déployer des composants Fuji à partir de commandes Maven. Cela permettra d’utiliser
d’autres outils de développement que Netbeans.

De nombreux composants de qualité inégale

OpenESB est un bon ESB, basé sur une architecture solide (JBI-NMR, Glassfish, gwt-console) et sur
un environnement de développement convivial (Netbeans) pour quelques composants standards
(BPEL, IEP). Malheureusement, les nombreux composants n’affichent pas tous le même niveau de
qualité et de fonctionnalité. Les deux principaux qui distinguent cette solution sont le composant de
transformation XSLT et le composant Apache Camel.

Malheureusement, Sun n’a jamais été très à l’aise avec les communautés open-source et peu apte à
réellement les animer. De nombreux composants existent, mais la communauté n’est pas très active
en dehors des salariés de Sun.

ServiceMix : l’ESB qui fuse avec Progress


Projet open source de la fondation Apache, ServiceMix bénéficie de plusieurs sponsors dont l’un des
principaux est la société Progress Software. Cette société propose un packaging (support) autour des
projets ESB de la fondation Apache :
• Fuse ESB pour serviceMix ;
• Fuse Message Broker pour ActiveMQ, le serveur JMS ;
• Fuse Sevices Framework pour Apache CXF (webservice et SOAP) ;
• Fuse Mediation Router pour Apache Camel.

Un complément Progress appréciable

Les principaux contributeurs (développeurs) de ces projets open source sont salariés de Progress
Software. Dans la version supportée, Progress Software a ajouté deux autres produits :
• le plug-in Eclipse Fuse Integration Designer pour définir graphiquement définir des flux pour Apache
Camel
• et Fuse HQ qui permet d’ajouter des fonctions de supervision et d’administration au serveur Hyperic
HQ Enterprise.

40 IT-expert n°84 - mars/avril 2010


Comment ça marche ?

Encore plus loin vers les standards

Une démarche a été initiée afin d’étendre les normes OSGI (Open Services Gateway Initiatives), qui
viennent de l’industrie, au monde des serveurs J2EE. L’implémentation de référence de ces normes
est le serveur DMserver édité par la société SpringSource (il est à noter que cette dernière salarie
également une grande partie des contributeurs au projet Apache Tomcat). DMserver vient d’être cédé
à la fondation Eclipse sous le nom « Virgo ». Le projet Apache Karaf est une autre implémentation de
ces normes OSGI pour J2EE.

Dans sa version 4, ServiceMix repose sur l’approche composant OSGI. Il se déploie donc sur un serveur
OSGI type Apache Karaf.

Votre
composant JBI
ServiceMix
Components
JBI CXF Camel
Compatibility layer NMR NMR

NMR web ActiveMQ

Apache Felix Karaf

Dans cette illustration, chaque élément de la configuration est un composant OSGI et l’ordre d’empilement
représente leur interdépendance.

Ainsi, vous développez un flux basé :


• sur Camel dans une version donnée ;
• des interfaces HTTP vers différentes applications (dans une version donnée à chaque fois) ;
• des protocoles (JBI) selon leur version…

Simplifier le développement et les migrations

Un des grands avantages de cette approche à base de composants OSGI tient dans la capacité à
déployer deux versions d’un même composant dans un même serveur. Il n’est ainsi plus nécessaire
de réaliser des migrations massives ou de lancer une instance de serveurs d’application pour chaque
version de composants.

De plus, l’approche de Fuse ESB diffère radicalement de celle retenue pour OpenESB. En effet, les
outils de développement sont basés sur Apache Camel, donc sur les patterns d’intégration d’entreprise.
Approche opportune puisque la plupart des flux d’intégration ne nécessitent pas de processus
d’orchestration comme BPEL, moins performant, car ils mettent en œuvre des mécanismes techniques
complexes comme la persistance. Il est toujours possible d’intégrer un moteur d’exécution BPEL de
la fondation Apache comme Apache ode.

L’outillage de développement est basé sur l’offre autour d’Eclipse (pour la partie BPEL, Webservice,
etc.) et sur l’offre Fuse Intégration Designer. Cette panoplie correspond bien à l’outillage de tout
développeur java/J2EE.

IT-expert n°84 - mars/avril 2010 41


Un succès d’estime, mais « peut mieux faire » !

L’offre autour des outils de la fondation Apache est très active et est de plus en plus plébiscitée par les
entreprises, autant pour sa pertinence technique et fonctionnelle que pour ses performances :
• les choix techniques autour des composants OSGI et JBI ;
• les choix d’outillage de développement basé sur une approche EIP et non tout sur le BPEL ;
• performance : Progress Software affiche quelques références très impressionnantes auprès
d’entreprises qui gèrent plus de 20 000 transactions métiers par seconde avec la suite Fuse.

Le seul manque de cette offre est l’absence totale d’un moteur IEP/CEP. De son côté, la fondation
Eclipse développe un projet nommé swordfish (don de la société Sopera) qui se base sur serviceMix.
Ce projet vise à proposer améliorer et à simplifier les possibilités de déploiement, de supervision, etc.
Un projet malheureusement peu actif à ce jour…

JBoss ESB : encore du travail, mais…


Pour se pencher sur l’offre JBoss autour de JBoss ESB 4.7, il convient d’y ajouter JBoss JBPM 4 et
JBoss SOA (portefeuille JBoss/Redhat).

Riche en événements…

JBoss ESB permet de réaliser toutes les transformations décrites pour les deux précédents ESB :
transformation de protocole et de message, sécurité…

L’approche de JBoss ESB est assez proche de celle d’Apache Camel. Il s’agit d’une suite d’actions
qui sont déclenchées suite à la réception d’un événement. La richesse des événements fournis en
standard est satisfaisante, et il est très simple de l’étendre. De plus, avec JBoss JBPM, il est possible
de déployer une l’orchestration de service ainsi que la gestion des corbeilles utilisateurs.

42 IT-expert n°84 - mars/avril 2010


Comment ça marche ?

En couplant JBoss ESB et JBoss JBPM, il est possible d’orchestrer des processus métiers complexes.
JBoss JBPM gère la logique métier tandis que JBoss ESB fournit toute la pile technique pour se
connecter facilement en entrée ou en sortie aux applications externes.

Hormis l’éditeur JBPM très pratique, le développement s’effectue via fichier de paramétrage, et il
n’existe pas de designer graphique. Ce qui ne favorise pas la prise en main.

… mais pauvre en interface

Une des lacunes importantes JBoss ESB est son manque d’intégration avec
JBoss Rules. Actuellement, l’intégration se fait uniquement sur l’appel du
moteur de règles pour réaliser des choix. Or, JBoss Rules dispose de trois
autres composantes qui pourraient être exploitées :
• Le moteur full BPMN2 avec son designer graphique sous Eclipse. Et il
s’agit de la seule offre open source (ou presque) sur ce sujet. Ceci permet
d’avoir des processus métiers très complexes avec des interactions
nombreuses, et dans un langage de description métier (BPMN2 fait partie
de la normalisation de l’OMG qui normalise également UML). De plus,
exécuté dans le moteur de règles, un processus peut-être interrompu
à tout moment. Cela permet une gestion élégante des exceptions
métiers.
• Un moteur IEP/CEP qui permet de mélanger des règles métiers d’une
manière temporelle. Cette fonctionnalité IEP/CEP est aussi présente
dans openESB. L’utilisation de JBoss Rules permet d’obtenir les mêmes
fonctionnalités, mais plus évoluées, car elles bénéficient de la richesse
d’un moteur de règles.
• Un outil de gouvernance et de référentiel des règles : Guvnor. Il permet de
stocker l’ensemble des artefacts (règles, IEP/CEP et processus BPMN2)
et ceci d’une manière versionnée. Il serait alors également possible de
stocker les autres artefacts de JBoss ESB et JBoss JBPM pour disposer
d’un réel référentiel d’entreprise.

Dans l’état actuel, JBoss ESB est une offre classique qui ne se distingue pas. Une bonne solution dont
l’approche trop classique ne favorise pas l’adoption. En revanche, l’ajout à cette offre de JBoss Rules
permet de concevoir une offre unique sur le marché.

IT-expert n°84 - mars/avril 2010 43


Autant de projets, autant d’aventures
Dans le monde du logiciel libre d’entreprise, il existe deux grands types de projets :
• Ceux entièrement pilotés par la ou les sociétés à l’origine du projet, comme OpenESB, le framework
Spring, Maven, etc.
• Ceux pilotés par la communauté et dont la ou les sociétés proposent des offres de support à disposition
quelques « core » développeurs et d’un « project leader ». Ceux qui payent le support sont traités
en priorité, et le reste doit être développé par des personnes externes, soit comme contributeur
(avec des droits d’écritures sur le code source) soit sous la forme de patch (modification) qu’un
contributeur doit appliquer au code source. Même si l’impulsion reste du domaine des « project
leader », la vitesse d’implémentation dépend alors en grande partie de la communauté. Or, les
ressources des entreprises ne suffisent généralement pas.

OpenESB fait partie de la première catégorie et ServiceMix/JBoss ESB de la seconde. C’est pourquoi
OpenESB bénéficie d’une belle plate-forme qui se rapproche d’une offre commerciale classique avec
la maturité attendue d’un tel outil. Les deux autres sont à l’image de leurs communautés et de leur
niveau de maturité sur le sujet de l’ESB. ServiceMix comme JBoss ESB sont très utilisés dans leurs
versions communautaires, mais beaucoup moins dans leurs versions supportées, en France. Ces
projets attendent des contributions pour grandir.

Une variété de choix selon ses attentes

Il convient de choisir l’outil le plus adapté à son approche du SI, à sa démarche et aux outils attendus :
• Les outils restent des outils. Les fonctionnalités sont plus importantes. Il importe de privilégier une
solution qui saura évoluer dans le temps. OpenESB se trouve dans cette catégorie : bons choix
technologiques, et fonctionnalités très correctes.
• Les outils doivent répondre aux besoins sur des sujets extrêmes comme la volumétrie, l’évolution
permanente des flux (ce qui va imposer de déployer plusieurs versions d’un même flux), etc. En un
mot, l’approche par composant comme OSGI est la solution à la modularité nécessaire. ServiceMix
avec tous les autres composants de la fondation Apache correspond alors parfaitement. Bien que
plus complexe à mettre en œuvre, la solution apporte la flexibilité indispensable.
• Pour une grande modularité dans les flux sans nécessité de l’approche par composant et peu
d’intérêt pour les standards, JBoss ESB incarne une bonne solution.

Quel avenir pour ces 3 solutions ?

• L’ESB de la fondation Apache a un avenir clairement tracé vers des pratiques fidèles à l’avenir de
l’informatique.
• OpenESB suit les pas de ServiceMix. D’ailleurs, les mêmes choix de spécifications ont été effectués les
deux outils : JBI, OSGI et NMR ne sont que quelques exemples. OpenESB va rencontrer le problème
de stratégie qu’Oracle voudra adopter sur cet ESB. Il est probable qu’Oracle maintiendra une équipe
« core » developpeur. Une communauté sera à créer pour permettre à cet outil d’évoluer.
• L’ESB de JBoss/Redhat accuse certainement le plus de retard sur l’implémentation de ces
spécifications. Cela va même plus loin, car JBoss ne souhaite pas passer par les standards JBI
et NMR (OSGI sera implémenté dans la version 6 du serveur d’application JBoss). En revanche,
JBoss profite de la forte culture de ses communautés et possède quelques outils autour de son
ESB qui peuvent lui permettre d’innover vers des fonctions dont les autres solutions open source ne
disposent pas, comme le référentiel d’entreprise (avec Guvnor de JBoss Rules). Cela passera tout
de même par le respect de standard d’implémentation comme JBI et NMR pour faciliter l’écriture
de composant portable d’un ESB à l’autre. n

Nicolas Héron
Architecte J2EE, SOA et moteur de règle au sein du groupe Adéo, contributeur au projet drools

44 IT-expert n°84 - mars/avril 2010


Livres
Conduite de projets informatiques
Développement, analyse et pilotage

Un livre de plus sur la conduite de projet ? Oui et non ! En effet, très pratique, cet ouvrage se veut plutôt
un manuel d’accompagnement complet et opérationnel. Les auteurs restent précis et concrets et nous
épargnent leurs opinions et réflexions, trop souvent exposées sans aucun intérêt pour le lecteur dans
ce type de manuel.

Destiné aux informaticiens et chefs de projets, le livre présente de façon utile toutes les étapes d’un
projet en laissant chacun effectuer ses choix en connaissance de cause. Le lecteur appréciera l’approche
pragmatique et la description des outils conçus pour la conduite des projets. Assez logique lorsque l’on
sait que Brice-Arnaud Guérin est responsable des développements logiciels chez LexisNexis.

Schémas, tableaux détaillés, cas expliqué… le ton didactique est renforcé par la présentation de méthodes
de chiffrage, de planification, de gestion des risques, d’organisation fonctionnelle, etc. Les multiples outils
proposés peuvent être enrichis par des exemples à télécharger sur le site de l’éditeur. D’ailleurs, l’ouvrage
est disponible au format électronique sur le site d’ENI.

Conduite de projets informatiques


Brice-Arnaud Guérin
Éditeur : ENI collection dataPro
298 pages - environ 43 E ou 36 E en version numérique

Le management de la performance par les processus

En période de crise, réductions budgétaires et augmentation de la productivité ramènent la performance sur


le devant de la scène. Après l’avènement de l’ERP, des services Web et de l’approche SOA, la sensibilisation
autour de l’amélioration des processus devient une préoccupation majeure. Et justement, cet ouvrage
apporte sa pierre à l’édifice. Ce guide pratique du pilotage de processus s’adresse à tous les acteurs de
l’entreprise et de son environnement, autour de trois thèmes : le pilotage des processus, leur gouvernance
et la mise en place d’une démarche processus.

Le sous-titre donne le ton : « du BPM à la pratique du pilotage de processus ». S’appuyant sur des exemples
concrets, de nombreuses illustrations, des fiches pratiques et des recommandations de mise en œuvre, le
livre évite de tomber dans le piège de l’intellectualisation qui rend souvent le propos inintelligible et peu
opérationnel. L’auteur propose aussi des méthodes, des règles, des modèles et des supports pratiques
facilement réutilisables et adaptables.

Le management de la performance par les processus


Dominique Thiault
Éditeur : Lavoisier
298 pages - environ 59 E

IT-expert n°84 - mars/avril 2010 45


Le respect des licences libres :
les juridictions veillent
Les logiciels libres constituent un mouvement structurant de l’industrie informatique et, bien qu’étant

massivement utilisés, ils restent encore parfois mal connus, spécialement du point de vue juridique.

De plus, leur mode de production, qui mêle de manière composite des communautés bénévoles et des

entreprises, est parfois mal compris.

46 IT-expert n°84 - mars/avril 2010


Rubrique à brac

Distinguer commercial et propriétaire


Les juridictions, gardiennes de ces libertés
Parmi les exemples les plus célèbres, on cite souvent le navigateur
web Firefox de la Fondation Mozilla, la suite bureautique Dans un arrêt en date du 16 septembre 2009, la Cour d’Appel
OpenOffice.org de l’entreprise commerciale Sun (maintenant de Paris a justement fait respecter ces exigences de la licence
Oracle), et bien sûr le système d’exploitation GNU/Linux soutenu GNU/GPL. Ce litige opposait la société EDU 4 à l’Association
à la fois par une large communauté bénévole et par les plus nationale pour la Formation Professionnelle des Adultes
grandes entreprises du monde informatique. (AFPA).

La particularité de tous ces logiciels est de préserver les libertés Sans rentrer dans chaque détail de cette affaire, rappelons
des utilisateurs. Ces derniers bénéficient de quatre libertés simplement que le 13 novembre 2000, la société EDU 4 était
fondamentales, formalisées par la Free Software Foundation déclarée attributaire du marché correspondant à l’appel d’offre
fondée en 1985 par Richard Stallman. Ils doivent pouvoir de l’AFPA portant sur le déploiement « d’espaces ouverts de
exécuter, étudier, redistribuer et améliorer le programme sous formation » (EOF) à travers la France, intégrant un matériel
licence libre. Or, le seul moyen informatique de garantir ces informatique multimédia, un réseau informatique associé, des
libertés revient à assurer l’accès au code source du programme logiciels de communication, de télétutorat et de pilotage ainsi
et pas seulement à son binaire, comme le font les éditeurs de que les ressources de produits pédagogiques. Au cours de
logiciels propriétaires. l’exécution de ce marché, diverses difficultés se sont révélées
et l’AFPA, qui s’estimait trompée, a sollicité la résolution du
Il est fondamental de comprendre que les logiciels libres marché.
s’opposent conceptuellement aux logiciels propriétaires, qui
restreignent les libertés de l’utilisateur, et non pas aux logiciels Aucun accord amiable n’ayant pu être trouvé entre les parties,
commerciaux. D’ailleurs, de nombreux logiciels libres sont – de l’AFPA a introduit une instance devant le Tribunal de Grande
fait – des logiciels commerciaux. Instance de Bobigny afin de faire résilier le contrat aux torts de
la société EDU 4. Bien que le Tribunal n’ait pas fait droit aux
demandes de l’AFPA et n’ait pas prononcé la résiliation du
L’open-source encadré par des licences marché, il n’a pas accordé à la société EDU 4 l’intégralité des
dommages-intérêts sollicités et cette dernière a, en conséquence,
Il existe deux catégories principales de licences libres ou open interjeté appel du jugement.
source.
D’une part, les licences « permissives » telles que les licences Contre toute attente, la Cour d’Appel de Paris a infirmé le
BSD ou X11 (aussi appelée MIT) qui n’imposent pas ou peu jugement dans son intégralité et prononcé la résolution du
d’obligations aux utilisateurs. Les logiciels qu’elles régissent marché aux torts de la société EDU 4.
peuvent notamment être incorporés dans des logiciels
propriétaires. L’AFPA sollicitait la résolution du marché au motif que le produit
D’autre part, les licences fondées sur la notion de « copyleft » livré par la société EDU 4 ne faisait pas mention de la présence
exigent que toute redistribution du logiciel concerné soit faite du logiciel libre VNC, publié sous licence GNU/GPLv2, lequel
sous la même licence ou une licence compatible, à l’exclusion avait été modifié, que les mentions relatives aux droits des
de toute licence propriétaire. La plus célèbre des licences libres auteurs de VNC avaient été supprimées pour être remplacées
est la licence GNU/GPL de la Free Software Foundation, qui par celles d’EDU 4, que le texte de la licence GNU/GPLv2 avait
régit par exemple le système GNU/Linux. également été supprimé, et que le mécanisme de protection de
VNC avait été modifié en introduisant un mot de passe connu
Cette notion de copyleft est centrale car c’est cette construction uniquement de EDU 4 et non modifiable.
juridique qui permet de garantir la pérennité des quatre libertés
précitées que l’auteur initial a souhaité accorder à l’ensemble La société EDU 4 contestait les allégations de l’AFPA, notamment
des utilisateurs. au motif que les corrections nécessaires devaient être réalisées
dans la version définitive de la solution devant être livrée.
Ainsi, un logiciel régi par une licence copyleft ne peut pas devenir
propriétaire. Il se crée alors un cercle vertueux de partage du code La Cour a prononcé la résolution du marché au motif que la
source informatique : si une personne profite du travail de tiers, la société EDU 4 avait manqué à ses obligations contractuelles en
contrepartie est que son travail sera ensuite utilisable par tous. livrant un produit « d’une part qui présentait pour les utilisateurs
Outre l’accès au code source et au maintien de ce dernier sous des EOF des risques d’atteinte à la vie privée, et d’autre part qui
une licence libre, il faut, pour respecter pleinement les termes de la ne satisfaisait pas aux termes de la licence GNU GPL puisque
licence, fournir une copie du texte complet et respecter les notices la société EDU 4 avait fait disparaître les copyrights d’origine
de copyright des auteurs précédents. Ces obligations s’appliquent de VNC sur les propriétés de deux fichiers en les remplaçant
immédiatement dès la distribution du logiciel, et envers tout tiers, par les siens et avait supprimé le texte de la licence. » La Cour a
quel que soit son statut juridique ou économique (entreprise, également relevé que le code source n’était pas fourni, ce qui
particulier, client payant, utilisateur à titre gratuit, etc.). constitue une autre violation de la licence.

IT-expert n°84 - mars/avril 2010 47


Pas de vide juridique français
sur les licences open source
D’une part, et contrairement à ce que l’on a pu lire sous la plume
de certains juristes, les juridictions françaises peuvent et
doivent faire sanctionner toute violation des licences libres
dont elles sont saisies. D’ailleurs, à aucun moment la société
EDU 4 n’a contesté devoir respecter les termes de la licence
GNU/GPLv2.

D’autre part, il est clair à la lecture de l’arrêt que la Cour d’Appel


a, à juste titre, appliqué les obligations de la licence GNU/GPLv2
comme elle l’aurait fait avec n’importe quelle licence, que celle-ci
soit « libre », « open source », ou « propriétaire ». Ceci démontre,
si nécessaire, que les licences libres s’intègrent parfaitement
dans le droit positif français. Quelques précautions à prendre
pour les entreprises
Enfin, cet arrêt est encore plus original, car la violation de la licence
GNU/GPLv2 a été constatée par la Cour d’Appel à la demande Toute entreprise est, ou sera à court terme, confrontée à des
de l’AFPA, qui n’a jamais contribué à ce logiciel, aucun auteur problématiques liées à l’utilisation de logiciels libres, tant ces
du logiciel VNC ne s’étant constitué partie lors de l’instance. En derniers sont devenus inévitables dans le paysage informatique.
d’autres termes, si les auteurs de logiciels libres peuvent exiger que C’est pourquoi une attention particulière doit être portée à une
toute personne respecte la licence sous laquelle ils ont publié leur bonne compréhension des licences libres, qui bien que tout à
logiciel, les utilisateurs de logiciels libres peuvent également fait accessibles, contiennent quelques particularités juridiques
exiger le respect de ces licences par ceux qui diffusent des qu’il faut prendre le temps d’appréhender.
logiciels libres. Les utilisateurs de logiciels libres constituent des
« tiers bénéficiaires » qui doivent être informés de leur utilisation de Compte tenu de l’architecture actuelle des services informa-
logiciels libres et doivent pouvoir exercer les quatre libertés. tiques, et notamment du recours massif à la sous-traitance,
parfois sur plusieurs niveaux, il est nécessaire d’anticiper les
En effet, la Cour d’Appel relève comme violation de la licence GNU/ problèmes éventuels en négociant des contrats adaptés.
GPLv2 le remplacement des mentions de droits d’auteurs ainsi À titre d’exemple, il conviendra d’obtenir des garanties quant à
que la suppression du texte de la licence. En l’absence de ces la présence de logiciels libres dans la solution commandée et
informations, il est impossible (sauf avec une expertise technique) d’exiger du sous-traitant que lui-même respecte les obligations
d’avoir conscience que l’on utilise des logiciels libres. de ces licences, notamment en fournissant le code et la licence
associée. En outre, il conviendra de comprendre comment les
Il est vrai que l’AFPA était un client de développements infor- différentes briques logicielles utilisées interagissent entre elles
matiques de la société EDU 4 et non un simple « utilisateur ». et faire valider juridiquement leur compatibilité.
Cependant, cette distinction n’est pas pertinente en l’espèce.
D’une part, juridiquement, la licence ne distingue pas selon la Ces quelques précautions sont indispensables tant elles
qualité de l’utilisateur du logiciel, les obligations du distributeur permettent au client de faire respecter ses propres droits garantis
s’appliquent en tout état de cause, et à l’extrême, même en par les licences libres tout en lui donnant les moyens de ne pas,
l’absence totale d’utilisateurs. D’autre part, les licences libres lui-même, un jour porter atteinte aux droits des auteurs. n
garantissent que les libertés accordées par l’auteur originel du
logiciel perdurent avec chaque redistribution, au bénéfice de
l’ensemble de la communauté des utilisateurs. Il est important
de conserver à l’esprit que l’auteur d’un logiciel libre peut
également devenir un membre de la communauté d’utilisateurs,
et que toute violation d’une licence libre le préjudicie également
pour cette raison.
Olivier Hugot
Il convient de rappeler que conformément à l’article 4 de la avocat
GNU/GPLv2, toute distribution violant la licence entraînera
automatiquement la résiliation de cette dernière. Ainsi, toute
personne ne respectant pas les obligations de la licence devra HUGOTAVOCATS est un cabinet d’affaires réactif dédié aux sociétés et aux personnes
stopper immédiatement toute utilisation du logiciel concerné, des secteurs de la communication, des médias, de l’art et des nouvelles technologies.
mais les tiers utilisant ce logiciel conformément à sa licence Il conseille notamment des entreprises et des auteurs dans le cadre du respect
pourront librement continuer de le faire. Dans le cas contraire, des licences libres. www.hugot.fr
elle pourra être sanctionnée judiciairement.

48 IT-expert n°84 - mars/avril 2010

Vous aimerez peut-être aussi