Académique Documents
Professionnel Documents
Culture Documents
Titre, auteur …
Business Intelligence avec SQL Server 2019 et Power BI
Maîtrisez les concepts et réalisez un système décisionnel
Ce livre sur la Business Intelligence (BI) avec SQL Server 2019, s'adresse à tous les membres d'une
équipe décisionnelle : chef de projet, architecte, développeur ETL, développeur de rapports, service
Aide à la Maîtrise d'Ouvrage (AMO). Du débutant au technicien expérimenté, le lecteur bénéficiera
d'une approche métier du décisionnel.
Tout au long du livre, et très progressivement, l'auteur détaille les concepts clés du décisionnel puis
les met concrètement en application. Ainsi, au cours des différents chapitres, le lecteur va utiliser les
différents outils de la suite SQL Server et Power BI pour bâtir progressivement un système
décisionnel complet et professionnel. À chaque chapitre, le livre regorge de solutions concrètes et de
bonnes pratiques. Le lecteur bénéficie des retours d'expérience de l'auteur pour finalement gagner
en expertise sur les différentes étapes d'un projet décisionnel.
Plus précisément, l'auteur propose de créer le système décisionnel d'une société virtuelle, Distrisys,
qui sera l'occasion pour le lecteur d'étudier les sujets suivants :
- l'architecture des serveurs et le choix des licences
- la modélisation de l'entrepôt de données
-
Enfin, ce livre s’adresse à toute personne connaissant la base de données SQL Server désirant
comprendre ce qu’est le décisionnel et apprendre à utiliser les outils SQL Server qui y sont associés.
Les débutants y trouveront des explications très détaillées, des actions et des manipulations à réaliser.
Les techniciens expérimentés, quant à eux, y trouveront une approche métier du décisionnel, très
complémentaire avec l’utilisation des outils, ainsi que des solutions pratiques pour implémenter ces
concepts.
Les étudiants enfin, y trouveront une approche et des mises en œuvre très concrètes, proches du
monde de l’entreprise. Ce livre est un bon moyen d’aborder l’état de l’art du décisionnel et pour
apprendre à utiliser des outils qu’ils côtoieront dans l’exercice de leur futur métier.
Les prérequis
Le seul prérequis nécessaire est d’être familier avec la base de données SQL Server, sans toutefois
en être un expert. Le livre est fait de telle manière que les bases et concepts liés au décisionnel sont
repris et expliqués.
Pour réaliser les manipulations et suivre le déroulement du livre, vous aurez besoin d’une installation
de SQL Server 2019 ainsi que d’Office 365 (Excel notamment).
Si besoin, vous pouvez télécharger ces solutions en version d’évaluation sur le site de
Microsoft : http://technet.microsoft.com/fr-fr/evalcenter/
1. La notion de décideur
Sous le modèle du taylorisme et jusque dans les années 80-90, les organisations étaient organisées de
manière pyramidale. Les décisions étaient prises au sommet de la pyramide et les ordres étaient
transmis de manière descendante et unilatérale à tous les niveaux opérationnels. Dans ce type
d’organisation, les décideurs étaient seulement les dirigeants de l’organisation.
Ce type d’organisation était efficace tant que le marché était localisé et qu’il suffisait de produire pour
vendre.
Depuis nous sommes confrontés à une complexité grandissante du marché liée :
À la mondialisation : les concurrents sont plus nombreux, plus innovants, mieux armés.
À une modification des comportements d’achats : l’organisation se doit d’être centrée sur le
client. En effet, les produits sont de plus en plus personnalisés (on parle de one-to-one).
Au fait que le monde va de plus en plus vite : le critère de délai de livraison ou de disponibilité
de l’information 7 jours du 7, 24h sur 24 associé à la mondialisation et la personnalisation du
besoin client, démultiplie la complexité de l’écosystème de l’organisation.
Afin de pouvoir répondre à cette complexité grandissante du marché, l’entreprise dans les années 90,
puis avec le web dans les années 2000 a amorcé une mutation de son organisation. Une des
conséquences de cette modification latente des organisations est que les cadres opérationnels sont
devenus autant de décideurs de terrain.
Dans une entreprise internationale, les responsables du marché français, japonais et indien sont
forcément des personnes distinctes. Les marchés sont trop différents. De même, dans cette même
entreprise, le responsable de l’unité parisienne est différent du responsable de l’activité à Nice sur le
littoral ou à Limoges dans le Limousin : les clients sont trop différents, leurs attentes, leurs
Cette problématique, liée à une démocratisation des outils décisionnels, a fait exploser la demande et
mis en avant au début des années 2000, ce besoin de décisionnel.
Face à ce constat, qui sont les décideurs dans une entreprise ?
On les classe en trois catégories :
À ces trois profils de décideurs s’ajoute celui des analystes. Le rôle des analystes est de récolter et de
travailler l’information, fiabiliser les données, expliquer les résultats. Leur rôle est d’aider à la prise de
Il est important d’identifier les analystes dans l’organisation dans laquelle vous intervenez, car ce
sont de très loin les utilisateurs les plus demandeurs d’informations.
Cette classification a de l’importance, car elle va révéler de grosses différences dans le type
d’outils dont chacun a besoin. Bien entendu, les choses ne sont pas aussi binaires : certaines
personnes relèveront du stratégique/tactique, d’autres du tactique/opérationnel… Toutes les nuances
sont permises. Ce qu’il faut bien comprendre, c’est que la notion de prise de décision pour chacun de
ces décideurs n’a pas la même teinte et que chaque profil n’a pas les mêmes attentes vis-à-vis du
décisionnel.
Les informations permettant d’appréhender ces facteurs peuvent être de deux natures différentes :
Les informations quantitatives : ce sont toutes les données chiffrées telles que les montants,
quantités, pourcentages, délais…
Les informations qualitatives : ce sont toutes les informations non quantifiables telles qu’un
commentaire accompagnant un rapport, des mécontentements, un sentiment, une directive, une
nouvelle procédure…
Ces facteurs n’ont pas le même sens suivant le type de décideur. Leurs horizons fonctionnels et
temporels sont trop différents pour être traités de manière uniforme.
Dès lors, la mise en place d’outils décisionnels doit permettre de répondre progressivement à ces trois
attentes :
Améliorer l’accès et la qualité des données.
Gagner en finesse d’analyse et de compréhension de données.
Gérer les performances de l’organisation et de ses politiques.
3. L’informatique décisionnelle
L’informatique décisionnelle couvre toutes les solutions informatisées pour améliorer la prise de
décision des décideurs dans l’organisation.
Dans ses débuts, l’informatique décisionnelle s’est contentée tout d’abord de dupliquer les bases de
données des systèmes de gestion, afin d’isoler les requêtes d’analyse de données des
requêtes opérationnelles. Les requêtes d’analyse étant souvent très lourdes, l’objectif était surtout de
préserver les performances des systèmes opérationnels. Ensuite, cette base de données dédiée aux
requêtes et à l’analyse a progressivement muté et s’est organisée.
Partant du constat qu’il est difficile de croiser des données contenues dans des bases de données
distinctes, le plus simple a été de regrouper ces données éparses. Le concept de la base unique
pour centraliser les données de l’entreprise est plus que jamais d’actualité. Il s’agit du concept
d’entrepôt de données (ou Data Warehouse).
S’il est plus simple d’analyser ces données une fois qu’elles sont dans l’entrepôt de données, il n’en
reste pas moins qu’il faut tout de même remplir l’entrepôt de données. L’extraction et le croisement
des données des différents systèmes opérationnels puis le chargement dans l’entrepôt de données, ont
fait émerger des outils dédiés à cette tâche, avec des concepts métiers qui leur sont propres : les outils
d’ETL (Extract Transform Load).
Si au début les requêtes d’analyses portaient sur une base relationnelle (dites OLTP pour OnLine
Transaction Processing), le concept de base multidimensionnelle (dites OLAP pour OnLine
Analytical Processing) s’est démocratisé fin des années 90. Ce concept de bases de données offrait des
performances très largement supérieures aux bases OLTP pour répondre à des requêtes d’analyse. Ces
bases OLAP se sont alors couplées avantageusement avec l’utilisation de l’entrepôt de données. En
effet, elles offraient à la fois un environnement plus performant, mais permettaient également aux
utilisateurs finaux de bénéficier d’une interface simplifiée d’accès aux données, beaucoup plus
intuitive qu’une base de données OLTP. On parle alors de métamodèle. Enfin, vers la fin des années
2010, les éditeurs ont proposé des métamodèles montés directement en mémoire pour encore plus de
performance.
Si l’informatique décisionnelle s’est contentée dans ses débuts d’une approche technicienne, elle
progresse et converge de plus en plus rapidement vers le poste utilisateur et s’adapte aux métiers des
utilisateurs. Nous sommes encore aujourd’hui dans cette phase de convergence.
Vous le comprendrez, dans le contexte actuel, les décideurs étant de natures très différentes, les outils
de restitution sont multiples afin de convenir et répondre à toutes les attentes des différents acteurs de
la prise de décision.
On dénombre sur le poste de travail des outils de natures très variées :
Les outils de reporting pour délivrer une information opérationnelle ou une information
décisionnelle de suivi d’activité. Dans le cadre du reporting décisionnel, il s’agit notamment de
reporting de masse destiné à la publication d’un rapport personnalisé vers de nombreux
utilisateurs avec un profil de décideur opérationnel.
Les outils d’analyse pour comprendre et appréhender une situation passée. Les outils d’analyse
reposant sur un métamodèle (OLAP ou en mémoire) pour des performances optimales. Ces
outils doivent permettre aux analystes de naviguer et d’explorer les données disponibles
facilement, rapidement et en toute autonomie.
Dans la section suivante nous allons voir comment Microsoft articule sa solution pour répondre à ces
exigences, tant techniques que fonctionnelles.
Même s’il n’est pas considéré comme le meilleur ETL du marché, il n’en reste pas moins que SSIS est
un véritable outil d’ETL, fiable, performant, et qu’il remplit parfaitement le rôle pour lequel il est
destiné. SSIS est d’ailleurs largement déployé et employé dans de très nombreuses entreprises
françaises et étrangères.
Nous ne vous conseillons pas d’acheter la licence SQL Server 2019 pour bénéficier
spécifiquement de SSIS, surtout, si vous travaillez sur un décisionnel en environnement Linux
avec des technologies open source... En revanche, si vous avez pour projet de bâtir un système
décisionnel en environnement Microsoft, le rapport qualité-prix de l’outil est véritablement
imbattable.
Le point fort de SSIS est que c’est d’une part un bon ETL et qu’il est d’autre part disponible sans
surcoût avec la licence SQL Server. Une licence que la plupart des entreprises disposent déjà afin
de bénéficier de la base de données relationnelle.
Plus que l’outil, c’est la manière dont est employé l’ETL qui est très importante. À ce propos, le
chapitre Alimenter l’entrepôt de données avec SSIS, reviendra assez largement sur le sujet afin de
vous donner les bonnes pratiques d’usage. Nous vous invitons donc à consulter ce chapitre, à la fois
pour découvrir les bonnes pratiques de l’ETL et pour apprendre à vous familiariser avec SSIS.
La liste est bien entendu loin d’être exhaustive. Les connecteurs sont cependant de qualité très inégale,
mais comme tous les produits Microsoft, le produit est ouvert et la communauté de développeurs est
assez efficace. Vous trouverez sur le marché de nombreux autres composants, connecteurs ou tâches,
et vous disposerez de la possibilité de créer le vôtre en .NET si vraiment cela s’avère nécessaire. Ce
qui est en définitive assez rare toutefois.
Au cours de nos projets, nous avons eu par exemple à développer une tâche récupérant les fichiers
en pièces jointes des mails d’une boîte aux lettres électronique. Le besoin est peu banal mais la
réalisation a été simple.
Qu’il soit performant : un ETL dispose souvent de fenêtres de traitement très courtes pour se
connecter à un système source et pour charger l’entrepôt de données. Il faut alors que l’outil
traite de très gros volumes, très rapidement. Le secret de la performance des outils d’ETL
réside généralement dans leur capacité à travailler et faire les transformations sur les données en
mémoire vive. C’est le cas de SSIS, qui dispose d’ailleurs de nombreuses possibilités de gestion
et d’optimisation du cache.
Qu’il dispose de nombreuses fonctionnalités de transformation de données : en ce qui concerne
la lettre T de ETL, SSIS est plutôt bien fourni et propose de nombreuses tâches de
transformation : calcul, contrôle, mise en cohérence des données, conversion, pivotement,
union, jointure, nettoyage, regroupement, échantillonnage… SSIS intègre de plus en plus de
tâches de transformation avancées issues de la statistique, pour vous permettre de mieux
nettoyer vos données ou contrôler leurs contenus.
Avec MDS, vos utilisateurs vont aussi apprécier de retrouver leurs données de référence dans Excel.
La gestion de ces données se fera directement depuis un classeur Excel, facilitant ainsi la conduite du
changement et l’adoption du MDM dans votre organisation.
Avec l’augmentation des volumes de données, les bases de données OLAP se sont imposées comme
des solutions incontournables pour représenter les données contenues dans l’entrepôt de données. À
l’opposé des bases OLTP, plus les requêtes utilisateurs portent sur des données globales et agrégées,
plus la réponse est rapide. À l’inverse, plus la requête porte sur les données de détails, moins la
requête est performante. Il ne faut donc pas considérer Analysis Services comme une base de données
permettant des extractions de données. Les modèles Analysis Services doivent être conçus pour
fournir la finalité de l’analyse attendue par l’utilisateur.
Analysis Services est l’interface entre l’entrepôt de données et les outils de restitution
Le mode tabulaire
Le mode tabulaire de SQL Server Analysis Services a été une nouveauté de la version 2012, et c’est la
plus grande évolution de SQL Server Analysis Services depuis la version 2005 et la sortie du mode
multidimensionnel actuel.
Tout comme le mode multidimensionnel, le mode tabulaire offre un modèle sémantique qui se veut
ouvert à tous les types de restitution : reporting, analyse, tableau de bord…
Le mode tabulaire propose une autre façon de concevoir des modèles et de les stocker. Contrairement
au mode multidimensionnel qui nécessite une modélisation dimensionnelle (cf. chapitre La
modélisation dimensionnelle) et un stockage OLAP, le mode tabulaire utilise une modélisation
relationnelle et un moteur d’analyse en mémoire vive pour le stockage et le calcul.
3. Office 365
Microsoft Excel est sûrement et de loin, le premier outil décisionnel dans le monde et ce, depuis de
nombreuses années. Il répond aux besoins d’analyse de tous les services, de toutes les organisations et
sert à toutes les tâches : stockage de données, traitement de l’information et restitution.
Si Microsoft Excel seul répond assez bien à des problématiques sectorielles (propres à un seul
service), il atteint toutefois ses limites lorsque :
Il s’agit de croiser les données de référence de plusieurs applications : les fichiers Excel
deviennent alors de véritables usines à gaz très difficiles à maintenir.
Il s’agit de réduire les délais de production des tableaux de bord : il est difficile d’automatiser le
traitement de données dans Excel. On peut toujours y arriver par le biais de macro, mais on
augmente alors sensiblement la difficulté de maintenance des rapports.
Les données à traiter deviennent trop importantes : Excel 2003 gérait quelque 65 000 lignes,
Excel 365 en gère un maximum de 1 024 576. Mais les systèmes produisent toujours plus de
données et les demandes des décideurs ont aussi tendance à se complexifier.
Il s’agit de sécurité : un fichier Excel diffusé par mail contient l’intégralité des données
détaillées qu’il affiche et ses données sont potentiellement modifiables.
Il s’agit d’automatiser la diffusion des rapports : les fichiers sont de plus en plus volumineux. La
limite admise par le serveur de messagerie est parfois atteinte.
Nous étudierons en détail, dans le chapitre Restituer les données décisionnelles - Excel, l’utilisation
d’Excel adossée à la solution décisionnelle Microsoft Vous apprendrez ainsi à mieux comprendre et à
cerner l’utilisation de cet outil puissant, ses possibilités, mais aussi ses limites.
4. Power BI
Le projet à l’origine des compléments Excel PowerPivot, PowerView et PowerQuery s’est imposé
progressivement, depuis 2015, comme un produit à part entière et maintenant comme une famille de
produits (Power Platform). PowerBI s’installe actuellemetn dans le quotidient de très nombreuses
entreprises, à tel point qu’il permet en 2019 à Microsoft de figurer en tant que leader des solutions de
Business Intelligence.
Le dashboard Power BI
D’autant plus qu’avec Power BI Service, Microsoft utilise la puissance de son cloud pour affranchir
les utilisateurs non informaticiens des moyens offerts traditionnellement par leur direction
informatique. Nous verrons au chapitre Restituer les données décisionnelles - Power BI, qu’il est
maintenant possible de déployer un serveur de rapports Power BI sans en passer par le cloud.
Cependant, Power BI n’est pas un outil d’analyse. Il est très efficace pour présenter l’information,
mais très peu performant pour l’explorer. Excel reste en cela incontournable.
Nous reviendrons largement sur ces outils au chapitre Restituer les données décisionnelles - Power BI.
Nous vous apprendrons alors à créer un dashboard Power BI, et à le partager au sein de votre
organisation.
Mes dernières expériences m’ont mené à concevoir des projets décisionnels dans le cloud avec
succès. C’est donc possible. Il y a toutefois des problématiques autour du transfert de données et
de l’authentification qui s’ajoutent à ceux d’un projet On-Premise. Il faut par exemple, en cas de
grosses volumétries, transférer les données des systèmes source au fil de l’eau via des Web API et
orchestrées par un service bus, au lieu de se contenter d’un traitement ETL quotidien. C’est donc
une étape supplémentaire propre à la problématique du Big Data qui s’ajoute au projet. Bien
entendu, une fois ces problèmes surmontés, le système décisionnel bénéficie de toute la puissance
du cloud en termes d’élasticité, de disponibilité et de sécurité.
Les versions SQL Server 2005, 2008, 2008 R2, 2012, 2014, 2016 et 2017 sont assez proches les
unes des autres. De plus, vous comprendrez assez vite qu’au-delà des outils et des versions, ce sont
les concepts qui sont vraiment importants.
L’exploitation de la solution décisionnelle nécessitera, quant à elle, une version d’Excel, idéalement
Excel 365. Mais nous vous engageons à faire des tests avec toutes les versions d’Excel disponibles et
déployées dans votre entreprise afin d’en apprécier les différences.
Des versions d’évaluation de ces produits sont disponibles en téléchargement sur le site Technet
Evaluation Center à l’adresse : http://technet.microsoft.com/fr-fr/evalcenter/
Nous vous suggérons vivement de faire vivre le modèle avec des jeux de test (cf. chapitre Réaliser
son premier système décisionnel). L’idée n’est pas de réaliser le modèle avec les véritables
données de votre système d’information. Cela vous prendrait effectivement vraiment trop de
temps. Cependant, vous ne devez pas non plus rester uniquement sur des spécifications papier,
souvent illisibles et incompréhensibles par les fonctionnels car ce serait prendre le risque que
lorsque le modèle sera réalisé à données réelles, les incompréhensions remonteraient alors d’un
bloc et mettraient alors à mal le projet lors de la recette.
Lors de cette phase, il est important que vous maîtrisiez le concept de matrice dimensionnelle et
les concepts de modélisation d’entrepôt de données. Le chapitre La modélisation dimensionnelle
vous assistera à cet effet.
Lorsque le modèle final est validé par les analystes et décideurs du service fonctionnel concerné,
le projet technique commence : il s’agit alors de réaliser en toute sérénité les flux ETL pour
alimenter le modèle préalablement défini et validé.
Au chapitre Alimenter l’entrepôt de données avec SSIS, nous aborderons l’architecture ainsi que
les bonnes pratiques d’alimentation de données.
C’est aussi au cours de cette phase que nous identifierons les données de référence de l’entreprise. Et
si elles n’existent pas, l’équipe projet se chargera de les faire émerger.
Au chapitre Gérer les données de référence avec MDS, nous aborderons la mise en œuvre ainsi
que les bonnes pratiques d’utilisation de la solution de MDM de Microsoft.
En parallèle de l’alimentation des données, un membre de l’équipe projet peut commencer à
travailler avec le service fonctionnel pour travailler sur la restitution :
Identifier et définir si besoin les rapports de masse.
Définir et concevoir les tableaux de bord.
Préparer les analystes des services fonctionnels concernés au changement : formation aux
outils de restitution et accompagnement à la réalisation des premières analyses pour s’assurer que
les outils soient correctement employés.
Le chapitre Restituer les données décisionnelles vous apportera quelques éclairages sur quelques
outils et leur bon emploi.
Vous constaterez que les chapitres de l’ouvrage sont organisés pour suivre le déroulement
chronologique du projet décisionnel de Distrisys.
Vous pourrez toutefois aborder un chapitre indépendamment du précédent. Vous aurez alors besoin de
télécharger depuis la page Informations générales l’état du projet laissé au précédent chapitre.
Dans le chapitre suivant, nous aborderons les préalables du projet : architecture serveur, licences et
prise de connaissance des consoles de SQL Server.
Nous n’entrerons pas dans les considérations de tarifs. Sur ce sujet, prenez contact directement
avec votre revendeur ou avec votre commercial Microsoft pour une estimation précise.
3. SharePoint 2019
L’étude de SharePoint n’est pas abordée dans cet ouvrage. Il n’en reste pas moins que la solution était
jusqu’à présent nécessaire pour bénéficier de la suite décisionnelle complète. Il y a encore deux ans,
nous vous aurions conseillé vivement de l’intégrer dans vos estimations de coûts prévisionnels.
Cependant, Microsoft ne maintient plus les services décisionnels associés à SharePoint. Ces services
utilisent des technologies en obsolescence comme Silverlight et leurs performances ne sont plus à la
hauteur des nouveaux enjeux. Microsoft déconseille donc leur utilisation. Nous vous le déconseillons
également. Il n’y a donc plus de portail ou de réceptacle évident au système décisionnel chez
Microsoft permettant de piloter la performance d’une organisation.
Pour pouvoir centraliser les contenus BI, vous aurez donc, soit la possibilité de développer votre
propre portail web ou application mobile appelant ces mêmes contenus Power BI ou Reporting
Services, soit la possibilité de mettre en place le serveur de rapports Power BI. C’est la solution que je
vous propose dans cet ouvrage. Pour plus de détails référez-vous au chapitre Restituer les données
décisionnelles - Power BI.
Cette fenêtre vous permet de vous connecter à un serveur, quel que soit son type :
Moteur de base de données
Analysis Services
Une fois la connexion établie, la fenêtre Explorateur d’objets affiche les objets d’administration du
serveur de bases de données sur lequel vous êtes connecté :
SQL Server Management Studio vous offre la possibilité de vous connecter, soit à un autre serveur de
base de données relationnelle, soit à d’autres types de serveur.
Nous allons par exemple nous connecter au serveur Analysis Services. Pour cela :
Dans l’Explorateur d’objets, cliquez sur Connecter, puis sur Analysis Services.
Dans la fenêtre de connexion, saisissez le nom de votre serveur Analysis Services.
Le nom d’un serveur Analysis Services se compose de la même manière que le serveur de base
relationnelle : NomMachine\Instance.
Quiz
Pour réaliser un graphique à partir du tableau croisé dynamique, sélectionnez une cellule du
tableau croisé dynamique pour faire afficher des onglets spécifiques dans le ruban.
Sous le grand onglet Outils de Tableau croisé dynamique, sélectionnez l’onglet Analyse,
puis cliquez sur Graphique croisé dynamique.
La fenêtre Insérer un graphique s’ouvre et vous invite à choisir une représentation graphique.
Sélectionnez un diagramme en histogramme, puis cliquez sur OK.
Pour insérer la référence d’une mesure ou d’un membre de hiérarchie dans la zone MDX, il vous faut
la sélectionner dans la zone Champs et éléments, puis faire un glisser-poser à l’emplacement
souhaité dans la zone MDX.
Nous allons ainsi entrer la requête MDX suivante :
Gardez cependant à l’esprit que cette mesure calculée ne sera pas persistée dans un nouveau tableau
croisé dynamique.
Pour plus de détails sur le requêtage MDX, veuillez vous référer au chapitre La modélisation
dimensionnelle - Introduction au MDX.
L’action d’extraction crée une nouvelle feuille contenant la liste des lignes constituant l’agrégat
sélectionné et affichant le numéro de facture correspondant.
6. Le mode Formule
Enfin, sans faire la liste exhaustive des fonctionnalités d’Excel, il est important de connaître une
dernière fonction assez méconnue : le mode formule.
L’affichage du tableau croisé dynamique en mode formule permet d’individualiser chacune des
cellules du tableau croisé dynamique courant. Dans ce mode formule, vous perdez les fonctionnalités
de navigation et de manipulation de données. En revanche, vous gagnez en richesse de représentations
de vos données.
Chacune des cellules constitutives de votre tableau croisé dynamique devenant indépendantes, vous
avez donc la possibilité d’en supprimer une partie, d’en déplacer une autre, ou bien de n’en conserver
que quelques-unes. Libre à vous de faire la mise en page qui vous convient. En revanche, faites
attention, car vous n’aurez alors plus la possibilité de revenir en mode tableau croisé dynamique
standard.
Dans notre feuille Excel courante, nous allons créer un nouveau tableau croisé dynamique affichant le
CA et le % Marge sur les mois de l’année 2022. Puis, nous allons convertir ce tableau croisé
dynamique en mode formule.
Cliquez sur la Feuil2.
Nous allons créer un nouveau tableau croisé dynamique réutilisant la connexion au cube
précédemment créée.
Dans le ruban, cliquez sur l’onglet Données, puis sélectionnez Connexions existantes.
À l’affichage de la fenêtre Connexions existantes, sélectionnez sous Connexion de ce
classeur sur la connexion Distrisys Suivi vente par produit. Cliquez sur Ouvrir.
Pour passer du mode tableau croisé dynamique en mode formule, sélectionnez une cellule du
tableau croisé dynamique pour faire apparaître l’onglet Analyse du tableau croisé dynamique.
Dans la section Outils, cliquez sur Calculs, puis sur Outils OLAP et enfin sur Convertir en
formules.
Un message d’avertissement vous alerte sur le fait que vous ne pourrez plus revenir en mode tableau
croisé dynamique une fois la conversion effectuée.
Confirmez la conversion en cliquant sur le bouton Convertir.
Le tableau perd sa mise en forme. En revanche, les filtres continuent de fonctionner et chaque cellule
est indépendante l’une de l’autre.
Attention toutefois aux performances : chaque cellule génère une requête au cube au lieu d’une
pour l’ensemble des données du tableau croisé dynamique. Nous vous déconseillons d’utiliser ce
mode pour faire de l’extraction de données du cube.
Un des nombreux intérêts de la conversion en mode formule est de pouvoir bénéficier des fonctions
graphiques traditionnelles d’Excel.
Graphique standard d’Excel basé sur les données du cube via le mode formule
Le mode formule permet alors, via les fonctions graphiques standard d’Excel, de combiner graphique
en courbe et histogramme, d’afficher le CA sur un axe et le % Marge sur un axe secondaire.
Avec le mode formule, l’utilisateur traditionnel d’Excel va retrouver le confort d’utilisation de son
outil favori, tout en manipulant des données issues d’un cube et bénéficier également des avantages
que l’on connait : performance, sécurité, centralisation de l’information…
Plus votre système va gagner en maturité, plus les problématiques et les outils pour y répondre vont
s’éloigner dans un premier temps d’une problématique IT pour tendre vers du management de la
performance.
À ce stade, les solutions collaboratives seront alors vos alliées, car il faut pouvoir organiser les
tableaux de bord efficacement au sein de l’organisation et les rendre accessibles aux bonnes
personnes.
Enfin, ces dernières années nous avons vu émerger de nouveaux défis pour pousser les futurs systèmes
de Business Intelligence à utiliser encore plus de données provenant de partenaires ou d’équipements
qui étaient auparavant jugés périphériques au système d’information de l’entreprise. Le système
d’information de l’entreprise devient progressivement étendu et intégré à ses partenaires. Les
technologies Big Data viennent ainsi compléter en amont la chaine de valeur du système BI.
Le Master data dans ces conditions revêt encore plus d’importance qu’auparavant pour garantir
l’intégrité et la réconciliation des informations.