Vous êtes sur la page 1sur 130

Systèmes à large échelle & Cloud Computing

Enseignant: ILYES BELHADJ HASSINE

Année Universitaire
2019-2020
PLAN DE COURS
Module 1: Systèmes Parallèles

Module 2: Systèmes Répartis et Grilles de Calcul

Module 3: Virtualisation et Cloud Computing


INTRODUCTION

 Les technologies de l’information sont de plus en plus matures et sophistiquées

 Les application deviennent « Gourmandes » en termes de ressources

 Traitements exigeant des moyens de calculs et de stockage considérables

 Même observation peut être appliquée aux technologies réseaux et à la bande


passante offerte qui tend à devenir illimitée d’un point de vue applicatif.

 BESOIN: Les centres de calcul isolés ne suffiront plus d’ici quelques années !!!

 RÉPONSE: Passer à un modèle d’informatique répartie permettant d’exploiter


pleinement les ressources informatiques disponibles

Systèmes à large échelle


INTRODUCTION

EVOLUTION DES SYSTÈMES À LARGE ÉCHELLE

 Systèmes
 Systèmes  Virtualisation
parallèles
1  Grappe ou
2 répartis 3  Cloud
Cluster de calcul
 Grille de calcul Computing
INTRODUCTION
Systèmes Parallèles
SYSTÈMES PARALLÈLES
 BESOIN: La vitesse de traitement qui est liée à l'augmentation de
la fréquence des processeurs connait des limites !!!

 RÉPONSE: Faire coopérer plusieurs processeurs pour réaliser un


traitement spécifique (Calcul)

 Rapidité:

 Pour N processeurs, temps de calcul divisé par N(théoriquement)

 Taille mémoire:

 Pour N processeurs, on dispose de N fois plus de mémoire (en général)


SYSTÈMES PARALLÈLES
 DIFFICULTÉS:

 Il faut gérer le partage des tâches

 Il faut gérer l'échange d'information (tâches non-indépendantes)

 À ne pas confondre le calcul parallèle avec le calcul


multiprocesseurs:

 Exécution pour une série de conditions initiales différentes

 Problème divisible en sous-problèmes indépendants

 Une architecture parallèle efficace coûte cher, il faut l'utiliser à bon


escient
SYSTÈMES PARALLÈLES
SYSTÈMES PARALLÈLES : SISD
 Le premier type d'ordinateur correspond aux processeurs purement
séquentiels et incapables de toute forme de parallélisme

 Ceux-ci vont exécuter une instruction sur un seul ensemble de données, et


rien d'autre
SYSTÈMES PARALLÈLES : SIMD
 L’architecture SIMD permet d'exploiter le parallélisme de données

 Exécuter une instruction sur plusieurs données à la fois


SYSTÈMES PARALLÈLES : MISD
 Exécuter des instructions différentes en parallèle sur une donnée identique

 Cette catégorie d’architectures est vraiment très rare


SYSTÈMES PARALLÈLES : MIMD
 Les architectures MIMD exécutent des instructions différentes sur des données
différentes
SYSTÈMES PARALLÈLES : MIMD

 Les architectures MIMD peut être découpée en deux sous-catégories:

 Single Program Multiple Data : SPMD

 Multiple Program Multiple Data : MPMD


SYSTÈMES PARALLÈLES : SPMD/MPMD
 SPMD
 Exécuter un seul programme sur plusieurs données à la fois

 Dit comme cela, on pourrait croire qu'il s'agit de SIMD!!!

 Différence par rapport au SIMD:

 avec le SPMD, on peut parfaitement exécuter des morceaux de


programmes différents sur des données différents

 Le SIMD force à exécuter la même instruction sur plusieurs données

 MPMD
 Exécuter des programmes en parallèle sur des données différentes
SYSTÈMES PARALLÈLES : Récapitulatif

Peut traiter : Un seul ensemble de Plusieurs ensembles de


données à la fois données à la fois
Une instruction à la fois SISD SIMD

Plusieurs instructions MIMD


MISD (pipeline)
différentes à la fois
SYSTÈMES PARALLÈLES : Exercice d’application

 Ecrire un algorithme parallèle pouvant s’exécuter sur une


architecture SIMD
SYSTÈMES PARALLÈLES : Exercice d’application
SYSTÈMES PARALLÈLES : Accélération et Efficacité

 Pour mesurer la qualité de la parallélisation deux critères ont été définis:

 Accélération A(p)

 Efficacité E(p)

 Soit T(p) le temps d’exécution sur p processeurs

 A(p)=T(1)/T(p)

 E(p)=A(p)/p

 Pour une accélération parallèle parfaite on obtient :


 T(p) = T(1) / p
 A(p) = T(1) / T(p) = T(1) / ( T(1) / p) = p
 E(p) = A(p) / p = p / p = 100%
SYSTÈMES PARALLÈLES : SCALABILITÉ

 Propriété d'une application à être exécutée efficacement sur un très


grand nombre de processeurs

 LOI D’AMDAHL

 La partie non parallèle d'un programme limite les performances et


fixe une borne supérieure a la scalabilité
SYSTÈMES PARALLÈLES : SCALABILITÉ
 Prenons un exemple avec une parallélisation de l'ordre de 80% du code :

 T(1) = T(parallèle) + T(séquentiel) = 80 + 20

 Sur p processeurs, on obtient : T(p) = 80 / p + 20

 Quel que soit p, T(p) > 20

 A(p) = T(1) / T(p) = 100 / ( 80 / p + 20 ) < 5

 E(p) = ( A(p) / p ) < ( 5 / p )

 Si p tend vers l’infini, E(p) tend vers 0 !!!


SYSTÈMES PARALLÈLES : SCALABILITÉ
 Exemple de limite de performance:
SYSTÈMES PARALLÈLES : PIPELINE

 L’exécution d’une instruction est décomposée en une succession


d’étapes.

 Chaque étape correspond à l’utilisation d’une des fonctions du micro-


processeur.

 Exemple d’instruction qui se déroule en quatre étapes:


SYSTÈMES PARALLÈLES : PIPELINE
 Principe de Pipeline:

 Une instruction en cours dans chacune des étapes

 Utilisation de chacun des composants du micro-processeur à chaque


cycle d’horloge

 Une machine pipeline se caractérise par le nombre d’étapes utilisées


pour l’exécution d’une instruction: ÉTAGES
SYSTÈMES PARALLÈLES : PIPELINE
SYSTÈMES PARALLÈLES : Pipeline RISC classique

 Avec ce pipeline 5 étapes sont nécessaires pour accomplir une instruction:

 IF (Instruction Fetch) charge l'instruction à exécuter dans le pipeline

 ID (Instruction Decode) décode l'instruction et adresse les registres

 EX (Execute) exécute l'instruction (par la ou les unités arithmétiques et logiques).

 MEM (Memory), dénote un transfert depuis un registre vers la mémoire dans le


cas d'une instruction du type STORE (accès en écriture) et de la mémoire vers un
registre dans le cas d'un LOAD (accès en lecture)

 WB (Write Back) stocke le résultat dans un registre. La source peut être la


mémoire ou bien un registre.
SYSTÈMES PARALLÈLES : Pipeline RISC classique

 En supposant que chaque étape met 1 cycle d'horloge pour s'exécuter

 il faut normalement 5 cycles pour exécuter une instruction

 15 cycles pour 3 instructions


SYSTÈMES PARALLÈLES : Pipeline RISC classique

 En utilisant la technique du pipeline notre processeur peut alors contenir


plusieurs instructions, chacune à une étape différente.

 Les 5 instructions s'exécuteront en 9 cycles, et le processeur sera capable de


terminer une instruction par cycle à partir de la cinquième, bien que
chacune d'entre elles nécessite 5 cycles pour s'exécuter complètement
SYSTÈMES PARALLÈLES : PIPELINE

 Pour exécuter n instructions nécessitant chacune k cycles d’horloge, il faut :

 n*k cycles d’horloge pour une exécution séquentielle

 k cycles pour la 1ère instruction, puis n -1 cycles pour les n – 1 instructions


restantes si on utilise un pipeline à k étages
Systèmes Répartis et Grille de Calcul
MOTIVATIONS & BESOINS
 De l’informatique centralisée vers l’informatique répartie:
DÉFINITION
 Les systèmes répartis sont apparus suite au « mariage » de
l’informatique et les télécommunications

 Définition 1: Un ensemble d’ordinateurs indépendants qui apparait à un


utilisateur comme un système unique et cohérent.

 Les machines sont autonomes

 Les utilisateurs ont l’impression d’utiliser un seul système

 Définition 2: Un système réparti (distribué) est un ensemble d’entités


autonomes de calcul interconnectées et qui peuvent communiquer par un
réseau de communication et qui communiquent par envoi de message.
Objectifs des Systèmes Répartis

 OBJECTIFS GÉNÉRAUX:

 Aspects économiques: rapport prix/performance

 Adaptation de la structure d’un système à celles des applications

 Besoins d’intégration (application existantes)

 Besoin de communication et de partage de l’information

 Réalisation des systèmes à haute disponibilité

 Partage de ressource: programmes, données, services

 Réalisation des systèmes à grandes capacité d’évolution


Objectifs des Systèmes Répartis

 OBJECTIFS SPÉCIFIQUES DE L’INFORMATIQUE RÉPARTIE:

 Proposer des méthodes et outils pour simplifier le développement


d’application réseau client/serveur, en essayant de s’abstraire de
l’aspect « distant »: proposer un style architectural.

 Pour les applications Lourdes:

 Décomposer les applications en ensembles de services

 Rationaliser la répartition des services pour limiter les échanges


d’informations

Architecture Orienté Services SOA


Architecture Orientée Service
 DÉFINITION:

 L’architecture orientée service ou « SOA » (Service-Oriented Architecture) est une


architecture métier conceptuel ou la logique de l’application est mise à
disposition aux utilisateurs, en tant que services réutilisables et partagés dans un
environnement informatique. Les services dans une « SOA » sont les modules
d’une fonctionnalité de l’application avec des interfaces exposées et qui sont
invoquées par messages.

 Dans une Architecture SOA on parle de Composant de Service.

 La brique de base de l’architecture « SOA »

 Il est divisé en vue externe et vue interne


Architecture Orientée Service
PRINCIPES DE MODÉLISATION

 L’architecture doit reposer sur le concept d’offre et de demande de services.


Il s’agit d’un découplage entre le fournisseur et le consommateur de ces services.

 Les composants doivent pouvoir communiquer entre eux de manière asynchrone


et doivent être couplés faiblement. Les services doivent être développés de
manière à être le plus possible autonomes, c’est-à-dire indépendants les uns
des autres. Cette autonomie facilite le couplage souple ainsi que la
réutilisation du service.

 L’architecture doit être découpée en plusieurs couches (n-couches).


L’architecture n-couches la plus connue est probablement celle de trois tiers où
l’on trouve les couches présentation, métier et données.
BÉNÉFICES DE LA SOA

 Les principes de modélisation ont fait de la « SOA » un style architectural bénéfique:

 ils permettent de rendre le système flexible pour s’adapter à la stratégie de la société

 Cette flexibilité découle du fait que les services sont réutilisables grâce à une interface
standardisée, une facilité d’intégration accrue pour une complexité plus faible

 l’agilité métier permet à la « SOA » de s’adapter rapidement à son environnement


métier en maintenant des services s’alignant aux demandes clientes

 Une réduction des coûts est atteinte par une meilleure réutilisation des services existants
ainsi qu’une meilleure maintenance grâce à une consolidation des applications par des
services réutilisables

 Cette réduction des coûts en conjonction avec une satisfaction du client amène
l’entreprise à accroitre ses revenues
TYPOLOGIE ET MODÈLE EN COUCHES LOGIQUES
 Il existe un consensus aujourd’hui pour bâtir les architectures de type « SOA » à partir
d’une typologie de services bien établie, organisée en couches logiques

 Il s’agit de distinguer quatre types de composant:

 PRÉSENTATION

 PROCESSUS

 FONCTION

 ENTITÉ

 Ces composants sont organisés en quatre couches logiques de stabilité croissante,


auxquelles on ajoute les composants utilitaires et publiques qui se chargent des
fonctions transverses et des échanges avec les systèmes externe

 Les couches logiques de stabilité croissante établissent la règle de base de dépendance

 Un composant ne peut pas utiliser un composant d’une couche d’un niveau supérieur
TYPOLOGIE ET MODÈLE EN COUCHES LOGIQUES
TYPOLOGIE ET MODÈLE EN COUCHES LOGIQUES

 Composant Présentation: un service dédié à l’interaction entre acteurs


humains et le système. Il prend en charge les IHM (Interactions Homme-Machine)
et la gestion de la session utilisateur

 Composant Processus : c’est un composant de service qui automatise un


processus métier complet (rôle d’orchestration de service). Il s’appuie notamment
sur des composants de type Fonction et Entité.

 Composant Fonction : c’est un composant de service qui prend en charge un


processus de traitement, ou une adaptation à une vision métier particulière, sous
forme de composition de services. Ils fournissent les services proches de la vision
utilisateur, par composition de services de type Entité.
LES DONNÉES PERSISTANTES ET LES DONNÉES
D’ÉCHANGE
 La distinction entre les données d’échange et les données persistantes est
inhérente aux architectures « SOA », qui isolent les bases de données à l’aide de
services d’accès.

 Les données d’échange sont les informations véhiculées entre les participants
(consommateurs ou fournisseurs de service) à travers l’invocation des opérations de
service.

 Les données persistantes sont les informations contenues et gérées dans les
bases de données

 la gouvernance des données intègre la gestion des données persistantes, des


données d’échange et de leurs liens

 La maîtrise de cette gestion est fondamentale et doit être traitée avec une
attention particulière
LES DONNÉES PERSISTANTES ET LES DONNÉES
D’ÉCHANGE

 Le contenu et la structure des données d’échange sont en grande partie issus des
données persistantes

 La liaison entre ces deux types de données est assurée par ce que l’on appelle le
mappage objet-relationnel ou « ORM » (Objet Relationnel Mapping)

 Il s’agit d’un concept permettant de connecter un modèle objet à un modèle


relationnel, permettant ainsi de faire abstraction de toute la partie « SQL »

 (+): On gagne du temps au niveau de développement d’une application ainsi que


la portabilité de l’application de point de vue SGBD

 (-): Une difficulté sera rencontrée au niveau de la maitrise des outils de mappage
LES DONNÉES PERSISTANTES ET LES DONNÉES
D’ÉCHANGE
IDENTIFICATION ET CONSTRUCTION DES SERVICES

 Il n’existe pas de démarche universelle pour l’identification et la construction des


services car cela dépend du contexte de l’entreprise, ainsi que de modèles
d’urbanisation utilisés

 Néanmoins, on peut distinguer trois démarches types:

 Démarche par processus métiers : elle s’appuie sur une analyse des processus
métiers de l’entreprise (ou d’un domaine particulier), dans l’objectif de déployer
des composants de services de type Processus

 Démarche orientée données : elle aboutit à la mise en place de composants de


type Entité, avec la définition des types de donnée d’échange associés

 Démarche orientée applications : elle sert à la restructuration de certaines


applications par mutualisation de services
IDENTIFICATION ET CONSTRUCTION DES SERVICES

 Ces démarches types ne s’excluent pas et ne sont pas exhaustives.

 Dans la réalité, le système se constitue par une articulation de ces différentes


approches, par consolidations successives, en parallèle avec la vision globale de
l’architecture
INFORMATIQUE CENTRALISÉE VS INFORMATIQUE
RÉPARTIE
INTRODUCTION AUX GRILLES
 Le terme « Grid Computing » a été introduit pour la première fois aux Etats-Unis
durant les années 1990.

 Objectif: décrire une infrastructure de calculs répartie, utilisée dans des projets de recherche
scientifique et industrielle.

 La notion de grille de calculs s’inspire énormément de la grille d’électricité


(Power Grid).

 Divers types de centrales produisent de l’électricité.

 C’est le réseau qui globalise et distribue cette ressource entre les différents clients suivant
leurs besoins.

 Les consommateurs accèdent à l’énergie de façon normalisée sans avoir à connaître, et


encore moins à maîtriser, la source de production.
DÉFINITION
 Dans le Grid Computing, on parle d’infrastructure car une grille devra fournir
des ressources (calcul, stockage …) à grande échelle.

 Le calcul en grille consiste à mettre en commun la puissance de toutes les


machines d’une même entreprise ou d’un réseau plus vaste, et de redistribuer la
puissance de calcul en fonction des besoins spécifiques de chaque client.

 le Grid Computing permet de récupérer les ressources inutilisées de


machines distribuées sur un réseau pour une tâche précise.
DÉFINITION
 Pour pouvoir mettre en place une architecture distribuée capable de répondre aux
besoins d’une grille, il faut pouvoir disposer à grande échelle de:

 Réseaux de communication à très hauts débits, de l’ordre du DB/s ou davantage

 Pouvoir faire migrer efficacement les programmes de traitement et/ou les données

 Unités de stockage de données et leur accès.

 Stocker un flux important d’information et garantir un accès rapide à ces données (Input/output).

 La sécurité, en termes de pérennité et de confidentialité, doit être étudiée soigneusement.

 Les utilisateurs d’une telle infrastructure s’attendent à recevoir un service fiable, continu et
performant.

 Système de supervision en temps réel.


DÉFINITION

 POUR RÉSUMER

 Une grille de calcul est une infrastructure informatique destinée à

mettre à la disposition des utilisateurs des ressources pour réaliser

du calcul distribué et pour stocker des données. Plus concrètement,

elle est constituée d’un grand nombre de machines hétérogènes et

souvent délocalisées reliées par un réseau internet et rendue

homogène aux utilisateurs grâce au middleware de grille. [par

Yannick PATOIS]
ARCHITECTURE EN COUCHES

Applications
Recherche, Développement, …

Environnement et outils de programmation


Librairies, langages, interfaces, compilateurs, …

Intergiciels
Soumission & ordonnancement des taches, comptabilité, gestion des ressources, …

Sécurité
Authentification, autorisation, cryptage, …

Infrastruture matérielle
Pc, station de travail, serveurs, clusters…
ARCHITECTURE: SYNOPTIQUE
ARCHITECTURE: NŒUDS/CLUSTERS
 Des processeurs avec leurs disques, l'ensemble étant interconnecté via
un réseau à très haut débit

 Ces nœuds sont de serveurs plus ou moins puissants ou des grappes


de serveurs (clusters).

 Un cluster (ferme de calcul)  est un regroupement d'ordinateurs


permettant de dépasser les limitations d'une machines en terme de
puissance de calcul.

 Créer l’équivalent d’un supercalculateur.


ARCHITECTURE: NŒUDS/CLUSTERS

 Un Cluster peut être constituée d’ordinateurs de bureaux, de "racks" de machines


constituées de composants standards ou de "lames" également constituées de
composants standards afin d’optimiser l’espace physique

 Une grappe est généralement composée de machines homogènes en termes


d’architecture et de système d’exploitation

 Elle ne regroupe que des machines appartenant au même domaine


d’administration réseau et les nœuds communiquent entre eux en utilisant un
réseau de communication rapide.

 Les différents nœuds d’un Cluster possèdent souvent une configuration logicielle
semblable
ARCHITECTURE: NŒUDS/CLUSTERS

 Il n'existe pas de modèle de référence concernant l'architecture matérielle des


clusters.

 Les constructeurs tel que IBM, Bull, ... possèdent leur propre solution issue de
leur recherche

 Deux Modèles d’architectures peuvent être utilisés

 Maitre- Esclave

 Mono-niveau
ARCHITECTURE: NŒUDS/CLUSTERS

 MAITRE- ESCLAVE
 Un serveur (appelé nœud maitre) est considéré comme maitre

 Il est responsable de la répartition du travail entre les différents postes


clients ainsi que de leur synchronisation

 Il récupère également les erreurs et les résultats des calculs

 On lui soumet les différents travaux qu’il gère à l’aide d’une file d’attente

 Les postes client sont appelés Esclaves

 Ils sont connectés au réseau et capables d’exécuter du code


informatique sous l’ordre du serveur
ARCHITECTURE: NŒUDS/CLUSTERS
ARCHITECTURE: NŒUDS/CLUSTERS

 MONO-NIVEAU
 Tous les nœuds ont le même rôle.

Ils réalisent eux même la répartition à l'aide d'échange de


messages
ARCHITECTURE: NŒUDS/CLUSTERS
 A ne pas confondre: Cluster de calcul et Cluster de Haute disponibilité!!!

 CLUSTER DE CALCUL

 Répartir l’exécution des instructions sur l’ensemble des nœud esclaves gérés
par un nœud maitre.
 HTC : High-Throughtput Computing 

 Pour les calculs longs et peu couplés (Peu d'échanges entre les processus).

 HPC : High-Performance Computing

 Pour les calculs nombreux, courts et couplés.

 CLUSTER DE HAUTE DISPONIBILITÉ

 Nœuds redondants pour assurer un service continu.


ARCHITECTURE: NŒUDS/CLUSTERS
 Les objectifs des clusters sont: 

 Faciliter la montée en charge

 Augmenter la disponibilité

 Permettre une répartition de la charge

 Diminuer les temps de calculs

 Réaliser opérations non réalisables sur un serveur

 Réduire les coûts

 prix / performance d’une grappe de PC est de 3 à 10 fois inférieur à celui des


supercalculateurs traditionnels
ARCHITECTURE: AGENT DE PILOTAGE

 Un logiciel d'interface et de pilotage installé sur chaque nœud

 Il assure le lien entre l'activité locale du nœud supervisée par les


systèmes d'exploitation de chaque serveur, et un outil de supervision et
de management global de la grille.
ARCHITECTURE: MIDDLEWARE
 L'ensemble des logiciels assurant la gestion de la grille.

 Gère toutes les ressources de la grille, est informé en permanence de leur état:
unités de traitement et de stockage constitutives des nœuds, branches de réseau,
librairies de programmes.

 Assure aux utilisateurs et aux applications les services de:

 Réservation et allocation des ressources nécessaires

 Ordonnancement et lancement des travaux

 Suivi de l'activité

 Administration du système.

 Masquer l’hétérogénéité des machines et systèmes

 Masquer la répartition des traitements et données


SÉCURITÉ DES GRILLES
 Le module de sécurité a pour rôle:

 D'authentifier les utilisateurs (membres) de la grille

 D'assurer l'intégrité des données

 De garantir la confidentialités des données

 D'appliquer des droits utilisateurs avec le Grid Map File, qui est un fichier
qui permet d'autoriser l'accès à une machine à une liste d'utilisateurs
contenus dans le fichier
SÉCURITÉ DES GRILLES
 AUTHENTIFICATION & AUTORISATION

 Dans une Grid l’authentification, l’autorisation des utilisateurs doivent


prévenir l’utilisation abusive/malveillante de ressources

 Authentification

 Qui est qui?

 On identifie un utilisateur comme étant bien quelqu’un qui a un droit dans


la Grid.

 Autorisation

 Qui a le droit?

 On identifie si un utilisateur a un droit sur une ressource.


SÉCURITÉ DES GRILLES
 CONFIDENTIALITÉ

 Assurer que seules les personnes autorisées ont accès aux informations qui
leur sont destinées.

 Tout accès indésirable doit être empêché

 INTÉGRITÉ

 Garantir que les données sont bien celles que l’on croit être.

 Vérifier l’intégrité des données consiste à déterminer si les données n’ont pas


été
altérées durant la communication.
SÉCURITÉ DES GRILLES: GRID SECURITY INFRASTRUCTURE
(GSI)

 Un standard pour les logiciels de Grille de Calcul

 Il s'appuie sur une architecture PKI (Infrastructure à clé publique)


avec une autorité de certification qui va signer les certificats de
chaque membre de la grille

 Attester de l'identité de chaque utilisateur

 Le GSI s'appuie sur un algorithme asymétrique basé sur des clés publiques
et privés

 À chaque fois qu'un membre de la grille tente d'accéder à une ressource, le


mécanisme d'authentification mutuelle se met en place
SÉCURITÉ DES GRILLES: GRID SECURITY INFRASTRUCTURE
(GSI)

Signature d’un certificat par la CA émettrice


SÉCURITÉ DES GRILLES: GRID SECURITY INFRASTRUCTURE
(GSI)
Mécanisme d’authentification mutuelle
SÉCURITÉ DES GRILLES: GRID SECURITY INFRASTRUCTURE
(GSI)

Vérification d’un certificat


Hash code

Empreinte A

clé publique
Egalité
+ infos
+ signature ?
de la CA

£$ £$
Empreinte B

Certificat

Clé publique de la CA
TOPOLOGIES
 INTRAGRILLE

 La plus simple topologie des grilles

 Elle est composée d’un ensemble relativement simple de ressources et de

services appartenant à une organisation unique

 Un réseau d’interconnexion performant et haut-débit

 Domaine de sécurité unique

 Ensemble relativement statique et homogène de ressources


TOPOLOGIES
 EXRAGRILLE

 Une extragrille agrège plusieurs intragrilles

 Réseau d’interconnexion hétérogène haut et bas débit (LAN / WAN)

 Plusieurs domaines de sécurité distincts

 Ensemble plus ou moins dynamique de ressources


TOPOLOGIES
 INTERGRILLE

 Agréger les grilles de multiples organisations en une seule

 Réseau d’interconnexion très hétérogène haut et bas débit (LAN / WAN)

 Plusieurs domaines de sécurité distincts et ayant parfois des politiques

de sécurité différentes et même contradictoires

 Ensemble très dynamique de ressources


AVANTAGES
 L’amélioration des performances tout en limitant les coûts.

 Avoir à un moindre coût la même puissance qu'un supercalculateur.

 L’augmentation de la flexibilité d’une infrastructure pour absorber les


augmentations d’échelle.

 La haute disponibilité de cette infrastructure faces aux pics de charge.


INCONVÉNIENTS
 L’expertise et le support des grilles informatiques ont un coût 

 Des techniciens qualifiés pour passer la barrière technologique des produits.

 Complexité d’adapter ou de développer des applications pour une exécution sur la


grille.

 L’infrastructure peut nécessiter un investissement dédié.

 Difficulté de coexister une grille avec l’infrastructure existante


Virtualisation & Cloud Computing
INTRODUCTION

DES GRILLES AU CLOUD: Pourquoi cette


évolution?
 Il est moins couteux de louer ou d’acheter de l’électricité que de
construire, gérer et maintenir une station de production

 Il est moins couteux de louer de la capacité de calcul et de stockage que de


monter un centre de calcul

 La transparence d’utilisation des grandes plateformes distribuées est


primordiale
INTRODUCTION
DES GRILLES AU CLOUD: Pourquoi cette
évolution?
 Pouvoir gérer ces ressources de manière dynamique et élastique

 Un long historique du calcul distribué à plus ou moins grande échelle

 Des supercalculateurs et grappes au Cloud en passant par les grilles

 Des besoins applicatifs de plus en plus importants et variés

 Explosion du nombre et du volume de données


INTRODUCTION: GRILLES VS CLOUD

 Une vision partagée

 Simplifier l’accès au ressources distantes de manière la plus transparente possible

 Technologies différente

 Grappes et batch Vs Datacenter et virtualisation

 Gestion de ressource

 Statique Vs dynamique

 Modèle de sécurité

 Certificats Vs Web + SSL

 Des domaines applicatifs différents (pour l’instant!)

 HPC/HTC vs Business
INTRODUCTION: Premier pas vers le Cloud

 La VIRTUALISATION du Datacenter IT, une ÉTAPE STRATÉGIQUE


vers le Cloud
DÉFINITION

 La virtualisation est un ensemble de techniques matérielles et/ou


logicielles qui autorisent l’exécution de plusieurs applications
indépendantes sur une même machine hôte.

 Grâce à la virtualisation, il est possible d’exécuter plusieurs systèmes


d’exploitation (OS invité) sur un même serveur. Ainsi, il n’est plus
nécessaire d’utiliser un serveur par application. 

  Pour bénéficier de cette technologie, il suffit d’équiper une machine


d’un logiciel de virtualisation permettant d’ajouter une couche de
virtualisation, appelée HYPERVISEUR
DÉFINITION

 Cet hyperviseur masque les véritables ressources physiques de la


machine afin de proposer des ressources différentes et spécifiques en
fonction des applications qui tournent.

 Il y a donc une totale indépendance entre le matériel et les


applications.

 Le logiciel de virtualisation simule autant de machines virtuelles que de


systèmes d’exploitation souhaité.

 Chaque OS croit alors qu’il est installé seul sur une machine alors qu’en
réalité, plusieurs OS peuvent fonctionner en parallèle en partageant les
mêmes ressources.
Types de Virtualisation

 On distingue deux types de virtualisation:

 Virtualisation de Type 1:
 Hyperviseur Type 1

 Virtualisation de Type 2:

 Hyperviseur Type 2
Types de Virtualisation: Hyperviseur Type 1

 La virtualisation de Type 1 utilise un système d'exploitation hôte


classique (Linux, Windows dont les noyaux ne sont pas modifiés) et un
logiciel de virtualisation qui émule un matériel virtuel.

 Les machines virtuelles installent des systèmes d'exploitation invités qui


utilisent des pilotes pour gérer le matériel virtuel.

 Exemples :

 VirtualBox

 VMWare Workstation
Types de Virtualisation: Hyperviseur Type 1
Types de Virtualisation: Hyperviseur Type 2

 La virtualisation de Type 2 ou para-virtualisation évite d'utiliser un système hôte


complet pour faire la virtualisation.

 A la place, un noyau très léger de système d'exploitation hôte est utilisé. Les
performances sont bien meilleures en para-virtualisation qu'en virtualisation complète.

 Exemples de systèmes de para-virtualisation :

 VMWare ESX

 Hyper-V

 Oracle VM

 Xen

 KVM
Types de Virtualisation: Hyperviseur Type 2
DOMAINES D’APPLICATION DE LA
VIRTUALISATION
 Initialement orientée sur les serveurs, la virtualisation couvre désormais
plusieurs domaines de l’infrastructure informatique d’une entreprise.

 On distingue donc aujourd’hui les sujets suivants :

 Virtualisation de serveurs

 Virtualisation du stockage

 Virtualisation de réseaux

 Virtualisation des applications

 Virtualisation du poste de travail


OBJECTIFS DE LA VIRTUALISATION

pourquoi mettre en place une infrastructure


virtualisée ?
 Un bénéfice important est la capacité à déployer très rapidement des
infrastructures et plateformes nouvelles pour couvrir les besoins des projets
applicatifs.

 Un autre bénéfice important de la virtualisation est la réduction des coûts


d’infrastructure

 Les experts estiment que l’on peut diviser par deux les coûts de
possession de l’infrastructure.
OBJECTIFS DE LA VIRTUALISATION
pourquoi mettre en place une infrastructure
virtualisée ?
 Découlant de la réduction des coûts, la virtualisation offre l’opportunité de
réinvestir les ressources dégagées pour faire progresser d’autres postes ou
services:

 Augmenter les capacités de continuité d’activité (PRA par exemple)

 Exemple: Plan de Reprise d’Activité PRA

 Augmenter la flexibilité et la qualité des services

 Exemple: Pouvoir disposer d’une infrastructure de test


OBJECTIFS DE LA VIRTUALISATION

pourquoi mettre en place une infrastructure


virtualisée ?
 D’autres postes de contribution sont possibles, mais les bénéfices doivent être
nuancés selon chaque contexte : performance, sécurité,

 Les nouvelles failles de sécurité liées aux hyperviseurs étant à étudier,


administration de gestion…

 La virtualisation permet également de simplifier les plans de reprise d’activité


(PRA).
Impacts de la virtualisation sur les caractéristiques de
l’infrastructure
CARACTÉRISTI APPORT RISQUES
QUE
RÉACTIVITÉ Le provisionning de l’infrastructure est  Le capacity planning est à gérer avec
simplifié car on ne livre que des rigueur : des ressources physiques
composants logiques : plus de stocks, continuent à supporter les ressources
d’opérations de câblage. On peut espérer logiques. Intégrer un nouveau châssis de
une division par quatre des délais de mise virtualisation n’est pas aussi simple
à disposition (de trois semaines à quelques qu’un serveur classique, notamment sur
jours maximum). les aspects stockage et réseau.
 Devoir attendre plusieurs semaines fait
réfléchir, mais avoir à dispositions sous
quelques jours des serveurs pousse à la
consommation : il est facile de donner,
mais difficile de reprendre.
Impacts de la virtualisation sur les caractéristiques de
l’infrastructure APPORT
CARACTÉRISTI RISQUES
QUE
DISPONIBILIT  En rendant une ressource d’infrastructure  Un incident sur les composants physiques
E logique, ou virtuelle, on peut limiter l’impact peut toucher plus de serveurs (plusieurs
des incidents liés aux équipements serveurs logiques s’exécutants sur un serveur
physiques. Par exemple, en cas de panne sur physique), mais pour moins de temps. Il est
un serveur physique, il n’est plus nécessaire donc important de veiller à la haute
d’attendre l’intervention de la maintenance disponibilité de ces serveurs physiques,
ou d’entretenir un stock de pièces de l’impact d’un même type d’incident pouvant
rechange : il suffit de relancer le serveur être plus important, ainsi qu’à la maitrise de
virtuel sur un autre serveur physique encore la technologie
opérationnel.  Côté plan de secours, les aspects réseaux,
 En s’appuyant sur des mécanismes de applicatifs, de reprise des traitements et
réplication des systèmes stockage (comme métiers restent à adresser : pas encore de «
pour les bases de données) le plan de secours bouton rouge » généralisé et garanti pour tout
informatique peut se voir simplifié et sa le SI juste grâce à la virtualisation.
fiabilité augmentée : finies les restaurations
des sauvegardes interminables ou peu
fiables. On peut même ainsi ouvrir le plan de
Impacts de la virtualisation sur les caractéristiques de l’infrastructure
CARACTÉRISTI APPORT RISQUES
QUE
SOUPLESSE  Il est beaucoup plus simple, dès lors que les  La technologie seule ne permet pas cette
architectures des applications le permettent souplesse : il faut en pré-requis des processus
ou ont été conçues pour, d’adapter le et des architectures techniques adaptés.
dimensionnement des ressources aux besoins  Une trop grande volatilité de la demande peut
réels, à l’instant T, de l’application. Ainsi, il avoir des effets importants : infrastructure
n’est plus nécessaire de surdimensionner physique en large surcharge (donc impacts
l’infrastructure pour tenir le pic de charge sur les performances) ou sous-charge (donc
annuel ou par crainte d’un événement non baisse de la rentabilité de la plate forme). En
planifié pouvant surcharger ponctuellement dessous du logique, il s’agit toujours d’une
l’infrastructure (cas du web). infrastructure physique.
 On s’approche également du pay per use.
Impacts de la virtualisation sur les caractéristiques de
l’infrastructure
CARACTÉRISTI APPORT RISQUES
QUE
Coûts  Unitairement, un serveur virtuel sera  Sans maîtrise, l’accroissement de la
moins cher qu’un serveur physique demande peut faire exploser le nombre
classique, principalement sur l’aspect de serveurs et donc les budgets.
physique : part de l’hébergement, de la  L’effort d’industrialisation doit être
consommation, du câblage et des valorisé par l’infogérant via par une
serveurs physiques (produit inclus). baisse des coûts unitaires de
l’exploitation des serveurs.
Cas Pratique: Gestion d’un projet de
Virtualisation
 Votre entreprise vous a désigné un chef de projet de virtualisation des
serveurs du Data Center IT.

 Vous êtes appelés à mettre en place une stratégie afin de réussir ce projet.
Proposer une démarche en six étape pour ce faire?
CLOUD COMPUTING: DÉFINITION
 Le CLOUD COMPUTING est une technologie qui s’inscrit dans le cadre
d’externalisation informatique.

 Il s’agit d’un concept de déportation, sur des serveurs distants, des traitements
informatiques traditionnellement effectués sur des ordinateurs locaux.

 Les utilisateurs ou les entreprises ne sont plus gérants de leurs propres capacités
informatiques.

 Ils peuvent ainsi accéder de manière évolutive à de nombreux services en ligne,


sans avoir à gérer l’infrastructure sous-jacente souvent complexe.

 Les applications et les données ne se trouvent plus sur l’ordinateur local, mais
plutôt dans un « nuage » de serveurs distants.
CLOUD COMPUTING: DÉFINITION
 Les serveurs sont interconnectés au moyen d’une excellente bande passante
indispensable à la fluidité du système.

 Les ressources peuvent être allouées dynamiquement en fonction du besoin.

 Les applications, plateformes et infrastructures nécessaires sont louées à la


demande et en fonction de l’usage qui en est fait.

 Elles sont facilement extensibles et elles restent disponibles en cas de


panne d’une ressource.

 L’accès aux services se fait par une application standard facilement disponible, la
plupart du temps un navigateur Web
CLOUD COMPUTING: DÉFINITION

 Le terme « Cloud Computing » étant à la fois récent et recouvrant de nombreuses


notions. Il n’y a pas encore de consensus pour en donner une définition précise.

 néanmoins celle qui a été proposé par l’Institut National des Standards et de la
Technologie ou « NIST » a gagné l’acceptation la plus large.

 Cette définition a été déjà retenue comme référence par le « CSA » (Cloud
Security Alliance) et « l’ENSIA » (European Network and Information Security
Agency) pour réaliser leurs travaux sur la sécurité du « Cloud Computing»
CLOUD COMPUTING: DÉFINITION de
NIST

 Selon la définition de « NIST », le « Cloud Computing » est l’ensemble des


disciplines, technologies et modèles commerciaux utilisés pour délivrer des
capacités informatiques (logiciel, plateformes, matériel) comme un service à la
demande. Il possède cinq caractéristiques, trois modèles de service et quatre
modèles de déploiement.
CLOUD COMPUTING: leviers

 Agilité : Time to market, répondre rapidement et facilement au besoin


business

 Gestion opérationnelle efficiente : Elimination des IT shadow, réduire les


risques de sécurité, maintenir le contrôle, être conforme

 Réduction des couts: pay per use


CLOUD COMPUTING: Avantages

 Gestion et maitrise des couts


 Adaptée pour tous type d'entreprise (Small, large)
 Go Live rapide
 Elastic et ajil
 Out of the box integration
 High availability et disaster recovery
 Augmenter le niveau de sécurité
 Compliance
CLOUD COMPUTING:
CARACTÉRISTIQUES
 Accès réseau universel
 Un environnement de type « Cloud Computing » doit être accessible via le réseau, quel
que soit le périphérique utilisé

 Mise en commun de ressources (Pooling)

 Dans un environnement de type « Cloud Computing », on ne pense pas en ressources


physiques dédiés, telles que les puissances de calcul, les capacités totales de stockage
et la bande passante disponible, car elles sont à la charge du fournisseur des services
« Cloud ». C’est à ce dernier donc de gérer les besoins en ressources physiques de
manière à respecter la qualité de services vis-à-vis de ses clients
 Elasticité

 Grâce au « Cloud  Computing», il est possible de disposer de plus de ressources, très


rapidement, pour soutenir une forte demande. Inversement, il est possible de diminuer
les ressources si celles-ci sont supérieures à ce qui est nécessaire
CLOUD COMPUTING:
CARACTÉRISTIQUES
 Libre-Service (Self-Service)

 Dans un environnement de type « Cloud Computing », il est possible à un utilisateur de


consommer les services ou ressources sans pour autant nécessiter une demande
d'intervention auprès du fournisseur, que ce soit interne ou externe. A titre d’exemple,
un développeur qui souhaite tester son application sur une machine virtuelle
représentative d'un poste standardisé de son entreprise peut, au travers d'un portail
Web, louer et utiliser la machine en question.
 Service mesurable et facturation à l’usage

 Dans un environnement de type « Cloud Computing », le fournisseur de service est


capable de mesurer de façon précise la consommation des différentes ressources. Cette
mesure lui permet de facturer à l'usage le client
CLOUD COMPUTING: MODÈLES DE
SERVICE
CLOUD COMPUTING: SaaS

 Il s’agit de la mise à disposition d’un logiciel non pas sous la forme d'un produit
que le client installe en interne sur ses serveurs, mais plutôt en tant qu'application
accessible à distance comme un service et ce, par le biais d'Internet et du Web.

 Les clients ne payent pas pour posséder le logiciel en lui-même mais plutôt pour
l’utiliser. L’utilisation reste transparente pour les utilisateurs, qui ne ce soucient ni
de la plateforme, ni du matériel qui sont mutualisés avec d’autres entreprises.

 L’infrastructure, le middleware, le logiciel d’application et les données


d’application sont entièrement gérés par le fournisseur de services cloud et situés
dans son centre de données. Le fournisseur de services gère le matériel et les
logiciels, la sécurité de l'application et des données.
CLOUD COMPUTING: SaaS

 Identification de l’application
 Définir l’architecture
 Acquisition du HW
 Acquisition du software
 Acquisition des licences
 Déploiement
 Maintenance HW
 Maintenance de la solution
 Maintenance des licences
 Gestion des évolutions
CLOUD COMPUTING: SaaS

 Application multi tenant


 Application hautement disponible
 Offrir une interface de gestion, de configuration et paramétrage pour
implémenter les règles de gestion par entreprise
 Supervision de la disponibilité et de la performance
 Identification des indicateurs de performance par application pour
assurer l’extensibilité nécessaire
 Identification des caractéristiques de paiement
CLOUD COMPUTING: PaaS

 La plateforme en tant que service est la plateforme d’exécution, de déploiement et


de développement des applications. Il s’agit de la mise à disposition pour une
entreprise d'environnements techniques pour développer des applications.

 Ces dernières fonctionneront à distance comme pour le « SaaS », mais en incluant


des outils de personnalisation. L'objectif est ainsi de proposer un environnement
modulaire capable de combiner plusieurs fonctions et processus métier, voire
plusieurs technologies en provenance de divers éditeurs.

 PaaS encapsule les capacités fondamentales de l’OS qui inclus le stockage et les
capacity computing

 PaaS offre des API en plus des interfaces utilisateur de configuration et de gestion
CLOUD COMPUTING: PaaS

 Environnement complet pour développement qui offre les différentes


composante de gestion de cycle de vie d’une application:
 Gouvernance applicative
 Exigence managériale
 Gestion de la qualité applicative (automatisation des tests, test de non régression,
test unitaire ….
 Gestion de développement
 Validation de la performance: stress test
 Validation de la sécurité applicative
CLOUD COMPUTING: PaaS

 Il faut noter, La plateforme est conçue pour que l'approvisionnement de matériel et la


montée en charge soient transparents.

 PaaS est conçu pour prendre en charge l'ensemble du cycle de vie des applications
Web: création, test, déploiement, gestion et mise à jour. Par conséquent, les offres PaaS
incluent généralement des intergiciels, des outils de développement, des services de
business intelligence (BI) et des systèmes de gestion de base de données.

 Le « PaaS » offre ainsi une grande flexibilité, permettant notamment de tester


rapidement un prototype ou encore d'assurer un service informatique sur une période
de courte durée. Il favorise également la mobilité des utilisateurs puisque l'accès aux
données et aux applications peut se faire à partir de n'importe quel périphérique
connecté.
CLOUD COMPUTING: IaaS
 L’infrastructure en tant que service est une technologie permettant de disposer
d'une infrastructure à la demande, pouvant héberger et exécuter des applications,
des services ou encore stocker des données.

 L’infrastructure fournit des capacités de calcul et de stockage ainsi qu'une


connectivité réseau.

 Souvent dans un environnement virtuel, les utilisateurs peuvent commander des


serveurs, des systèmes de stockage, des commutateurs, des routeurs et autres
équipements d'une façon évolutive selon leurs besoins.

 Grâce à cette virtualisation, il est possible de créer très facilement des machines
virtuelles connectées sur des réseaux, eux aussi virtuels, et qui seront exécutées
sur les hyperviseurs des machines physiques.
CLOUD COMPUTING: IaaS

 Cette virtualisation nous donne une grande flexibilité parce qu’elle permet
d'abstraire la couche matérielle, sur laquelle les applications vont pouvoir être
déployées et redéployées sans être liées à un serveur spécifique.

 La virtualisation répond de manière dynamique là où les serveurs physiques


fournissent un ensemble de ressources allouées selon les besoins, et où la
relation entre les applications et les ressources de calcul, de stockage et de
réseau, pourront s'adapter de manière automatique pour répondre à la charge de
travail et aux exigences demandées
CLOUD COMPUTING: RÉSUMÉ DE LA VUE DE
NIST
Activity

 Public clouds are the most/least common way of deploying cloud computing
 Organizations access and manage their cloud accounts using a web browser/ cloud scanner
 Fully-formed software applications delivered as services are known as an online suite / SaaS
 A cloud-based, virtual network with storage is called a public cloud / an IaaS
 A PaaS/ cloud package usually includes an OS with storage, basic network, and developer
tools
 A public / private cloud consists of comuting resources used exclusively by one organization
 A hybrid cloud combines a public/ private cloud with on-premises infrastructure
 Cloud resources (such as servers) are owned and operated by an organization’s cloud
department / third-party cloud service providers
 Organizations that use public clouds are knows as cloud « tenants » / clients
Activity / Solution

 Public clouds are the most common way of deploying cloud computing
 Organizations access and manage their cloud accounts using a web browser
 Fully-formed software applications delivered as services are known as SaaS
 A cloud-based, virtual network with storage is called an IaaS
 A PaaS usually includes an OS with storage, basic network, and developer tools
 A private cloud consists of comuting resources used exclusively by one
organization
 A hybrid cloud combines a public cloud with on-premises infrastructure
 Cloud resources (such as servers) are owned and operated by a third-party cloud
service providers
 Organizations that use public clouds are knows as cloud tenants 
CLOUD COMPUTING: MODÈLES DE
DÉPLOIEMENT
CLOUD PUBLIC

 Un Cloud publique est un service IaaS , PaaS ou SaaS hébergé par un tiers, proposé à un nombre
virtuellement illimité d’utilisateurs et dont l’intérêt est la mutualisation optimale des ressources.

 Facturation par subscription (IaaS, PaaS) ou accès client (SaaS)

 Il n'y a donc aucun investissement initial fixe et aucune limite de capacité pour les
consommateurs de services.

 Les avantages de ce type de Cloud sont de pouvoir louer de la ressource à l’heure et de ne


payer que celle utilisée.

 Les fournisseurs du Cloud publique facturent à l'utilisation et garantissent une disponibilité de


services au travers des contrats « SLA » (Service Level Agreement) : il s’agit d’un document qui
définit la qualité de service requise entre un prestataire et un client
CLOUD COMPUTING: MODÈLES DE
DÉPLOIEMENT
CLOUD PRIVÉ

 Cette technologie peut très bien se retrouver sur une infrastructure physique propre à
l’entreprise et étant sous son contrôle : n’étant plus mutualisé, le « Cloud » reste
privé. A sa charge donc de contrôler le déploiement des applications.

 Dans un contexte du « Cloud » privé, l’entreprise fournit un ensemble des services


informatiques à ses départements métiers. Elle doit donc gérer les besoins de montée
en charge et de disponibilité de manière à respecter les dispositions d’engagement de
service, vis-à-vis des différents métiers de l’entreprise.

 Le cloud privé fourni essentiellement les services IaaS et PaaS, pour tout ce qui es
SaaS c’est l’automatisation de création des comptes sur les applications en prémise
CLOUD COMPUTING: MODÈLES DE
DÉPLOIEMENT
CLOUD COMMUNAUTAIRE

 Le « Cloud » communautaire offre des services qui sont partagés par une
communauté spécifique. Cette communauté regroupe un ensemble
d’organisations dont les besoins sont similaires et ayant un même sujet.

 Ce modèle de « Cloud » peut être géré sur site, à l’extérieur de l’organisation ou


par un fournisseur de service « Cloud » communautaire.
CLOUD COMPUTING: MODÈLES DE
DÉPLOIEMENT
CLOUD HYBRIDE

 Le « Cloud » hybride est la combinaison de trois ou deux des modèles précités.

 On peut ainsi déporter nos applications vers un Cloud publique qui consommera
des données stockées et exposées dans un Cloud privé, ou bien faire
communiquer deux applications hébergées dans deux Clouds privés distincts, ou
encore consommer plusieurs services hébergés dans des Clouds publiques
différents.

 Dans tous ces cas de figure, on a affaire à la notion de Cloud hybride

 Répondre au besoin d’extensibilité, séparation d’application, DRP…


MODÈLE VISUEL DE LA DÉFINITION DE
NIST
CLOUD COMPUTING: Security

 Cloud authentification:
 Single Sign ON
 Fédération de module de l’authentification

 Privacy Management
 Dans quel pays / région les données seront-elles stockées?
 Combien de temps les données seront-elles stockées?
 Le prestataire de services garantit-il les emplacements des données durant tout leur cycle
de vie (primaires, sauvegarde, DRP, Replication …)
 Le fournisseur de services pourrait-il être obligé d'autoriser l'accès aux données des
clients par des voies légales?
 Compliance Management
 Suivie et superviser l ’accès au données
CLOUD COMPUTING: Security

 Sécurité des données PaaS IaaS


 Cryptage des données
 Key Management Infrastructure (KMI)
 Rights Management System
 Sécurité des données SaaS
 Mécanisme pour chiffrer les données sensibles
 Chiffrement des données avant de les envoyer à l'application SaaS
 Proxy encryption
 Sélection des emplacements de stockage (premises)
Service Level Agreements

 Type de service à fournir

 Disponibilité - 99,99% pendant les jours de travail, 99,9% pour les nuits / week-ends
 Performance - temps de réponse maximum
 Sécurité / confidentialité des données - chiffrement de toutes les données stockées et
transmises
 Attentes en matière de reprise après sinistre - engagement de récupération de cas
pire
 Emplacement des données - conforme à la législation locale
 Accès aux données - données récupérables du fournisseur dans un format lisible
 Portabilité des données - possibilité de transférer les données vers un autre
fournisseur
Service Level Agreements

 Monitoring les process et dhashbord KPI


 Process de gestion de changement
 Gestion d’incident (reporting, résoluytion, …)
 Gestion de process de conflit avec le fournisseur de cloud
 Stratégie d’exit

Vous aimerez peut-être aussi