Vous êtes sur la page 1sur 5

3 Chapitre 7 Normes communes dans Cloud computing 7.

1 Aperçu du chapitre Dans les cercles Internet,


tout est finalement conduit par un groupe de travail de une sorte ou une autre. Un groupe de travail est
une collabo- de chercheurs travaillant sur de nouvelles activités de recherche qui seraient diffé- culte
pour tout membre de se développer seul. Un groupe de travail peut peut exister pour n'importe où
entre quelques mois et plusieurs années. Groupes de travail s’efforcent de créer un document
d’information standard ou de trouver résolution de problèmes liés à un système ou à un réseau. Le plus
souvent, le groupe de travail tente de réunir des experts sur un sujet. Ensemble, ils vont travailler
intensément vers leur objectif. Les groupes de travail sont parfois aussi appelés groupes de travail ou
groupes consultatifs techniques. Dans ce chapitre, nous discutera du Open Cloud Consortium (OCC) et
du Distributed Management Task Force (DMTF) en tant qu’exemples de travaux liés au cloud groupes.
Nous discuterons également des normes les plus courantes actuellement utilisées dans environnements
en nuage. 7.2 Le consortium Open Cloud Le consortium Open Cloud a pour objectif de soutenir le
développement des normes pour le cloud computing et à développer un cadre pour interopérabilité
entre différents nuages. L’OCC soutient le développement référence en matière de cloud computing et
est un ardent défenseur de la logiciel open source à utiliser pour le cloud computing. OCC gère un plate-
forme de test et un banc d'essai pour l'informatique en nuage appelé l'Open Banc d'essai Cloud. Le
groupe parraine également des ateliers et autres événements. liés au cloud computing. Le CCO est
organisé en plusieurs groupes de travail différents. Pour Par exemple, le groupe de travail sur les normes
et l’interopérabilité pour les nuagesQui fournissent une capacité informatique à la demande se
concentre sur le développement normes pour les nuages interopérables qui fournissent l'informatique à
la demande capacité. Une architecture pour les nuages qui a été popularisée par une série de Les
rapports techniques Google décrivent un nuage de stockage fournissant une système de fichiers, un
nuage informatique prenant en charge MapReduce et un nuage de données offrant des services de
table. Le système open source Hadoop suit cette architecture. Ces types d'architecture en nuage
prennent en charge le concept de capacité informatique à la demande. Il existe également un groupe de
travail sur les nuages étendus et l’impact des Protocoles réseau sur les nuages. Ce groupe de travail se
concentre sur le développement de la technologie pour les nuages étendus, y compris la création de
méthodologies. et des repères à utiliser pour évaluer les nuages dans une zone étendue. Ce travail Ce
groupe est chargé d’étudier l’applicabilité de variantes du protocole TCP (Transmission Control Protocol)
et l’utilisation d’autres protocoles réseau pour les clouds. Le banc d'essai Open Cloud utilise Cisco C-
Wave et l'UIC Teraflow Réseau pour ses connexions réseau. C-Wave crée des ressources réseau à la
disposition des chercheurs pour mener des recherches sur la mise en réseau et les applications. Il est
fourni gratuitement aux chercheurs et leur permet d'accéder aux ondes 10G (Couche 2 p2p) sur une
allocation par projet. Il fournit des liens vers un backbone de réseau commuté 10GE (Ethernet gigabit).
Le banc d'essai Teraflow (TFT) est un réseau international d’applications pour explorer, intégrer,
analyser, et détecter les changements dans les données massives et distribuées sur des réseaux haute
performance hautes performances. Le banc d’essai Teraflow analyse les données en continu avec
l'objectif de développer une technologie innovante pour les flux de données à très haut les vitesses. On
espère que la technologie prototype pourra être déployée au cours de la prochaine décennie pour
analyser des flux de 100 gigabits par seconde (Gbps) et de 1 000 Gbps. Ces deux produits utilisent les
longueurs d’onde fournies par le National. Lambda Rail (NLR). Le NLR peut prendre en charge de
nombreux réseaux distincts pour la Communauté de recherche américaine utilisant la même
infrastructure de base. Expérimental et les réseaux de productions coexistent mais sont séparés
physiquement et opérationnellement. Les réseaux de production prennent en charge les applications de
pointe en fournir aux utilisateurs des niveaux garantis de fiabilité, de disponibilité et de performance.
Parallèlement, des réseaux expérimentaux permettent le déploiement et les tests des nouvelles
technologies de mise en réseau, fournissant aux chercheurs des bancs d’essai à l’échelle nationale sans
les limitations généralement associées aux réseaux de production. Le groupe de travail sur le partage
d'informations, la sécurité et les nuages se concentre principalement sur les normes et architectures
basées sur des normes pour partage d'informations entre nuages. Ceci est particulièrement vrai pour les
nuagesappartenant à différentes organisations et sous réserve de possibles autorités et politiques. Ce
groupe s'intéresse également aux architectures de sécurité pour les nuages. Un exemple consiste à
échanger des informations entre deux des nuages, chacun conforme à la norme HIPAA, mais lorsque
chaque nuage est administré par une organisation différente. Enfin, il existe un groupe de travail Open
Cloud Test-bed qui gère les et exploite le banc d'essai Open Cloud. Actuellement, l'adhésion à cette
groupe de travail est limité à ceux qui contribuent à l’informatique, au réseautage, ou d'autres
ressources sur le banc d'essai Open Cloud. Pour plus d'informations sur Open Cloud Consortium, le
lecteur est invité à visiter le site du CCO. site web.1 7.3 Le groupe de travail sur la gestion distribuée
Selon leur site Web, le groupe de travail sur la gestion répartie . . . permet une gestion plus efficace de
millions de systèmes informatiques dans le monde entier en réunissant l'industrie informatique pour
collaborer sur le développement, la validation et la promotion de la gestion des systèmes normes. Le
groupe couvre l’ensemble du secteur avec 160 sociétés et organisations membres et plus de 4 000
participants actifs. traversant 43 pays. Le conseil d’administration de la DMTF est dirigé par 16
entreprises technologiques innovantes et leaders du secteur. Ils incluent Advanced Micro Devices
(AMD); Broadcom Corporation; CALIFORNIE, Inc .; Dell; CEM; Fujitsu; HP; Hitachi, Ltd .; IBM; Intel
Corporation; Microsoft Corporation; Novell; Oracle; Sun Microsystems, Inc .; Symantec Corporation et
VMware, Inc. Avec cette profonde et large portée, DMTF crée des normes qui permettent une
informatique interopérable la gestion. Les normes de gestion DMTF sont essentielles pour permettant
une interopérabilité de la gestion entre les systèmes, outils et solutions multi-constructeurs de
l'entreprise.2 Le DMTF a lancé l'initiative de gestion de la virtualisation (VMAN). Le VMAN libère le
pouvoir de la virtualisation en offrant normes d'interopérabilité et de portabilité largement prises en
charge pour les environnements de communication virtuels. VMAN permet aux responsables
informatiques de déployer des logiciels préinstalléssolutions préconfigurées sur des réseaux
informatiques hétérogènes et à gérer ces applications tout au long de leur cycle de vie. Les éditeurs de
logiciels de gestion offrent une large sélection d’outils qui prennent en charge les spécifications standard
de l’industrie, qui font désormais partie de VMAN. Cela aide à baisser frais de support et de formation
pour les responsables informatiques. La virtualisation a amélioré la L'industrie informatique en
optimisant l'utilisation des ressources physiques existantes et en aidant réduire le nombre de systèmes
déployés et gérés. Cette consolidation réduit les coûts matériels et réduit les besoins en énergie et en
refroidissement. cependant, même avec les gains d’efficacité obtenus par la virtualisation, cette
nouvelle approche ne ajoute des coûts informatiques en raison de la complexité accrue de la gestion des
systèmes. Comme le DMTF s’appuie sur les normes existantes pour le matériel serveur, Les fournisseurs
d'outils de gestion peuvent facilement fournir des capacités de gestion globale permettant aux
responsables informatiques de gérer leurs environnements virtuels dans le contexte du matériel sous-
jacent. Cela réduit la courbe d’apprentissage informatique et réduit la complexité pour les fournisseurs
qui implémentent ce support dans leurs solutions. Grâce aux technologies mises à la disposition des
responsables informatiques par le biais de l’initiative VMAN, les entreprises ont désormais une approche
normalisée de 1. Déployer des systèmes informatiques virtuels 2. Découvrir et inventorier les systèmes
informatiques virtuels 3. Gérer le cycle de vie des systèmes informatiques virtuels 4. Ajouter / modifier /
supprimer des ressources virtuelles 5. Surveiller l'intégrité et les performances des systèmes virtuels
7.3.1 Format de virtualisation ouvert Le format OVF (Open Virtualization Format) est une norme
relativement nouvelle qui a émergé au sein de l’initiative VMAN. L'OVF simplifie l'interopérabilité, la
sécurité et la gestion du cycle de vie des machines virtuelles en décrivant un environnement ouvert,
format sécurisé, portable, efficace et extensible pour l’emballage et la distribution d’un ou de plusieurs
appareils virtuels. L'OVF spécifie les procédures et technologies permettant la vérification de l'intégrité
des machines virtuelles (VM) pour s'assurer qu'ils n'ont pas été modifiés depuis la production du colis.
Cela améliore la sécurité du format et contribuera à atténuer les problèmes de sécurité des utilisateurs
qui adoptent des appliances virtuelles produites par des tiers. le OVF fournit également des mécanismes
qui prennent en charge la vérification de licence pour des ordinateurs virtuels fermés, répondant à une
préoccupation majeure des constructeurs de logiciels indépendants et des clients. Enfin, l'OVF permet à
une machine virtuelle installée d'acquéririnformation about its host virtualization platform and runtime
environment, which allows the VM to localize the applications it contains and optimize its performance
for the particular virtualization environment.

One key feature of the OVF is virtual machine packaging portability.

Since OVF is, by design, virtualization platform-neutral, it provides the

benefit of enabling platform-specific enhancements to be captured. It also

supports many open virtual hard disk formats. Virtual machine properties

are captured concisely using OVF metadata. OVF is optimized for secure

distribution. It supports content verification and integrity checking based

on industry-standard public key infrastructure and provides a basic scheme


for management of software licensing.

Another benefit of the OVG is a simplified installation and deployment

process. The OVF streamlines the entire installation process using metadata

to validate the entire package and automatically determine whether a virtual

appliance can be installed. It also supports both single-VM and multipleVM configurations and packages
containing complex, multitier services

consisting of multiple interdependent VMs. Since it is vendor- and platform-independent, the OVF does
not rely on the use of a specific host platform, virtualization platform, or guest operating system.

The OVF is designed to be extended as the industry moves forward

with virtual appliance technology. It also supports and permits the encoding

of vendor-specific metadata to support specific vertical markets. It is localizable—it supports user-visible


descriptions in multiple locales, and localization of interactive processes during installation of a virtual
appliance. This

allows a single packaged virtual appliance to serve multiple markets.

7.4 Standards for Application Developers


The purpose of application development standards is to ensure uniform,

consistent, high-quality software solutions. Programming standards are

important to programmers for a variety of reasons. Some researchers have

stated that, as a general rule, 80% of the lifetime cost of a piece of software goes to maintenance.
Furthermore, hardly any software is maintained by the original author for its complete life cycle.
Programming

standards help to improve the readability of the software, allowing developers to understand new code
more quickly and thoroughly. If you ship

source code as a product, it is important to ensure that it is as well packaged and meets industry
standards comparable to the products you compete with. For the standards to work, everyone
developing solutions m5

Vous aimerez peut-être aussi