Vous êtes sur la page 1sur 61

PARTIE I

CADRE THEORIQUE, METHODOLOGIQUE ET CONCEPTUEL DE L’ETUDE

Avant-propos :

Ce document propose la mise en place d’un serveur de sauvegarde simple, à l’aide


d’outils libres et de quelques disques durs. Ce n’est pas effectivement une sauvegarde au sens
pur du terme, mais cela permet une synchronisation automatique des fichiers à partir de postes
Windows et Linux sur une machine distante avec une connexion sécurisée, sans l’intervention
de l’utilisateur d’une part, et d’autre part un «mirroring» sur deux autres disques sur cette
même machine distante. Ensuite sensibiliser le commun des mortels sur le stockage et la
sauvegarde d’un système de messagerie cas de zimbra relativement aux normes d’entreprises.

INTRODUCTION :

L’informatique a toujours reposé sur des technologies en constante et rapide évolution.


Aujourd'hui, on constate qu'avec le développement des flux de communication, les besoins
des entreprises ont évolués. Les informations échangées sont différentes, notamment dans leur
nature et leur importance, et les entreprises n'ont plus seulement besoin de machines
performantes dotées de puissances de calculs toujours plus élevées mais elles doivent
maintenant pouvoir conserver des volumes d'information toujours plus conséquents. Pour
cela, leurs besoins en espace de stockage et de sauvegarde n'ont jamais été aussi importants.
Les entreprises sont donc aujourd'hui à la recherche de solutions de stockage et de sauvegarde
fiables, rapides et à des coûts réduits. Les DAS, NAS et SAN s'imposent alors de plus en plus
souvent comme des solutions intéressantes.

Aujourd’hui dans toutes les entreprises informatisées du monde, le problème de


l’augmentation radicale du volume de données numériques telles que : e-mails, vidéos,
documents,… est un enjeu ou encore un véritable pari à relever que les entreprises doivent
faire face. D’où avec le déploiement d’un environnement informatique, il faut un centre de
stockage de données digne de ce nom à fin de faciliter les gestionnaires des serveurs dans les
PMI/PME et même les entreprises de petites tailles de : stocker, partager, sauvegarder et
même restaurer les données numériques de manière sécurisée. Toutes ces opérations ne
cessent d’être une tâche courante et importante.
Dans certaines situations, les machines ont besoin d’accéder à des ressources de
stockage sur le réseau comme s’il s’agissait de données présentes sur un disque connecté
physiquement au système local, relativement à notre cas nous pouvons citer in
exhaustivement quelques cas pratiques de stockage et de la sauvegarde :
 Serveur de messagerie professionnelle d’Entreprise (Zimbra Collaboration Suite) ;
 Serveur de fichier (Windows Serveur 2008R2/2012R2) ;
 Serveur de base de données ORACLE ;
 Serveur de sauvegarde (Veeam Backup et Réplication) ;……..

Dans un premier temps nous parlerons du cadre théorique, méthodologique et


conceptuel de l’étude ;

Ensuite nous présenterons les concepts généraux du stockage et de la sauvegarde ;


Et enfin la mise en œuvre pratique d’un système de stockage réseau pour notre serveur
de messagerie.

I-1-CADRE THEORIQUE

I-1-1-Problématique :

Actuellement, toutes les entreprises désirent avoir un espace de stockage plus évolutif.
Le problème du stockage des données est une préoccupation majeure qui concerne quasiment
toutes les couches sociales car les volumes à stocker ne cessent d’augmenter, Il faut donc
trouver une solution évolutive à faible coût. Cette solution vient résoudre le problème du
stockage local, techniquement appelé DAS (Direct Attached Storage), qui est l’ensemble de
disques de stockage qui sont directement rattachés au serveur dont les échanges de données se
font en mode bloc. Dans une infrastructure où les réseaux deviennent plus conséquents, le
stockage local autrement appelé DAS entraine de nouveaux problèmes entre autres:

 Faible évolutivité des solutions


 Espace disque des machines ou faiblement évolutif (à moins d’un
surdimensionnement du LAN).
 Problèmes liés à la sauvegarde de données.

En effet, dans certaines entreprises où les serveurs de bases de données sont fréquents,
l’espace disque est amené à augmenter de manière exponentielle. Ces résultats soulèvent deux
problématiques :
1. Hausse de la demande en espace disque, d’où augmentation des sauvegardes.
2. Hausse de la disponibilité des serveurs, d’où réduction du temps de sauvegarde.
Aujourd’hui toutes les entreprises aspirent avoir un système de stockage orienté
centralisé. Le réseau SAN (Storage Area Network) est une technologie de stockage en réseau.
Les solutions basées sur un réseau de stockage sont les plus évolutives au point de vue de
l’augmentation de l’espace de stockage. C’est un réseau physique en fibre optique ou en câble
Ethernet (iSCSI), dont le but est de permettre la mise en relation de serveurs avec des baies de
disques. Les données stockées sont routées et hiérarchisées via des commutateurs. Le SAN
connecte l’ensemble des unités de stockages et des serveurs. Cette nouvelle solution vient
donc résoudre le problème en matière de stockage et permet :
o Des regroupements des disques et de bandes ;
o Des partages des ressources de stockage entre un nombre très important de systèmes
de traitement et d’utilisateurs ;
o La résolution de problèmes de connectivité entre plusieurs serveurs et unités de
stockage
o La sauvegarde et la restauration de données hors LAN et sans serveur
o Des partages de données hétérogènes
o Un accès plus rapide aux données
Dans le cas d’un système de messagerie collaboratif, la solution SAN permettra donc de
mieux gérer le problème de stockage et permettre un plan de continuité de service, en cas de
panne du serveur, car les données (mails, documents…) ne sont pas stockés en local sur le
serveur, mais sur la baie de disques SAN.

I-1-2-Intérêt du sujet :

L’intérêt du sujet consiste à disposer et à gérer un espace de stockage réseau SAN, qui
est un réseau spécialisé permettant de mutualiser des ressources de stockage. L’avantage
immédiat est d’apporter une grande souplesse de gestion à l’allocation dynamique
d’espace et d’induire une réduction des coûts. Les baies de disques proposent les
architectures RAID avec disque de secours. Les alimentations et les accès sont
doublés pour éviter les points de défaillance. Les réseaux SAN facilitent les opérations
de sauvegarde et de reprise après incident. Les données peuvent ainsi être mises en
miroir sur un site distant en vue d'une reprise transparente après incident, ou être
sauvegardées rapidement sur un autre site sans que cela n'affecte les
performances réseau. Un réseau SAN permet de sauvegarder plusieurs giga-octets de données
en quelques heures seulement. De plus, il prend en charge un large éventail de
technique réseau (déroutement, clusterisation, reprise à chaud, mise en miroir et réplication,
par exemple). Ces techniques assurent une protection contre la perte de données, et
améliorent la disponibilité des informations.
Les ressources de stockage ainsi mutualisées, elles donnent la possibilité de mettre en œuvre
des fonctions de réplication et de la duplication d’un volume pour utiliser sur un autre serveur
ou pour la sauvegarde. Le réseau SAN permet ainsi de meilleures performances tout en
déchargeant le réseau local. Il est basé sur les protocoles Fibre Channel (FC), iSCSI, FCoE.
Le SAN étant le réseau sur lequel sont connectés les serveurs et les périphériques de
stockage (baie de disque). Tout serveur peut accéder à chacun des périphériques. Les éléments
que l’on trouve le plus couramment sont :

Plusieurs baies (bandes/disques) ;


Des serveurs
Des Hubs/Bridges fibres
Un ou plusieurs fabrics.
Aujourd’hui le principal avantage d'un réseau SAN, il permet de consolider
une grande quantité d'informations au sein d'un réseau de stockage centralisé.
Le stockage est accessible à travers un réseau qui lui est spécialement
dédié. Sa principale fonction est de fournir aux serveurs un stockage consolidé basé
sur le Fibre Channel. Le SAN est Idéal pour les bases de données et le traitement
des transactions en ligne, son transfert de données se fait à travers le SAN vers un serveur
vers un LAN ou un WAN et les ressources de stockage et de sauvegardes peuvent
être attachées directement au serveur ou à travers une structure Fibre Channel. Serveur
de ressources de stockage aide à la protection, partage et mouvement de données.
Le stockage peut être étendu par l'ajout de Switch Fibre Channel et de dispositifs de
stockage. Le stockage peut être étendu par l'ajout de Switch Fibre Channel et de dispositifs
de stockage.

I-1-3-Objectif à atteindre :

L’objectif final de mon travail consiste à connecter notre serveur de messagerie


ZIMBRA à une baie SAN afin de stocker nos e-mails et autres données informatiques. La
baie de stockage, en tant que super centre de stockage, c’est donc un outil indispensable qui
est un équipement de stockage de données informatiques. Bien que son apparence varie
souvent, suivant sa taille et son utilisation, sa structure est toujours la même. On retrouve
plusieurs éléments, indispensable à son fonctionnement. Les disques de la baie de stockage
comportent une série de disques de stockage qui sont chargés d’emmagasiner les données. La
taille de la baie de disque dépend bien évidemment de la quantité de données à stocker.

I-2-CADRE METHODOLOGIQUE

I-2-1-Cadre de l’étude :

I-2-2-Délitation du champ de l’étude :

I-2-3-Techniques d’investigations :
I-3-CADRE CONCEPTUEL

I-3-1-Stratégie de l’architecture :

I-3-1-1-Compréhension du sujet :

I-3-2-Quelle offre pour quelle Entreprise ?

PARTIE II
CONCEPTS GENERAUX ET DEFINITIONS

II-1-Introduction au Stockage réseau

Aujourd’hui, l'augmentation des données informatiques (applications, vidéos, e-mails,..)


au sein des entreprises, sont autant de facteurs qui contribuent à l'accroissement exponentiel
du volume des données et alourdissent le réseau de l’entreprise. Sachant que, le stockage
repose sur les infrastructures hébergeant les données vivantes (applications, SE,..). Pour
répondre aux besoins considérables de stockage qui en découlent, des solutions
apparaissent à un rythme soutenu, dans un secteur, celui du stockage, en pleine
explosion
Toutefois, la tendance à la consolidation des données ainsi que les besoins croissants
d'un accès plus rapide à ces dernières dans les réseaux d'entreprises a conduit au
développement de deux architectures de stockage: les serveurs de stockage en réseau,
ou NAS (Network Attached Storage), et le SAN (Storage Area Network).
Actuellement, plusieurs problèmes se posent lorsqu’on centralise les données. L’intérêt
de la centralisation devient un piège pour la gestion et l’administration: le volume des
données augmente et nécessite une sécurité accrue. De plus une haute sollicitation d’entrée et
sortie nécessite une technologie avancé à tous les niveaux (CPU, bus, accès disques,
transferts bandes). Mais ce n’est pas tout, les applications deviennent critiques et sensibles
du fait de la centralisation et la sauvegarde est rendue difficile car les Batch augmentent et
la fenêtre de sauvegarde diminue, sans oublier bien sûr que la production est de 24h/24.

Les intérêts de la consolidation :


 Ouverture au stockage en réseau ;
 Optimiser les espaces de stockage (Physique et Logique) ;
 Partager les données (BDD, Outil Décisionnel, Mainframe) ;
 Faciliter l’administration des données ;
 Sécuriser en recopiant les données sur un site distant ;
 Homogénéiser les technologies ;
 Protéger à partir d’une sauvegarde ou une restauration rapide.

II-1-1-Stockage en mode fichiers et le NAS

La solution NAS

 Définition:

Un NAS (Network Attached Storage ou Serveur de stockage en réseau en français)


désigne un périphérique de stockage (généralement un ou plusieurs disques durs) relié à un
réseau par un protocole de communication tel que TCP/IP par exemple.

 Principe:

Le stockage NAS permet de se connecter à plusieurs systèmes d'exploitation et de


partager des données entre des clients et des serveurs disparates. Pour le NAS, l’accès aux
systèmes de stockage (volumes physiques) se fait en mode fichier à partir d’un serveur de
stockage en réseau (NAS).
Le NAS supporte les protocoles de partage, pour faciliter ce partage de données entre
plates-formes, le stockage NAS prend en charge les protocoles NFS (Network File System)
pour les systèmes UNIX et le protocole CIFS (Common Internet File System) pour les
systèmes Microsoft.
Grâce à l’utilisation de son propre système d’exploitation et de deux systèmes de
fichiers, les serveurs de stockage en réseau NAS permettent le partage d’un même fichier
entre de multiples serveurs et clients dans un environnement hétérogène, sous
Windows NT/95/98/2000, Novell, Netware, Apple ou bien encore les systèmes basé sur
UNIX. Toutefois, le stockage NAS ne peut envoyer que des fichiers, et non des blocs de
données. Le serveur NAS devient le cœur du stockage des données du réseau existant,
soulageant ainsi les disques des différents serveurs du LAN.

L’utilisation d’un NAS est adaptée aux applications faisant appel au service de fichiers
comme l’hébergement de sites WEB ou encore les serveurs de fichiers ou de messagerie. Les
serveurs NAS contribuent à accroître les capacités de stockage "à la volée", ce qui permet de
rediriger le trafic réseau et évite d'avoir à ajouter des nœuds réseau supplémentaires.

 Protocoles utilisés par le NAS:


 SMB/CIFS: est un protocole permettant le partage de ressources sur des
réseaux locaux avec des ordinateurs fonctionnant sous Windows ;
 NFS: est un protocole permettant à des systèmes Linux d'accéder à un serveur de
fichiers via un réseau.

Le NAS se résume par ce schéma :

Fonctionnement du NAS
II-1-2- Stockage en mode bloc et le SAN

La solution SAN

 Définition:

Un SAN est un réseau de stockage permettant à des serveurs d’accéder de manière


distante à des disques regroupés dans des baies de stockage.

 Principe :

Le SAN a un principe de fonctionnement qui est simple auquel des contrôleurs font en
sorte que les données soient protégées de l’accès client, chaque serveur est connecté aux
commutateurs et placé de façon hiérarchisée. Ces données sont en tout temps disponibles
selon un contrôleur qui décide si oui ou non ces données peuvent être acheminées au serveur.
Pour le SAN, l’accès aux systèmes de stockage (volumes physiques) se fait en mode bloc
à partir d’un réseau de stockage (SAN)

Le SAN constitue une plate-forme de communication qui exploite les protocoles


SCSI sur des technologies d’interconnexion à haut débit. Il virtualise totalement l'espace de
stockage et travaille au niveau des blocs (et non des fichiers comme les serveurs NAS); ceci
permet le partage centralisé des données via des "switches" intelligents Fibre Channel. Le
SAN est basé sur la Fibre Channel, topologie indépendante et multicouches fonctionnant en
série et se comportant exactement comme une liaison téléphonique, le SAN est un réseau de
stockage ouvert et évolutif qui relie, à des périphériques de stockage, des serveurs/stations
et postes de travail, par ailleurs reliés au réseau d’entreprise.

 Protocoles utilisés par le SAN:


 FC: étant le protocole qui permet la connexion haut débit entre un ordinateur et son
système de stockage ;
 FCoE: étant le protocole qui encapsule les trames Fibre Channel provenant d'un
réseau de stockage SAN, sur un réseau Ethernet.
 iSCSI: étant le protocole de stockage en réseau basé sur le protocole IP destiné à
relier les installations de stockage de données ;
 SCSI: étant le bus informatique reliant un ordinateur à des périphériques ou à un
autre ordinateur ;
Le SAN se résume par ce schéma :

Fonctionnement du SAN

II-1-2-1-Stockage SAN avec iSCSI

Un SAN est un réseau de stockage permettant à des serveurs d’accéder de manière


distante à des disques regroupés dans des baies de stockage. Les premiers SAN ont été
développés autour du protocole Fibre Channel à base de la Fibre Optique. Les protocoles
d'interconnexion utilisés pour la création d'un SAN sont les protocoles Fibre Channel, FCoE
et iSCSI.
Les SAN (iSCSI) utilisent les protocoles IP et Ethernet. C’est une technique SCSI où la
couche physique est un protocole réseau. Dans la terminologie iSCSI on distingue :

 Cible ou Target
Une Cible ou Target c’est typiquement une baie de stockage exportant les LUN
(Logical United Number) recevant la commande SCSI.

 LUN
Un LUN correspond à un disque (disque en RAID). Au niveau de la baie de disque,
chaque disque est identifié par un LUN.

 Initiator (initiateur en français)


C’est typiquement un serveur qui doit accéder à des disques distants. Il émet les
commandes SCSI. L’Initiator peut être une carte réseau Ethernet spécialisée qui est munie
d’un composant supplémentaire qui va gérer le protocole iSCSI.

 Portal (Portail en français)


Il référence une Cible/Target par son adresse et son port TCP/IP.

 Adresse iSCSI :
C’est une adresse qui identifie de manière unique un disque. Il ya deux types d’adresse
iSCSI :

 Les adresses IEEE (Institut Engeneer Electronical and Electricity) : ont pour préfixe eui.
 Les adresses IETF (Internet Engeneer Task Force) : ont pour préfixe iqn, et sont les plus
utilisées. L’adresse utilisée par Openfiler est de type iqn (iSCSI Qualified Name).
Selon http://www.cuddletech.com/articles/iscsi/ar01s02.html, un iqn est de la forme suivante :

iqn.2006-01.com.openfiler:tsn.9ed4ca97e298
iqn: est fixe, il permet d’identifier le type d’adressage utilisé.

2006-01: correspond au premier mois entier ou le nom de domaine d’authentification


a été en fonction.

com.openfiler : est le nom du domaine d’authentification inversé (openfiler.com). C’est ce


domaine qui attribue l’adresse iqn.
Faire un schéma SAN iSCSI

II-1-2-2-Stockage SAN avec Fibre Channel (FC)

La technologie Fibre Channel sur laquelle repose le réseau SAN utilise une boucle
arbitrée qui offre des vitesses de transfert de données réelles de 100Mbps. Si l'on compare
ce débit à celui qu’offrent aujourd'hui la technologie SCSI, soit entre 40 et 80Mbps, l'écart est
considérable. Toutefois, une nouvelle technologie SCSI est actuellement en cours de
développement. Elle promet d'amener les vitesses de transfert SCSI à un niveau proche de
celui qu'offre aujourd'hui la technologie Fibre Channel. Les réseaux SAN peuvent
également prendre en charge un nombre quasiment illimité de matériels, si votre
entreprise est prête à investir dans l'infrastructure (serveurs, multiplexeurs, passerelles
et unités de stockage).
Le réseau en Fibre Channel, la baie de disque est reliée à un commutateur SAN. Chaque
serveur est relié à un commutateur via sa carte HBA. Ici le commutateur assure le transfert
des données (par blocs) des serveurs à la baie, et s’assure que chaque requête a bien été prise
en compte.
Faire un, schéma SAN FC

II-1-2-3- Stockage SAN avec Fibre Channel over Ethernet (FCoE)

Fibre Channel over Ethernet en sigle FCoE, il désigne le protocole qui encapsule les
trames Fibre Channel provenant d’un réseau de stockage SAN ou sur un réseau Ethernet. La
norme FCoE a été publiée en juin 2009.
Les intérêts essentiels de FCoE sont la simplification de l’architecture et la réduction
des coûts. Historiquement, le raccordement des serveurs aux baies de stockage mutualisées se
faisait soit en Fibre Channel, solution performante mais couteuse car elle nécessite des
switches et un réseau dédié, soit en iSCSI qui adapte aux petits SAN, mais posant parfois des
problèmes de performances.

Cependant, l’adoption de FCoE nécessite de remplacer des équipements (Switches


Fibre Channel et/ou cartes d’accès HBA qui deviennent des CNA (Converged Network
Adapter) et gérant plusieurs trafics, ou d’ajouter des équipements intermédiaires gérant la
conversion entre l’existant SAN/FC et FCoE. Au même titre que les serveurs, les baies de
disque sont considérées également : elles peuvent tout à fait rester en mode SAN, ou se voit
ajouter des cartes CNA.

Le FCoE se résume par ce schéma :

Fonctionnement du FCoE

II-2-Les implémentations du stockage SAN

II-2-1-Solutions libres contre les solutions propriétaires

II-2-1-1-Les Solutions libres

II-2-2-Solutions virtuelles contre les solutions physiques

II-2-2-1-Solutions virtuelles

Aujourd’hui, parler des grands partageant le marché de virtualisation de stockage, nous


trouvons: IBM, DATACORE, Openfiler et beaucoup bien d’autres.

II-2-2-1-a-Openfiler:
Une distribution GNU/Linux spécialisée dans des solutions pour la virtualisation du
stockage distribué sous licence GPL. Ce qui le différencie des autres est qu’il est un système
embarqué et autonome c'est-à-dire qu’il s’installe tout seul et n’a pas besoin d’un système
d’exploitation hôte.
La distribution d’Openfiler a été créée par la société Xinit System Ltd en 2001 et a été
donnée à la communauté Open Source en 2003. Pour plus d’information consulter le site
http://www.openfiler.com/.

Les deux versions d’Openfiler disponibles en image ISO d’installation sont: 32 et 64bits.

II-2-2-1-b-SANsymphony-V
C’est un logiciel qui permet de virtualiser le stockage fondé en 1998 par la société
DATACORE. SANsymphony-V offre également la possibilité de former une couche de
virtualisation évolutive de l’infrastructure de stockage afin d'améliorer les capacités et
centraliser sa gestion.
La solution SANsymphony-V permet au niveau des groupes de disques:

 Leur synchronisation en miroir


 Leur réplication en remote

En outre, SANsymphony-V permet de:


 Fournir un niveau de service global supérieur au niveau individuel des appareils;
 Maximiser la valeur des différentes ressources en les combinant ;
La solution SANsymphony-V définit les appareils qui composent le pool de stockage
tout en s’adaptant les disques supportés par Windows et permet d'équilibrer la haute vitesse et
les coûts.

II-2-2-2-Solutions Physiques

II-2-3-Cas pratique du stockage SAN en Entreprise : SGBD, Serveur de


fichiers, ERP, Email,….

II-3-Présentation et Stockage de la plateforme Zimbra Collaboration Suite


II-3-1-Présentation de Zimbra Collaboration Suite

Zimbra étant une plate-forme complète de Messagerie Collaborative Entreprise


proposant une gamme de services de communication entre autres: e-mail, carnet d’adresses,
messagerie instantanée, agenda, rendez-vous, contacts, calendrier, tout en proposant une
alternative libre à MS Exchange ou Lotus Notes.

Zimbra étant développé en Java J2EE et arrivé sur le marché en 2004, en janvier 2007,
l'éditeur de Zimbra affirmait avoir 6 millions d'utilisateurs, le 17 septembre 2007, la société
Yahoo rachète Zimbra pour 350 millions de dollars et en 2010 par la société VMware.
Depuis, Zimbra est disponible sous deux versions: communautaire et commerciale.

Zimbra est un produit sous licence libre qui est basé sur des logiciels libres (Postfix,
OpenLDAP, MySQL, Jetty,…) et développé autour des nouvelles technologies Web Ajax
ensuite il s'installe uniquement sur une plate-forme de type Linux (RedHat, Suse, Ubuntu,
CentOS, ...). Aujourd’hui, l'engagement de Zimbra ne cesse de nous combler en nous offrant
certaines compatibilités avec des protocoles comme: SMTP, IMAP, POP, CardDAV,
CalDAV et Apple iSync, notamment les Smartphones iPhone, Androïde, Windows et
BlackBerry. Zimbra garantit une haute disponibilité tout en prenant en charge la
virtualisation, ainsi que la sauvegarde et la restauration en ligne, notamment au niveau des
boîtes de messagerie individuelles.

Zimbra s’appuie sur le meilleur de l’open source:

 Apache Tom cat, Serveur d’application web;


 Postfix, Amavisd-new, ClamAV, SpamAssassin, pour la gestion de la messagerie,
incluant un anti pourriel et un anti-virus;
 OpenLDAP, implémentation libre du protocole LDAP fournissant l’authentification
des ressources de Zimbra;
 MySQL, gestion des métadonnées;
 Lucene, outils d’indexation et moteur de recherche de courriels ;
 James/Sieve, filtres de courriels.

L’architecture des logiciels libres de Zimbra:


Zimbra comprend un serveur de messagerie et un client Web, qui offre une solution
intégrant tous les composants essentiels d’une solution de messagerie incluant les composants
de sécurité et bénéficiant d’une architecture extrêmement stable et modulable.

Dans la Messagerie Collaborative Entreprise, on note les services suivants : le travail


Collaboratif (Agenda, Porte Document,..) et la messagerie électronique(E-mail).

II-3-1-1-Architecture de Zimbra Collaboration Suite

Zimbra Collaboration Suite (Zcs) étant une plateforme Open source offrant une
potentialité de gérer plusieurs comptes et domaines sur le même serveur de messagerie.
L’architecture générale de Zimbra s’illustre sur la figure ci-dessous :
Architecture générale de Zimbra

II-3-1-2-Arborescence de Zimbra Collaboration Suite

La messagerie électronique

La messagerie est l’ensemble des dispositifs informatiques (machines et logiciels) qui


permettent :

 La création d’un message sur un ordinateur et son expédition ;


 L’acheminement du message vers son ou ses destinataire(s) ;
 Ensuite la réception et la lecture du message.

Schéma général de fonctionnement d’une messagerie

On distingue ainsi donc trois agents de messagerie :

 MTA (Mail Transfer Agent): Agent de Transfert de mail => serveur SMTP
(Exchange, Postfix, Exim, Sendmail).
 MDA (Mail Deliver Agent) : agent de livraison de mail => serveur POP ou IMAP
(Cyrus, Dovecot, Courrier-imap, uw-imap).
 MUA (Mail User Agent) : agent de lecture et écriture de mail => client de messagerie
(Outlook, Zimbra Desktop, Squirre mail, Evolution, Thunderbird, Round cube).

Expliquons le fonctionnement de la figure ci-dessus


1. Dapea rédige son message et l’envoie grâce à son MUA. Le message est acheminé au
serveur SMTP de son domaine.
2. Le MTA du domaine buscolog.stg reçoit le message et constate que le destinataire
n’est pas dans ses destinations. Il cherche alors grâce à DNS, si un MTA existe pour le
domaine formation.linux. Une fois qu’il l’a trouvé, il envoie le message à ce MTA.
3. Le serveur SMTP de formation.linux reçoit le message et constate que le destinataire
est bien dans ses destinations. Il dépose alors le message dans la boite aux lettres
d’Isaac par l’intermédiaire du MDA.
4. Isaac souhaite relever son courrier et envoie donc une requête à son serveur POP via
son MUA.
5. Le serveur POP consulte la boite aux lettres d’Isaac et constate qu’il y a un message.
6. Il envoie alors le message au MUA de Isaac.

Les éléments essentiels de la messagerie

Dans le domaine de la messagerie électronique, il convient bien de comprendre le


fonctionnement des 03 protocoles qui font la messagerie:

1. SMTP (Simple Mail Transfer Protocol):


Est un protocole de la couche application qui permet d’envoyer et de recevoir les e-mails. Il
fait office ou représente le serveur de messagerie ensuite il est écouté sur le port 25 jouant
ainsi le rôle d’Agent de Transfert de Mail (MTA).
Exemple: Les implémentations du protocole SMTP sont:
 Exchange sous Windows
 Postfix et Sendmail sous Linux

2. POP (Post Office Protocol):

Est un protocole de la couche application qui permet de lire des mails jouant ainsi le
rôle de MUA (Mail User Agent ou agent de lecture et écriture de mail). Il représente le client
de messagerie ensuite il est écouté sur le port TCP 110 dans sa version 3 qu’on appelle
aujourd’hui POP3 et le port 995 dans sa version sécurisé.

Exemple: Les implémentations du protocole POP3 sont:


 Outlook
 Zimbra Desktop

3. IMAP (Internet Message Access Protocol)

Est un protocole de la couche application qui permet de travailler en mode webmail et


jouant le rôle de MDA (Mail Deliver Agent ou agent de livraison de mail). Il est écouté sur le
port 143 et le port 993 dans sa version sécurisée.

Exemple: Les implémentations du protocole POP3 sont:


 UW-imap
 Cyrus

Les différents types de clients de messagerie

Il existe deux types de clients de messagerie:

 Les clients Lourds:


Sont les applications de messagerie que nous installons localement sur nos machines
(Outlook; Zimbra Desktop) ;
 Les clients légers:
Appelés communément webmail qui permet d’accéder à sa messagerie directement depuis le
web (Outlook Web Access OWA).

Place du DNS dans la messagerie:

Le DNS joue le rôle important dans le courriel électronique. Il est utilisé à la fois par les
programmes clients de courrier de messagerie et par les serveurs de messagerie. Dans de
nombreux contextes réseau, seuls deux types d’enregistrement DNS sont utilisés:
 L’enregistrement de type A pour la résolution directe
 L’enregistrement de type PTR pour la résolution indirecte.

Le courrier électronique utilise aussi ces deux types d’enregistrement plus un troisième qui lui
est uniquement dédié: l’enregistrement MX (Mail eXchanger). Ce type d’enregistrement
permet de localiser le MTA.

Le Travail Collaboratif

Zimbra est un outil complet proposant les outils de travail collaboratif suivants :
 Mail:
Zimbra offre la possibilité de partager un dossier de messagerie, de définir des boîtes mail
génériques ou encore des groupes d’utilisateurs (avec une adresse de groupe);
 Calendrier:
Zimbra offre la capacité de :
 Partager des calendriers entre les utilisateurs;
 Créer facilement des événements;
 Consulter les disponibilités des utilisateurs;
 Réserver des ressources (salle, matériel…).

 Porte-documents: Qui a la possibilité de :


 Créer des documents et utiliser le versioning sur ces documents;
 Déposer des fichiers en ligne pour toujours les avoir avec vous;
 Partager certains espaces avec d’autres utilisateurs.

 Tâches: Qui peuvent:


 Créer des listes de tâches et de les gérer;
 Partager les carnets de tâches avec d’autres utilisateurs.
 Carnet d’adresses: Qui a la facilité de:
o Créer et gérer plusieurs carnets d’adresses ;
o Partager des carnets d’adresses personnels avec d’autres utilisateurs ;
o Importer des données depuis les carnets d’adresse.

 Accès mobile:
Zimbra offre le pouvoir d’être consulté à partir d’appareils, des téléphones du marché de masse pour
Smartphones.

 Préférences:
Qui a la possibilité de personnaliser les modules de Zimbra.

 Client Web amélioré: Qui dispose de :


 Une capacité d'envoie et de réception des messages électroniques authentifiés et
chiffrés;
 Calendriers d'entreprise performants indiquant les périodes de disponibilité et
d'indisponibilité ensuite sa compatibilité avec MS Exchange;
 Une boîte de réception complète basée sur la recherche; la possibilité d'effectuer une
recherche dans les pièces jointes; la sauvegarde des dossiers de recherche;
 Une riche interface articulée sur le navigateur avec des fonctionnalités telles que le
glisser-déposé, l'étiquetage et l'affichage par conversations.
Modules logiciels de Zimbra
Zimbra est composé des modules suivants :

 zimbra-ldap: intègre une fonctionnalité d'annuaire d'entreprise et de configuration ldap ;


 zimbra-logger: enregistre les informations d'états du serveur ainsi que ses statistiques;
 zimbra-mta: permet la réception et l'envoie d’emails incluant: Postfix, ClamAV, SpamAssassin;
 zimbra-snmp: permet la surveillance par snmp sur le réseau;
 zimbra-store: c'est l'endroit où sont stockés tous les emails entrant/sortant de toutes les boîtes;
 zimbra-apache: le serveur apache permet l'affichage de l'interface de Zimbra sur le web ;
 zimbra-spell: permet l'intégration d'un correcteur orthographique ;
 zimbra-proxy: permet d'avoir un intermédiaire entre le serveur et le web ;
 zimbra-memcached: permet une meilleure gestion de données et des objets en ram pour plus
de rapidité ;

Sur l’installation de Zimbra-8 sous CentOS-6


Avant l’installation de Zimbra, notons qu’il y a deux versions de Zimbra:

 Zimbra Open Source: qui est une version communautaire


 Zimbra Network Edition: qui est une version commerciale.

Les différentes étapes précédant l’installation de Zimbra sont:


 Préparation du serveur (Adresse IP, nom d’hôte, configuration DNS;…..).
 Enregistrement du serveur Zimbra en tant que client DNS, enregistrement de type A et
de type PTR au près du serveur DNS
 Déclaration d’enregistrement MX pointant vers le serveur Zimbra auprès du serveur
DNS
 Installation des pré-requis système (Dépendance en vue d’installer Zimbra)
 Installation de Zimbra

Types d’installation de Zimbra

Il existe deux types d’installation de Zimbra:


 Installation de type single serveur:

Encore appelé installation tout en un qui est le cas d’école c'est-à-dire qu’on installe tous les
rôles de Zimbra sur la même machine.
 Installation de type multiserveur:
Ce type d’installation consiste à configurer certains rôles sur d’autres serveurs.

On distingue donc à ce propos:

 La configuration multiserveur de type Medium:


Dans ce cas, on distingue deux serveurs majeurs

 Sur le 1er serveur, on installe essentiellement le rôle de Zimbra LDAP et Zimbra Store
 Sur le 2e serveur, appelé techniquement relais-SMTP sur lequel on installe
essentiellement Zimbra MTA et Zimbra Proxy. Ce serveur sera placé dans une zone
Tampon appelée DMZ et sur ce même serveur que seront installés l’antivirus et
l’antispam.

 La configuration de type large:

Dans cette configuration on distingue essentiellement trois serveurs:

 Sur le 1er serveur, on installera le rôle de Zimbra LDAP;


 Sur le 2e serveur, on installera le rôle de Zimbra Store;
 Sur le 3e serveur, on installera le rôle de Zimbra MTA et Proxy.

 Très large configuration:


Même principe que large configuration à la différence……..

II-3-2-Gestion du Stockage de Zimbra Collaboration Suite


PARTIE III
MISE EN ŒUVRE PRATIQUE

III-1-Architecture de Mise en œuvre


III-2-Préparation de la baie de disque SAN iSCSI

A ce stade, il faut créer un espace de stockage avec les disques présents sur la cible.
Nous allons ici implémenter la technologie LVM appuyée sur la matrice RAID-5.
Pour l’espace de stockage qui sera créé à fin d’héberger nos e-mails, notre choix se
porte sur le RAID-5 par ce que, parmi les différents niveaux du RAID, ceux qui peuvent
constituer les unités de stockages sont: RAID-0; RAID-5 et le RAID-10 par contre le RAID-1
est utile pour faciliter la tolérance aux pannes.

III-2-1-Mise en place d’un niveau de RAID (RAID1, RAID5 et RAID10) et LVM

Pour notre pratique, nous disposons tout d’abord de 02 disques durs de 15Go sur lequel nous
installerons notre système d’exploitation Red Hat 6 basé sur les deux disques en RAID-1;

Avant notre mise en œuvre pratique, explicitons apriori le commun de mortels de la lanterne
sur les concepts RAID et LVM:

III-2-1-1-RAID (Redundant Array of Independ Disks):

Étant une technologie qui constitue une unité de stockage à partir de plusieurs disques durs ou
encore le moyen par lequel de multiples disques durs peuvent agir comme un seul disque dur.

On distingue deux types de RAID: Logiciel et Matériel.

 RAID Logiciel: ici le contrôleur RAID se trouve lié au système d’exploitation ou encore le
contrôleur RAID est contenu dans le noyau du système d’exploitation.
 RAID Matériel: ici le contrôleur RAID est géré depuis le Bios.
 Le Contrôleur RAID: est un composant logiciel/électronique permettant de gérer le RAID.

Sous GNU/Linux:

 Le contrôleur RAID se nomme md (multiple disk)


 Le RAID Logiciel est géré par l’utilitaire mdam (multiple disk administration)
 La matrice RAID: est le résultat des disques mis en RAID, elle apparaît comme une unité
logique de stockage unique.

Pour notre cas, nous baserons sur le RAID Logiciel c'est-à-dire que le contrôleur RAID se
trouve lié au système d’exploitation.

 Les niveaux de RAID:

Il y a plusieurs niveaux de RAID mais les plus courant sont: RAID-0; RAID-1; RAID-5 et
RAID-10.

RAID-0:
Il utilise le 1er principe RAID appelé stripping auquel une information est divisée ou repartie
sur plusieurs disques, il se fait sur deux disques minimum de même taille ainsi la taille totale
de la matrice RAID-0 est égale à la somme des disques mis en RAID. Chaque opération de
lecture/écriture sera divisée sur chaque disque, ainsi les performances sont accrues puisque
les lectures et écritures sont effectuées en parallèle sur les disques.

Son inconvénient est que si un des disques tombe en panne, toutes les données seraient
perdues.

RAID-1:
Il utilise le 2e principe RAID communément appelé mirroring qui offre la redondance des
données c’est à dire la même donnée est copiée sur plusieurs disques. Il est faisable sur deux
disques de même taille minimum, ainsi ses performances en lecture sont bonnes, car RAID
emploie un algorithme qui lit les données sur chaque disque ensuite la taille de la matrice
RAID-1 à la taille de l’un des disques. Son inconvénient est qu’il peut nuire à la performance
en écriture car l’information doit être écrite ou copiée sur plusieurs disques en même temps.

RAID-5:
Il était le 3e principe RAID utilisant le stripping et la parité comme des principes, pour sa
faisabilité Il faut trois disques minimum peu importe leur taille. Ici les données dites de parité
sont reparties sur tous les disques permettant ainsi de retrouver les données perdues lors de
la panne d’un des disques. Ainsi la taille totale de la matrice RAID-5 est égale à la taille du
plus petit disque dur multiplié par le nombre de disque mis en RAID moins 1.

RAID 10 ou (1+0):
Il est la combinaison de RAID-1 et de RAID-0, qui offre les avantages simultanés du RAID-1
et RAID-0: augmentation de la taille de stockage et des performances de lecture. Il faut au
minimum quatre disques de stockage pour créer un volume RAID-10.

NB:
 Quand un disque faisant partie d’un RAID tombe en panne, on est à la merci d’une
deuxième panne, il faut tout de même le plus vite possible changer le disque
défaillant et reconstruire le RAID.
 Le disque de secours communément appelé Spare Disk, qui ne fait pas partie
intégrante d'une matrice RAID. En effet, quand un disque tombe en panne, il est
marqué: disque défectueux et le premier disque Spare prend le relais.
III-2-1-2-LVM

C’est une technologie permettant de regrouper les supports de stockage dit disques physiques
(disque, RAID matériel/physique, support de stockage en provenance d’un SAN), en outre il
sert à étendre ou tailler la taille d’une partition de disque encours d’utilisation sans perdre les
données.

III-2-1-3-Installation du CentOS 6 sur le RAID-1

L’installation peut se dérouler sans aucun problème, conformément à notre pratique,


nous disposons tout d’abord deux disques durs de 20GB chacun au départ, sur lequel nous
installerons le système d’exploitation CentOS 6 sur les deux disques en RAID-1.

Préparons notre serveur au moins jusqu’à ce niveau:

Cliquons sur (le triangle vert ou power on this virtual machine) pour commencer l’installation;

Cliquons sur «Ok»;


Ceci est la lecture de la ROM;

Cliquons sur le bouton tabulation du clavier « TAB » pour sélectionner «Skip»;

Une fois sélectionné «Skip», validons par la touche «Entrer» du clavier;

Cliquer sur «Next»;


Sélectionnons «French(Français)», qui est la langue du système d’exploitation puis cliquons «Next»;

Sélectionnons «Français (pc)», qui définit la langue du clavier ensuite cliquons sur «Suivant»;

Cochons la case «Périphériques de stockage spécialisés» puis cliquons sur « Suivant »;

Une fois que les deux disques sélectionnés pour faire le RAID-1, cliquons sur «Suivant»;
Cliquons sur «Réinitialiser tout»;

Une fois renommé l’hôte, cliquons sur «Suivant»;

Une fois sélectionné la ville et le continent que l’on réside, cliquons sur «Suivant»;

Une fois saisi le mot de passe composé de lettres: majuscule, minuscule, chiffre, (minimum
06 caractères) de «root ou super-utilisateur», cliquons sur «Suivant»;

Cliquons sur «Utiliser malgré tout»;


Cochons la case «Créer un partitionnement personnalisé» puis cliquons sur «Suivant»;

Une fois sélectionné un des périphériques, cliquant sur la flèche qui permettra à celui de
traverser de l’autre côté afin qu’il devienne le chargeur de démarrage

Cliquons sur «Suivant»;


Cliquez sur « Créer »;

Cochons la case «Partition RAID» puis cliquons sur «Créer»;

Une fois coché le disque «sda» et défini la taille du (/boot) ou la taille du type de système
de fichier à « 1Go», cliquons sur «valider»;

Cliquons sur «Créer»;


Cochons la case «Partition RAID», puis cliquons sur «Créer»;

Une fois coché le disque «sdb» et défini la taille du (/boot) ou la taille du type de système
de fichier à « 1Go» puis cliquons sur «valider»;

Cliquons sur «Créer»;

Une fois coché la case «Périphérique RAID», cliquons sur «Créer»;


Une fois sélectionné comme ceci, cliquons sur «valider»;

Cliquons sur «Créer»;

Cochons la case «Partition RAID», puis cliquons sur «Créer»;

Une fois sélectionné le disque «sda», doublons la taille de la partition (SWAP) ou RAM
c'est-à-dire (2048=2xRAM) ensuite cliquons sur «valider»;
Cliquons sur «Créer»;

Cochons la case «Partition RAID», puis cliquons sur «Créer»;

Une fois sélectionné le disque «sdb», doublons la taille de la partition (SWAP) ou RAM
c'est-à-dire (2048=2xRAM) ensuite cliquons sur «valider»;

Cliquons sur «Créer»;


Une fois coché la case «Périphérique RAID», cliquons sur «Créer»;

Une fois sélectionné comme ceci, cliquons sur «valider»;

Cliquons sur «Créer»;

Cochons la case «Partition RAID», puis cliquons sur «Créer»;


Cliquons sur «valider»;

Cliquons sur «Créer»;

Cochons la case «Partition RAID», puis cliquons sur «Créer»;

Cliquons sur «valider»;

Cliquons sur «Créer»;


Une fois coché la case «Périphérique RAID», cliquons sur «Créer»;

Cliquons sur «valider»;

Cliquons sur «Suivant»;

Cliquons sur «Formater»;

Cliquons sur «Ecrire les modifications sur le disque»;

Constatons une série de formatage des disques;


Cliquons sur «Suivant»;

Cochons « Desktop » puis cliquons sur «Suivant»;

Signalons le début de l’«installation des processus»;

Installation encours d’exécution;


Cliquons sur «Redémarrer»;

Cliquons sur «valider»;

Cliquons sur «Suivant»;

Cliquons sur «Suivant»;

Une fois rempli les informations relatives à l’utilisateur «Nom utilisateur, Nom
complet, Mot de passe et confirmer le mot de passe) qui sont obligatoires, cliquons sur
«Suivant»;

Cliquons sur «Oui»;


Cliquons sur «Suivant»;

Cliquons sur «valider»;

Cliquons sur «Terminer»;

Une fois saisi le mot de passe de l’utilisateur, cliquons sur «Se connecter»;
Notons ainsi, la fin d’installation du serveur Red Hat 6 que j’ai renommé TARGET.

NB:

 L’installation du serveur GNU/linux requiert forcement la création de la partition racine


(/) et la SWAP (2*RAM).
 On dispose donc une installation manuelle et une installation automatique, relativement
à la nôtre, il s’agit d’une installation manuelle.

III-2-3-Configuration des disques avec la création des PV, VG et LV

Avant de procéder à la configuration proprement dite, listons les disques disponibles


grâce à la commande: # ls /dev/sd*

Nous remarquons que le serveur dispose deux disques et chacun a trois partitions:

/dev/sda: le 1er disque dur de type SCSI /dev/sdb: le 2e disque dur de type SCSI

/dev/sda1: la 1ere partition du 1er disque dur; /dev/sdb1: la 1ere partition du 2e disque dur;

/dev/sda2: la 2e partition du 1er disque dur; /dev/sdb2: la 2e partition du 2e disque dur;

/dev/sda3: la 3e partition du 1er disque dur. /dev/sdb3: la 3e partition du 2e disque dur.

Ainsi nous monterons trois autres disques à chaud pour pouvoir faire du LVM appuyé
sur la matrice RAID-5.
Pour ce faire:

 Cliquons sur le menu «VM»;


 Cliquons sur «Settings»;
 Cliquons sur «Add»;
 Une fois «Hard Disk» sélectionné, cliquons sur «Next»;
 Laissant la case «iSCSI» cochée par défaut, cliquons sur «Next»;
 Laissant la case «Create a new virtual disk» cochée par défaut, cliquons sur «Next»;
 Définissons la taille du disque (par défaut c’est 20GB) puis cliquons sur «Next»;
 Pour terminer, cliquons sur «Finish»;

Vu qu’il faut trois disques, donc il faut faire la même opération trois fois de suite et
redémarrons le serveur grâce à la commande: # init 6 ou # reboot pour prendre
en compte les précédentes opérations effectuées.

Une fois le serveur redémarré, listons à nouveau des disques par la commande: # ls /dev/sd*

Signalons que /dev/sdc; /dev/sdd; et /dev/sde sont respectivement les trois disques que
nous venons de monter à chaud.

Partitionnement

Les trois disques étant montés, procédons à leur partitionnement. Pour ce faire, le
partitionnement du disque /dev/sdc se fait via la commande: # fdisk /dev/sdc

Pour afficher les différentes options du menu, saisir la lettre «m» puis valider par la touche
«Entrer du clavier»;
Pour ajouter une nouvelle partition, saisissons la lettre «n» puis validons par la touche
«Entrer du clavier»;

Saisissons la lettre «p»; puis validons par la touche «Entrer du clavier»;

Saisissons «1» désignant le nombre de partition car celui-ci ne doit dépasser «4» puis
validons par la touche «Entrer du clavier»;

Validons par la touche «Entrer du clavier»;

Validons par la touche «Entrer du clavier»;

Saisissons la lettre «t» pour modifier l’id de système de fichier puis validons;

Saisissons la lettre «L» pour lister les codes puis validons;

Saisissons «8e» pour choisir LVM comme système de fichier ensuite validons;
Saisissons «w» pour écrire la table sur le disque et quittons;

Celui-ci est le message confirmant la réussite de la partition.


Etant donné que nous disposons de trois disques, donc il nous faut partitionner les deux
disques restant en faisant la même opération aux disques /dev/sdd et /dev/sde.

Les trois partitions étant faites, listons ces disques via la commande: # ls /dev/sd*

Signalons que les /dev/sdc1; /dev/sdd1 et /dev/sde1 sont respectivement les


uniques partitions des disques /dev/sdc; /dev/sdd et /dev/sde.

Formatage
Formatons les 03 partitions /dev/sdc1; /dev/sdd1 et /dev/sde1,
Formatage de /dev/sdc1 :
Pour formater la partition /dev/sdc1, on utilise la commande:

# mkfs -t ext4 /dev/sdc ou encore # mkfs.ext4 /dev/sdc1

Formatage de /dev/sdd:
Pour formater la partition /dev/sdd1, utilisons la commande # mkfs.ext4 /dev/sdd1
Formatage de /dev/sde1:

Pour formater la partition /dev/sde1, utilisons la commande # mkfs.ext4 /dev/sde1

Création de la matrice RAID-5

Pour créer la matrice RAID-5, utilisons l’utilitaire mdadm:

# mdadm --create --verbose /dev/md3 --level=5 --raid-devices=3 /dev/sdc1 /dev/sdd1 /dev/sde1

Pour vérifier, utilisons la commande: # mdadm --detail /dev/md3


Signalons que md3 devient un nouveau disque auquel il faut le partitionner et le formater afin
de le rendre utilisable.

Avant tout, partitionnant et formatant notre nouveau disque: /dev/md3

Pour partitionner /dev/md3, utilisons la commande: # fdisk /dev/md3 , une fois


partitionné tout en définissant le type de système de fichier en LVM (8 e) pour notre cas.

Pour formater /dev/md3, utilisons la commande # mkfs -t ext4 /dev/md3

Une fois formatée, constatons que cette partition devient: /dev/md3p1

Création du volume physique

Pour créer le volume physique, utilisons la commande # pvcreate /dev/md3p1

Signalons que le message ci-dessus confirme que /dev/md3 constitue un volume physique
qui vient d’être créé. Pour vérifier les détails de celui-ci, utilisons l’utilitaire pvdisplay

Ici /dev/md3p1 est un volume physique dont sa taille est 50GB.


Création du volume groupe (VG)

Notre volume groupe se nommera SAN, ainsi, pour créer le volume groupe utilisons la
commande: # vgcreate SAN /dev/md3

Le message ci-dessus signale que le volume groupe vient d’être créé et nommé SAN. Ainsi,
pour connaitre les caractéristiques de ce volume groupe, utilisons l’utilitaire vgdisplay.

Ici, le nouveau volume groupe se nomme SAN, son format est: lvm2, sa taille de stockage est
50GB encore vide.

Création de volumes logiques (LV)

Pour créer le volume logique, utilisons l’utilitaire lvcreate:

Le message ci-dessus, confirme que LV_EmailZcs est le volume logique qui vient d’être créé
avec succès dont sa taille est 45GB.
L’option -L définit la taille du volume logique en octet
L’option -l définit la taille du volume logique en logicalextend
L’option -n définit le nom du volume logique. Si on ne spécifie pas l’option -n, celui-ci va
créer le nom du volume logique par défaut nommé lvol et si on veut créer 5 volumes
logiques, on aura lvol1 jusqu’à lvol5.
Pour connaitre les caractéristiques du volume logique, on utilise l’utilitaire lvdisplay

Notons que:
/dev/SAN/LV_EmailZcs: est le chemin absolu du volume logique;
LV_EmailZcs: est le nom du volume logique;
SAN: est le nom du volume groupe qui regroupe le volume logique LV_EmailZcs;
45,00GiB ou 45GB: est la taille du volume logique en octet;
11520: est la taille du volume logique en LogicalExtend;

Installation du paquet Target

Pour installer Target, on doit installer le paquet iSCSI-target-utils se trouvant dans


Packages plus précisément dans l’ISO d’installation

# rpm -ivh scsi-target-utils-1.0.24-2.el6.x86_64.rpm


III-2-4-Configuration des LUN

Le fichier de configuration de la cible SCSI se trouve dans /etc/tgt/ et ce fichier se nomme


targets.conf

Avant tout démarrons le daemon tgtd et l’activons à chaque démarrage via les commandes
suivantes:

# service tgtd start ou # /etc/init.d/tgtd start


Ensuite

# chkconfig --level 35 tgtd on

Ce qui illustre:

Ensuite, éditons le fichier /etc/tgt/targets.conf, configurons de la manière suivante:

Une fois fini, quittons ce fichier ensuite redémarrons le daemon puis l’activons au démarrage
via les commandes
# service tgtd restart puis # chkconfig tgtd on

Pour vérifier le LUN créé, utilisons l’utilitaire # tgt-admin --show

Illustration:
Désactivation des pare feu ou firewall

Pour Windows: saisissez «pare feu Windows» à la zone de recherche et cliquons dessus
puis cliquons sur Activer ou Désactiver le pare-feu Windows:

Voici l’illustration:

Pour Linux, utilisons la commande # system-config-firewall

Voici l’illustration:

NB: la désactivation des pare-feu ou firewall concerne toutes les machines (Contrôleur de
Domaine, Target, Inititor,…) et elle est obligatoire.

Dans la machine INITIATOR, pour installer le package iscsi-initiator-utils, utilisons la


commande # rpm -ivh iscsi-initiator-utils-6.2.0.873-2.el6.x86_64.rpm

Une fois fini d’installer, à l’immédiat redémarrons le daemon iscsi et l’activons au démarrage
via les commandes suivantes: # service iscsi restart puis # chkconfig iscsi on

Ce qui se résume comme ceci:


La découverte du TARGET depuis l’INITIATOR

Ici, il s’agit d’utiliser la commande # iscsiadm -m discovery -t sendtargets -p 10.20.30.3

Illustration:

Ce message signale la visibilité du TARGET depuis INITIATOR, une fois rassuré par ce
message, redémarrons aussitôt l’INITIATOR à fin que ce LUN soit comptabilisé comme
nouveau disque de l’INITIATOR.

Une fois redémarré l’INITIATOR, listons les disques par la commande # ls /dev/sd*

Notons que /dev/sdc est le nouveau disque apparu dans l’INITIATOR, il nécessite son
partitionnement et son formatage afin qu’il soit utilisable.

Pour partitionner le /dev/sdc, utilisons la commande # fdisk /dev/sdc ensuite pour le


formater, utilisons la commande # mkfs.ext4 /dev/sdc1.

Une fois fini, listons à nouveau les disques via la commande: # ls /dev/sd*

Pour interroger l’identifiant de /dev/sdc1, utilisons la commande # blkid /dev/sdc1

Une fois l’identifiant de /dev/sdc1 est connu, éditons le fichier /etc/fstab pour le monter
dans le répertoire /opt de l’INITIATOR, comme l’indique cette illustration:
Une fois enregistré ce fichier, redémarrons l’INITIATOR à fin qu’il prenne en compte cette
configuration.

Pour vérifier que /dev/sdc1 est monté dans le répertoire /opt de l’INITIATOR, utilisons la
commande # df -h

Comme ce nouveau disque étant monté sur le répertoire /opt donc nous pouvons ainsi
installer Zimbra collaboration suite.

III-3-Installation de Zimbra Collaboration Suite (mode single et medium


architecture)

III-3-1-Préparation du Serveur RedHat Entreprise Linux 6 pour Zimbra

III-3-2-Installation de Zimbra Collaboration Suite

Avant d’installer Zimbra, soyons en rassurer que le disque /dev/sdc1 est monté
dans le fichier /etc/fstab. Pour ce faire, utilisons la commande # df -h
Une fois rassuré qu’il est monté dans le répertoire /opt et a 45GB de capacité de stockage.

Etant donné que sur le système GNU/Linux, zimbra intègre plusieurs logiciels libres parmi
lesquels figurent en bonne place le MTA Postfix. A cet égard, stoppons-le comme l’indique
cette illustration:

L’application source suivante: zcs-8.6.0_GA_1153.RHEL6_64.20141215151155.tgz, nous


servira d’installer zimbra, mais avant tout, le binaire nc-1.84-22.el6.x86_64.rpm qui
est très fondamental lors de l’installation de Zimbra. Pour ce faire, installons d’abord celui-ci
grâce à la commande # rpm –ivh nc-1.84-22.el6.x86_64.rpm

Etant donné que zcs-8.6.0_GA_1153.RHEL6_64.20141215151155.tgz, est une application


source, pour l’installer il faut d’abord procéder à le décompresser et le désarchiver via la
commande: # tar -xzvf zcs-8.6.0_GA_1153.RHEL6_64.20141215151155.tgz -C /tmp
Pour installer Zimbra, accédons-nous dans le dossier ou l’application source de zimbra a été
désarchivée et décompressée (/tmp/zcs-8.6.0). Ensuite tapons la commande: # ./install.sh

Saisissons Y puis validons par la touche Entrée du clavier ;


Après avoir saisi les Y partout comme l’indique l’illustration ci-dessus, validons par la
touche Entrée du clavier ;

Saisissons Y puis validons par la touche Entrée du clavier ;

Saisissons Y puis validons par la touche Entrée du clavier ;

Saisissons le nom du suffixe Dns qui est : buscolog.stg ;


Saisissons 7 puis validons par la touche Entrée du clavier ;

Saisissons 4 puis validons par la touche Entrée du clavier ;

Saisissons le mot de passe de l’administrateur puis validons par la touche Entrée du clavier ;

Saisissons r puis validons par la touche Entrée du clavier ;

Saisissons a puis validons par la touche Entrée du clavier ;

Saisissons Y puis validons par la touche Entrée du clavier ;

Validons par la touche Entrée du clavier ;


Saisissons Y puis validons par la touche Entrée du clavier ;

Une fois saisi n ou no, validons par la touche Entrée du clavier ;

Validons par la touche Entrée du clavier pour finir l’installation ;

La commande # su - zimbra nous permet la connexion en mode zimbra ;

La commande # zmcontrol status nous permet de visualiser les fonctionnalités


zimbra qui sont démarrées ;
Pour se connecter :

Une fois ouvert le navigateur Web, saisissons a la zone de recherche:


https://10.20.30.5:7071 Validons par la touche Entrée du clavier ;

Cliquons sur « Je comprends les risques » ;

Cliquons sur « Ajouter une exception » ;

Cliquons sur « Confirmer l’exception de sécurité » ;


Utilisateur: admin
Remplissons ce formulaire:
Mot de passe: Ddcv123

Constatons le chargement ;

Signalons la console de l’administration de zimbra et la fin de l’installation de zimbra.


III-2-5-Gestion des accès : LUN mapping

III-3-Installation de Zimbra Collaboration Suite (mode single et medium


architecture)

III-3-1-Préparation du Serveur Redhat Entreprise Linux 6 pour Zimbra

III-3-2-Installation de Zimbra Collaboration Suite

III-3-3-Configuration iSCSI initiator sous Redhat Entreprise Linux 6

III-3-4-Stockage Zimbra Collaboration Suite dans une BAIE SAN iSCSI

III-3-5-Test de Mise en œuvre pratique de la solution