Vous êtes sur la page 1sur 192

Comment fermer un NAS de Synologie

• Auteur du poste: Frank Joseph


• Dernière modification du poste: 31 août 2023
• Catégorie de poste: Synologie
• Temps de lecture: 7 min lire
Dans ce tutoriel, nous allons voir comment arrêter un NAS Synology en utilisant trois options différentes.
Périodiquement, vous devrez fermer votre NAS Synology. Il y a un moyen principal d'arrêter votre NAS Synology (que vous devez utiliser), mais il y a
deux autres options que vous pouvez potentiellement utiliser. Nous examinerons les trois options ci-dessous.
Avant de regarder les trois différentes façons d'arrêter un NAS Synology, je veux expliquer pourquoi vous devez posséder un UPS, et comment
fermer en toute sécurité votre NAS en cas de coupure de courant.
Certains liens ci-dessous sont des liens d'affiliation d'Amazon, ce qui signifie que je gagne un pourcentage de chaque vente gratuitement pour vous. Je
vous remercie pour votre soutien.
Table des matières montrer

Fermer automatiquement un NAS de synologie avec un UPS


Les dispositifs NAS utilisent RAID, et sans aller trop loin dans les détails, un NAS à mauvais arrêt peut corrompre un pool de stockage. Suivre l'une
des options ci-dessous vous permettra de fermer correctement le NAS, mais qu'en est-il des coupures de courant? C'est là que l'achat d'une UPS n'est
pas une bonne option, mais est nécessaire. Suivez les étapes ci-dessous pour configurer votre UPS.
Lorsque vous obtenez votre dispositif USI, vous devez y brancher votre NAS. Éteignez votre NAS de Synology en utilisant l'une des options ci-
dessous, puis branchez-le sur votre dispositif UPS (sur une prise qui indique une batterie et une surtension).
Branchez le câble USB dans votre UPS, puis branchez l'autre extrémité sur une prise USB sur votre NAS Synology. À ce stade, il y a un changement
de configuration final qui doit être fait.
1. Ouvrez le panneau de contrôle dans Synology DSM, sélectionnez Matériel et Alimentation, puis sélectionnez UPS.
2. Permettre l'utilisation de l'ASI et déterminer si vous souhaitez que l'ASI entre en mode veille lorsque la batterie est faible, ou après une période de
temps spécifiée.

3. Si vous perdez de l'énergie, votre NAS s'arrêtera automatiquement.

Comment fermer un NAS synlogiste: option préférée


Si vous pouvez vous connecter au système d'exploitation DSM, c'est l'option que vous devez utiliser. La raison pour laquelle vous devez utiliser cette
option est que votre NAS effectuera quelques contrôles du système avant de fermer l'appareil.
Par exemple, si vous utilisez une machine virtuelle, vous recevrez un message indiquant que vous risquez de perdre des données sur votre VM si vous
continuez l'arrêt (avant de fermer la machine virtuelle). Un autre exemple est si vous exécutez une tâche de sauvegarde.
Il est important de veiller à ce que tous les services soient arrêtés ou fermés en toute sécurité avant de procéder au processus d'arrêt. Si tous les
services sont fermés, suivez les étapes ci-dessous pour fermer le NAS.
1. En haut à droite, sélectionnez l'icône de la personne, puis sélectionnez l'arrêt.

2. Sélectionnez OK pour fermer le NAS.

3. Le NAS prendra quelques minutes et s'arrêtera correctement.


Fermer un NAS de synologie par le bouton d'alimentation
Si vous avez accès à l'appareil physique, appuyez et maintenez le bouton d'alimentation enfoncé enfoncé pendant quelques secondes jusqu'à ce que
vous l'entendiez et que vous commenciez à clignoter, puis relâchez le bouton d'alimentation.

Après quelques secondes (potentiellement jusqu'à quelques minutes), le NAS s'arrêtera.

Fermer un NAS de synologie avec l'interface de ligne de commande


Si vous êtes dans une position où vous avez activé le service SSH et que vous ne pouvez pas accéder au système d'exploitation DSM, vous pouvez
arrêter le NAS en utilisant l'interface de ligne de commande (CLI). Ce n'est pas l'option que je préfère parce qu'elle fermera le NAS sans les contrôles
du système expliqués lors de l'étape DSM.
Cependant, si vous utilisez cette option, le NAS s'arrêtera.
1. SSH dans votre NAS de Synology et exécutez la commande ci-dessous.
sudo shutdown now

2. Au bout d'une minute environ, le NAS s'arrêtera.

Conclusion: Comment fermer un NAS de synthèse


Ce tutoriel a examiné comment arrêter un NAS de Synology. Pour être clair, le processus d'arrêt est assez simple lorsque vous avez de l'énergie et de
l'accès au NAS. Dans les situations où vous ne le faites pas, l'utilisation d'une UPS est nécessaire si vous vous souciez des données sur votre NAS.
Mon option préférée pour regarder comment arrêter un NAS Synology est d'utiliser le système d'exploitation DSM, mais dans le cas où vous ne le
pouvez pas, les deux autres options sont également excellentes.
Merci d'avoir vérifié le tutoriel sur la façon de fermer un NAS de Synology. Si vous avez des questions sur la manière de fermer un NAS Synology,
veuillez les laisser dans les commentaires

Comment mettre en place une zone démilitarisée dans pfSense


• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 2 mars 2023
• Catégorie de poste: pfSense
• Temps de lecture: 9 min lire
Dans ce tutoriel, nous allons examiner comment mettre en place une zone démilitarisée dans pfSense.
Avant de regarder comment mettre en place une zone démilitarisée en pfSense, je voulais résumer exactement ce qu'est une zone démilitarisée. Un
réseau DMz (zone démilitarisée) est un sous-réseau qui sert à mettre en valeur les services faisant face à l'extérieur. L'objectif de ce sous-réseau est de
l'exposer à des réseaux non fiables et d'accéder par bloc à des sous-réseaux locaux (construissés). Cela permet aux dispositifs non fiables de
communiquer avec le sous-réseau DM, mais ils n'auront aucune communication avec des sous-réseaux/dispositifs locaux (construisibles).
La configuration sur pfSense est similaire à la configuration de n'importe quel autre sous-réseau, mais il est important de s'assurer que vous configurez
les règles de pare-feu correctes afin que les dispositifs DM ne puissent pas communiquer avec LAN, IOT ou tout autre sous-réseau local.
Table des matières montrer
Comment mettre en place une zone démilitarisée dans pfSense
Nous examinerons comment mettre en place une zone démilitarisée dans le pfSense ci-dessous, mais avant d'aller de l'avant, je voudrais souligner
quelque chose d'extrêmement important.
Il est préférable de séparer le réseau DMz sur sa ou ses propres commutateurs physiques si possible. Cela signifie qu'un port physique pfSense
sera dédié au réseau DMz et qui sera connecté à un commutateur qui n'aura que des dispositifs DMz dessus. Cela suppose que ce coût n'est pas une
préoccupation et vous êtes physiquement capable de gérer deux ensembles d'infrastructures.
Tout ce qui n'est pas en dehors de ce qui précède est considéré comme « risqué » d'une manière ou d'une autre, ce qui signifie que vous partagez du
matériel avec d'autres appareils non DM, soit vous utilisez la même infrastructure logique (dans le cas d'un VLAN) et que vous la séparez par des
règles de pare-feu.
Les exigences commerciales ou personnelles déterminent en fin de compte quelle approche est la meilleure, mais je voulais au moins donner un petit
contexte sur les différences. Nous allons maintenant voir comment mettre en place une zone démilitarisée dans pfSense.
1. Connectez-vous à pfSense et sélectionnez Interfaces, puis Assignments.

2. Sélectionnez l'interface physique que vous souhaitez configurer la zone DM, puis sélectionnez Ajouter.

3. Après avoir ajouté l'interface, sélectionnez le nom pour éditer l'interface.


3. Modifier les paramètres des interfaces pour qu'ils correspondent aux informations ci-dessous:
• Sélectionner l'interface d'activation.
• Définissez le type de configuration IPv4 en IPv4.
• Définissez l'adresse IPv4 comme sous-réseau que vous souhaitez utiliser, et /24.
Tous les autres paramètres peuvent rester par défaut, alors vous pouvez sauvegarder.
Serveur DHCP – Comment mettre en place une zone démilitarisée dans pfSense
Par défaut, le serveur DHCP ne sera pas activé sur cette interface. Si vous souhaitez l'activer, vous pouvez en sélectionnant Services, puis DHCP
Server, puis DMz. À partir de là, vous devrez activer le serveur DHCP et spécifier la plage que vous souhaitez utiliser pour cette interface.
Veuillez garder à l'esprit que si vous prévoyez d'avoir un nombre limité d'appareils sur la zone démilitarisée, il serait préférable de configurer
manuellement leurs paramètres IP sur chaque client.

Règles du pare-feu – Comment mettre en place une zone démilitarisée dans pfSense
C'est la partie la plus importante de tout ce tutoriel. Les règles de pare-feu que vous configurez détermineront ce que le réseau DM peut/ne peut pas
accéder. En fin de compte, cette section sera différente pour tout le monde car vous devrez spécifier les ports spécifiques auxquels vous souhaitez que
la zone DM puisse accéder.
Il n'y a pas nécessairement un minimum de ports qui devraient être autorisés, car cela dépend vraiment des services que vous utilisez. Par exemple, si
vous exposez un système de gestion de contenu comme WordPress, vous voulez probablement vous assurer que le port 80 (HTTP), le port 443
(HTTPS) et le port 53 (DNS) sont autorisés afin que WordPress puisse communiquer avec Internet.
Cependant, si vous utilisez autre chose, il y a une chance que vous ayez besoin de spécifier différents ports. Rappelez-vous que ce sont les ports
auxquels vous voulez que les dispositifs DM'Accès à l'écoute. Si vous prévoyez d'utiliser le transfert de port pour exposer l'un de ces services,
le pare-feu n'a techniquement pas besoin de règles – mais vous voulez probablement que quelque chose soit autorisé pour s'assurer que les
appareils peuvent communiquer avec Internet pour mettre à jour, etc.
Quelques points supplémentaires que je voudrais faire pour que cela contribue, je l'espère, à:
• Comprenez comment les règles du pare-feu fonctionnent dans pfSense afin que vous compreniez exactement ce que vous permettez.
• Le réseau DMz ne pourra pas accéder à quoi que ce soit par défaut. Cependant, si vous créez une règle d'autorisation, la zone DM sera en
mesure de communiquer avec vos sous-réseaux LAN, alors ne le faites pas. Au lieu de cela, autoriser l'accès aux seuls ports spécifiques
auxquels les dispositifs DM ont besoin d'accéder.
• S'il y a plusieurs dispositifs DMz qui ont besoin d'accéder à des ports similaires (ce qui ne signifie pas tous les dispositifs DM, mais
certains dispositifs DM), vous pouvez utiliser des alias pour regrouper les dispositifs qui doivent accéder aux mêmes ports ensemble.
• Cela contredit le point principal ici et est très probablement overkill, mais je précise toujours une règle qui bloque le trafic vers mon
réseau local de destination (et tout autre sous-réseau local important). Cela garantit simplement que si une règle de pare-feu est créée par
inadvertance qui donne accès à quelque chose qu'il n'était pas prévu, le trafic sera bloqué sur mon réseau LAN indépendamment. Vous
pouvez également bloquer le réseau DMz sur les règles de pare-feu du réseau LAN.
Exemple de règles de pare-feu pour un réseau DM
C'est tout. Dès que les règles de pare-feu sont créées et que les appareils utilisent le réseau DMz configuré ci-dessus, ils seront séparés de vos autres
appareils locaux.

Conclusion: Comment mettre en place une zone démilitarisée dans pfSense


Ce tutoriel a examiné comment mettre en place un DMz dans pfSense. La mise en place d'un réseau DM n'est fondamentalement pas différente de la
mise en place d'un VLAN dans pfSense, bien que les règles du pare-feu doivent être soigneusement revues pour s'assurer qu'elles sont correctement
configurées. L'avantage d'avoir une zone démilitarisée est que vous séparez physiquement (dans un monde parfait) les appareils exposés de votre
réseau local des appareils locaux. Il existe de nombreuses couches à la sécurité, mais c'est une bonne première étape si vous exposez les services et
souhaitez vous assurer qu'ils ne peuvent pas communiquer avec les appareils locaux.
Merci d'avoir vérifié le tutoriel sur la façon de mettre en place une zone démilitarisée dans pfSense. Si vous avez des questions sur la manière de créer
une zone de gestion de la zone de gestion dans l'espace de la zone de contrôle, veuillez les laisser dans les commentaires.
Comment Port Forward dans pfSense
• Auteur du poste: Frank Joseph
• Date de la dernière modification de la poste : 16 octobre 2023
• Catégorie de poste: pfSense
• Temps de lecture: 14 min lire
Ce tutoriel examinera un guide étape par étape sur le transfert de port pfSense.

Lorsque vous avancez, vous autorisez l'accès à un appareil sur votre réseau local. Il est important de comprendre que cela permet aux personnes et aux
appareils en dehors de votre réseau local d'accéder à un appareil spécifique à l'intérieur de votre réseau local.
Il est généralement de bonne pratique d'utiliser un VPN pour accéder aux appareils de votre réseau local car vous vous assurez qu'un compte, ainsi
qu'un certificat, sont nécessaires pour se connecter. Cela limite les problèmes de sécurité qui pourraient se poser, mais il existe de nombreuses
circonstances dans lesquelles un transfert de port est nécessaire.
Après avoir cherché à aller de l'avant dans pfSense, vous comprendrez le transfert de port et comment c'est fait. Veuillez garder à l'esprit que c'est
pour une configuration pfSense de base.
Table des matières montrer
Qu'est-ce que Port Forwarding?
Avant de faire avancer quoi que ce soit en pfSense, il est important de comprendre exactement ce que fait l'acheminement du port. Le transfert de port
détend un service sur votre réseau local vers le monde extérieur.
Après qu'un port a été retransmis, un utilisateur extérieur au réseau local peut naviguer vers un nom de domaine, un nom d'hôte DDNS ou une adresse
IP externe, approdire le numéro de port qui a été transféré et accéder à ce service.
En général, vous voulez vous assurer que vous exposez en toute sécurité les services car il y a certainement des risques associés à l'acheminement des
ports. Toutefois, il existe également des circonstances dans lesquelles un transfert de port est nécessaire. Voici quelques exemples de ports qui sont
couramment acheminés.
HTTP: Le port 80 est le port par défaut pour le trafic HTTP. Bien qu'il soit dans votre intérêt d'utiliser le protocole HTTPS (port 443) lors de
l'exposition d'un service web (illustré ci-dessous), il y a des circonstances où les utilisateurs vont transférer 80.
HTTPS : C'est le port « par défaut » que la plupart des utilisateurs ouvrent. Il peut s'agir d'un port transféré pour héberger un site Web ou utilisé avec
un serveur proxy inverse et un nom de domaine pour exposer plusieurs services Web différents en toute sécurité.
VPN : Si vous utilisez quelque chose comme OpenVPN, vous serez obligé de transférer le port UDP 1194 (par défaut). Les serveurs VPN sont un
excellent moyen d'accéder aux services sur un réseau local car les utilisateurs intéressés par la connexion devront s'authentifier avec un nom
d'utilisateur, un mot de passe et un certificat.
Vous pouvez héberger un serveur OpenVPN sur votre installation pfSense facilement, configurer WireGuard, ou utiliser quelque chose comme un
Raspberry Pi si vous souhaitez une configuration alternative.
Maintenant que nous avons déminé exactement quel transfert de port est, suivez les instructions ci-dessous pour apprendre à aller de l'avant dans
pfSense.

Pourquoi le transfert de Port est-il nécessaire?


Le transfert de port est un processus de mise en réseau essentiel qui permet aux ordinateurs distants de se connecter à un ordinateur ou à un service
spécifique au sein d'un réseau local privé (LAN). Voici plusieurs raisons pour lesquelles le transfert de ports est important:
• Accès à distance : le transfert de port permet l'accès aux serveurs et appareils de votre réseau local à partir du monde extérieur. Cela est
important pour accéder à distance à des services tels que les serveurs web, les serveurs de jeux, les serveurs de courrier et les serveurs de
fichiers.
• NAT Traversal: Dans un environnement de traduction d'adresses réseau (NAT), où une adresse IP publique est utilisée pour représenter
plusieurs dispositifs avec des adresses IP privées, le transfert de port est nécessaire pour transmettre les demandes entrantes au bon dispositif.
• Amélioration du jeu et du partage de pair à pair: pour les jeux en ligne ou le partage de fichiers de pair à pair, le transfert de port peut
améliorer l'expérience utilisateur en facilitant une connexion directe entre les utilisateurs.
• Amélioration de la qualité de la VoIP: le transfert de port peut améliorer la qualité de la VoIP (Voix sur IP) en éliminant la nécessité
d'acheminer le trafic par un relais, réduisant la latence et la gâche.
• Éviter les problèmes de connexion: Certaines applications et certains services nécessitent une communication directe avec des dispositifs de
réseau spécifiques. Si les ports requis ne sont pas correctement transférés, ces applications peuvent rencontrer des problèmes de connectivité.
Rappelez-vous que si le transfert de port a ses avantages, il doit être fait avec prudence, car il peut exposer votre réseau et vos appareils à Internet. Il est
essentiel de sécuriser tous les services que vous rendez accessibles par le transfert de port afin de minimiser le risque d'accès non autorisé.

pfSense Port Forwarding: Guide étape par étape


Suivez chaque étape ci-dessous, afin de passer à l'avance dans pfSense. Veuillez garder à l'esprit que les ports que vous utilisez seront très
probablement différents.

Étape 1: Accès à la section NAT de pfSense


Connectez-vous au portail web pfSense et sélectionnez Firewall puis NAT.
Étape 2: Création d'une règle d'acheminement du port dans pfSense
1. Vous serez automatiquement amené à la section Port Forward, où vous pourrez sélectionner Ajouter.
NOTA : Il y a une flèche vers le haut et vers le bas à côté de Add. Au fil du temps, vous aurez potentiellement quelques règles différentes, de sorte que
vous serez en mesure d'ajouter la règle au-dessus ou au-dessous des règles existantes.

2. Laisser l'interface en tant que WAN. Le protocole peut être laissé en TCP, remplacé par UDP ou TCP/UDP.
3. Définissez la destination comme l'adresse WAN, puis dans la gamme de ports de destination, vous pouvez soit sélectionner à partir d'un élément
existant à l'aide du menu déroulant, soit entrer dans un port personnalisé.

4. Dans l'IP cible de redirection, vous pouvez ajouter l'adresse IP locale où le port doit être cartographié. C'est l'appareil qui sera exposé en dehors de
votre réseau local

5. Dans le port cible Redirection, ajouter le même numéro de port que vous avez sélectionné à l'étape quatre ci-dessus (dans notre exemple, nous
utilisons 5001).

6. En bas, donner une description et s'assurer que l'association de règles de filtrage est définie comme une règle de filtre associée. Cela garantira
qu'une règle de pare-feu est automatiquement créée pour ce port vers l'avant. Vous pouvez alors sauver la règle.
7. Après avoir économisé, vous devrez appliquer les modifications. La règle de transfert du port pfSense sera alors créée.
Étape 3: Configuration des règles du pare-feu nécessaires
Si vous sélectionnez le pare-feu puis Règles, vous devriez voir que la règle du pare-feu a été automatiquement créée sous WAN.
NOTE: la description aura un NAT devant elle car la règle a été automatiquement créée. La règle sera également liée, ce qui signifie que la suppression
de la règle du transfert de port supprimera la règle du pare-feu.

Étape 4: Limiter l'accès


À ce stade, la règle sera ouverte à tous, ce qui signifie que quiconque essaie de se connecter à votre adresse IP externe, à votre nom d'hôte DDNS ou à
votre nom de domaine aura accès (cela ne signifie pas qu'ils seront en mesure de s'authentifier, juste qu'ils verront le service).
1. Si vous souhaitez limiter l'accès, éditez la règle de transfert du port que nous avons créée à l'étape 1, puis faites défiler vers le bas jusqu'à ce que
vous voyiez Source. Sélectionnez Affichage Avancé pour visualiser ces paramètres.
2. Avec la source affichée, vous pouvez contraindre la source en modifiant le Type. L'une des meilleures façons d'y parvenir est d'utiliser un seul hôte
ou un alias et de configuration d'un alias.

Ceci est très bien décrit dans la vidéo ci-dessous de Tech Me Out. S'il vous plaît, envisagez de vous joaxer sur sa chaîne YouTube.

En général, il convient certainement de limiter les emplacements qui seront en mesure de se connecter à cet appareil est une bonne pratique qui devrait
certainement être prise en considération.
NOTE : si vous n'utilisez qu'une adresse IP ou un sous-rés sous-réseau individuel, vous n'avez pas besoin de passer par l'effort de créer un alias et de
simplement entrer cette information dans la source (avec un seul hôte ou un alias sélectionné).
3. Pour configurer un Alias, sélectionnez Firewall puis Aliases.

4. Sous IP, sélectionnez Ajouter.


5. Vous pouvez maintenant spécifier un nom, puis entrer dans une adresse IP individuelle, plusieurs adresses IP, une plage IP, ou un sous-réseau IP.
6. Vous pouvez maintenant retourner à la section NAT du pare-feu, modifier la règle précédemment créée, montrer les paramètres avancés, puis
sélectionner un hôte unique ou un alias et entrer dans votre pseudonyme.
7. La règle de transfert du port pfSense sera désormais limitée à ces adresses IP. Cela limitera considérablement les personnes qui peuvent accéder au
service et accroître la sécurité.

Conclusion et réflexions finales


Ce tutoriel a cherché à aller de l'avant dans pfSense. Cela a été créé pour une configuration pfSense de base et peut être adapté en fonction de vos
besoins, mais le processus sera le même pour tous les ports que vous souhaitez transmettre. Comprenez simplement que vous exposez ces services au
monde extérieur.
Merci beaucoup d'avoir vérifié le tutoriel sur la façon de passer à l'avance dans pfSense. Si vous avez des questions sur la façon de transférer dans
pfSense, n'hésitez pas à les laisser dans la section des commentaires sur YouTube de la vidéo ci-dessus.

https://www.wundertech.net/pfsense-port-forwarding-setup-guide/

Comment configurer WireGuard sur pfSense


• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 22 décembre 2022
• Catégorie de poste: pfSense / VPN
• Temps de lecture: 20 min lire
Ce tutoriel examinera comment configurer WireGuard sur pfSense.
WireGuard est un outil VPN plus rapide, plus simple et plus mince que quelque chose comme OpenVPN. Là où OpenVPN a le bénéfice de la
longévité, WireGuard est le nouveau protocole VPN plus rapide que beaucoup de gens cherchent à essayer. Pendant que nous plongeons dans la façon
d'installer WireGuard sur pfSense dans ce tutoriel, sachez qu'il s'agit d'un nouveau paquet et pour cette raison, vous pourriez rencontrer quelques
problèmes. Si vous voulez vous assurer que vous pouvez toujours accéder à votre réseau local, veuillez envisager de le mettre en place avec OpenVPN
également. De cette façon, vous vous assurez que vous serez toujours en mesure de vous connecter.
Une fois de plus, à l'occasion de l'écriture de ce tutoriel, WireGuard est expérimental. Bien que je n'aie rencontré personnellement aucune
question autre que ce qui est décrit ci-dessous, cela ne signifie pas que tout fonctionnera parfaitement pour tout le monde.
Le processus ci-dessous n'a PAS fonctionné pour moi sur la v2.5.2. J'ai été forcé de passer à la version 2.6 pour faire fonctionner WireGuard
correctement.
Table des matières montrer

1. Comment configurer WireGuard sur pfSense


Lorsque nous regardons comment mettre en place WireGuard sur pfSense, la première chose que nous devons faire est d'installer le paquet. Suivez les
instructions ci-dessous pour installer le paquet WireGuard sur pfSense.
1. Ouvrez le gestionnaire de paquets et recherchez WireGuard, puis installez la dernière version du paquet.
2. Après l'installation du paquet, sélectionnez VPN puis WireGuard et sous la section Tunnels, sélectionnez Ajouter Tunnel.
3. Dans la configuration du tunnel, définissez la description sous la forme de WireGuard, le port d'écoute en tant que 51820, puis Générer des clés
privées et publiques.
4. Copier la clé publique. Nous en aurons besoin pour notre configuration client.
5. Créez le tunnel, puis sélectionnez Paramètres, et assurez-vous que Enable WireGuard est sélectionné. Puis Save Sauvez-vous et appuyez.

1.1. Configurer l'interface WireGuard – WireGuard pfSense


Maintenant que nous avons créé notre tunnel WireGuard, nous devons créer l'interface WireGuard.
1. Sélectionnez Interfaces puis missions.
2. En bas, ajoutez le tunnel que nous venons de créer. Le nom sera inscrit au TPO, puis en tant que numéro.

Sélectionnez l'interface (OPT8 ci-dessous) pour l'éditer.

3. Activez l'interface et changez la Description à ce que vous voulez. Changer le type de configuration IPv4 en IPv4 en IPv4.
4. Dans la configuration IPv4 statique, régler l'adresse IP en 10.200.0.1 /24. Si vous souhaitez utiliser une gamme de sous-réseaux différentes, vous
pouvez changer le 10.200.0 pour tout ce que vous voulez (tant qu’il n’est pas utilisé actuellement). Réglez le MTU comme 1420 (spécial grâce à
r/pfsense pour l'info). Sauvegarder et appliquer les paramètres de l'interface.
5. Si vous retournez au tunnel WireGuard, vous verrez maintenant que l'interface est affectée à notre tunnel.

1.2 Règles du pare-feu – Comment mettre en place WireGuard sur pfSense


Maintenant qu'un tunnel et une interface WireGuard ont été créés, nous devons créer deux règles de pare-feu. L'un pour l'interface WG-VPN, et l'autre
pour le réseau étendu (pour permettre le trafic sur le port 51820).
1. Sélectionnez le pare-feu puis les règles et sous WG-VPN (notre interface WireGuard de ci-dessus), ajouter une nouvelle règle.

2. Changer le protocole de TCP en n'importe lequel et donner au pare-feu une description, puis enuvegarder et appliquer la règle.
3. Sélectionnez le WAN (identique à l'étape 1, mais pour le réseau WAN au lieu de WG-VPN) et ajoutez une nouvelle règle de pare-feu. Laisser la
famille d'adresses en tant qu'IPv4, puis fixez le protocole à l'UPD. Définissez Destinationl'adresse WAN et définissez le port personnalisé à partir
de et à 51820. Sauvez et appliquez la nouvelle règle du pare-feu.
2. Configuration par les pairs de WireGuard
A ce stade, la configuration du serveur est complète et les règles de pare-feu ont été créées. Nous allons maintenant créer un « pair », qui est un client
qui se connectera à notre serveur.
La configuration de WireGuard Peer est légèrement unique en ce sens que vous avez besoin d'obtenir la clé publique de la paire que vous mettez en
place. Cela peut être n'importe quoi, d'un PC Windows à un appareil Mac/Linux, ou même un appareil Android/iOS. Le processus sera le même, ce qui
signifie que vous devez d'abord configurer l'interface sur cet appareil. La vidéo YouTube ci-dessus explique cela en détail.
Je vais montrer rapidement des exemples d'Android et Windows, mais sachez que les appareils Mac, Linux et iOS seront extrêmement
similaires.
pfSense WireGuard Android Setup
1. Sur mon appareil Android, j'ai créé un nouveau tunnel WireGuard en créant un nom et en générant une clé publique/privée. Dans la section
Adresses, je la définis sous la rubrique 10.200.0.5/24, qui est l'adresse IP qui sera attribuée à ce client. Assurez-vous d'ajouter /24 ou de rencontrer
des difficultés à vous connecter à d'autres appareils.
1.1. Définissez le serveur DNS comme étant ce que vous voulez, puis copiez la clé publique et sauvegardez. Nous modifierons la configuration
homologue WireGuard sur ce dispositif après avoir fini de mettre en place pfSense.
Mise en place de pfSense WireGuard pour Windows
2. Sur Windows, ajouter un tunnel vide. Lorsque vous le ferez, une clé publique et une clé privée seront générées. Dans la section Adresses, je la fixai
comme 10.200.0.5/24, qui sera l'adresse IP qui sera attribuée à ce client. Assurez-vous d'ajouter /24 ou de rencontrer des difficultés à vous
connecter à d'autres appareils.
2.1. Définissez le serveur DNS comme tout ce que vous voulez, puis copiez la clé publique et sauvegardez. Nous modifierons la configuration
homologue WireGuard sur ce dispositif après avoir fini de mettre en place pfSense.

pfSense Peer Configuration


3. Sur pfSense, sélectionnez VPN puis WireGuard, puis sélectionnez Peers et Add Peer.
4. Dans la section Tunnel, sélectionnez le tunnel VPN WireGuard que nous avons créé à l'étape 1. Créez une description, puis entrez la clé publique
du pair. Pour être claire, ces informations doivent être la clé publique sur l'appareil que vous souhaitez connecter à ce serveur (soit l'appareil Android
ou Windows d'en haut).
5. Dans la section IP autorisées, définissez l'adresse IP que vous avez définie dans la configuration client, mais assurez-vous d'utiliser /32. La
meilleure façon d'y penser est que les IP autorisés sur pfSense est l'adresse IP que votre client utilisera lors de la connexion.
2.1 Augmenter la sécurité en utilisant une clé pré-partagée
Le pair est entièrement configuré à ce stade, mais si vous souhaitez augmenter la sécurité en garantissant qu'une clé publique et une clé pré-partagée
sera nécessaire pour se connecter, Générer une clé pré-sagamisée. Vous devrez ensuite copier ceci et l'ajouter à la configuration WireGuard Client.
Pour être clair, cela nécessitera que le client WireGuard contienne les serveurs pfSense Public Key et Pre-Shared Key afin de se connecter.

3. Configuration de l'appareil client – Comment configurer WireGuard sur pfSense


Maintenant que le pair WireGuard a été configuré sur pfSense, nous devons configurer la configuration paire sur notre appareil client.
Client Android WireGuard
1. Utilisant notre téléphone Android comme exemple, la clé publique sera la clé publique de notre tunnel pfSense WireGuard. Vous pouvez référencer
ces informations de la configuration Tunnel si nécessaire dans pfSense.
2. Si vous avez mis en place une clé pré-partagée ci-dessus, entrez la clé pré-partagée. Si vous ne l'avez pas fait, vous pouvez sauter cette étape.
3. Le point d'extrémité sera votre adresse IP externe statique. Si vous n'avez pas d'adresse IP externe statique, ce sera votre nom d'hôte DDNS. Si vous
n'avez pas de nom d'hôte DDNS, vous pouvez suivre ce tutoriel pour en établir un en utilisant DuckDNS (gratuit) ou celui-ci pour mettre en place
DDNS en utilisant Cloudflare (vous devez posséder votre propre domaine pour cette option). À la fin, joindre le port 51820.
IP-ADDRESS-OR-DDNSHOSTNAME:51820

Client Windows WireGuard


La même fonctionnalité fonctionnera sur Windows, bien que vous devrez d'abord taper les variables. On trouvera ci-après un example de configuration.
3.1 Tunnel divisé vs. VPN en tunnel complet – Comment configurer WireGuard sur pfSense
Cette section est importante pour les mesures à prendre à l'avenir. Nous créerons soit un VPN à alternoel, soit un VPN en solitaire (ou les deux).
1. Split-Tunnel VPN: Le trafic n'est envoyé via votre réseau que s'il tente d'accéder à une ressource interne. Votre adresse IP lors de votre
navigation vers un site en dehors de votre réseau sera l'adresse IP du réseau sur lequel vous êtes actuellement.
2. VPN en tunnel complet: Tout le trafic est envoyé par le tunnel de votre VPN. Votre adresse IP pour les demandes internes et externes sera vos
réseaux domestiques. J'ai créé une image très basique ci-dessous qui explique cela.
Il est important de comprendre que les deux types de VPN vous permettront d'accéder à votre réseau local. Cela ne montre que comment le
trafic est acheminé différemment vers les réseaux externes.
NOTA : Il ne s'agit pas du flux de réseau exact. Je simplifie le processus autant que je peux.
3.1.2 Configuration du client à pédoncules par tranche
Dans la section AutoriséIPs, entrez les adresses IP que vous souhaitez envoyer via ce tunnel VPN. Au minimum, il doit s'agir de votre sous-réseau
VPN (dans notre cas, 10.200.0.0/24) et de votre sous-réseau LAN (afin que vous puissiez vous connecter à vos appareils locaux). Séparez tous les
sous-réseaux auxquels vous souhaitez accéder par une virgule.
Avec cette configuration, votre adresse IP externe lorsque vous naviguerez sur des sites web sera le réseau sur lequel vous êtes actuellement sur
le réseau.
Exemple Android

Exemple de fenêtres
3.1.2 Configuration du client à plein-toulier
Si vous souhaitez acheminer TOUT le trafic à travers le tunnel VPN, fixez le paramètre AutoriséIPs à 0.0.0.0/0. Cela permettra d'acheminer tout le
trafic à travers le tunnel du VPN.
Avec cette configuration, votre adresse IP externe lors de la navigation vers des sites web sera l'adresse IP externe pfSense.
Exemple Android
Windows – pfSense WireGuard Client Exemple
3. Connecter le client WireGuard à pfSense
L'ensemble de votre configuration devrait être mis en place à ce stade et est prêt à partir. Assurez-vous d'être sur un réseau externe et connectez-vous.
Vous devriez pouvoir vous connecter à votre sous-réseau LAN et à toutes les ressources locales hébergées sur celui-ci. Si vous utilisez un VPN split-
tunnel, votre adresse IP externe doit être la même que le réseau auquel vous êtes actuellement connecté, et si vous utilisez un VPN à sous-tunnel
complet, elle devrait être la même que le réseau pfSense.
Vous pouvez vérifier que le client et le serveur ont fait un « secouage » en sélectionnant Status puis WireGuard dans pfSense et en élargissant le
tunnel que nous avons créé. Si vous êtes connecté et que la poignée de main a réussi, vous verrez un symbole vert de poignée de main.
3.1 Restart WireGuard Service sur pfSense
Si vous devez redémarrer le service WireGuard sur pfSense, sélectionnez Status puis Services et sélectionnez l'icône Restart.

4. Conclusion – Comment configurer WireGuard sur pfSense


Ce tutoriel a examiné comment mettre en place WireGuard sur pfSense. S'il vous plaît gardez à l'esprit que c'est encore expérimental et pour cette
raison, vous pourriez rencontrer des problèmes imprévus. Comme mentionné précédemment, vous pouvez configurer OpenVPN et l'exécuter sur
pfSense ainsi que pour vous assurer que vous pouvez toujours vous connecter à votre réseau local.
Comme toujours, si vous avez des questions sur la façon de mettre en place WireGuard sur pfSense, n'hésitez pas à les laisser dans les commentaires de
la vidéo YouTube.

https://www.wundertech.net/how-to-set-up-wireguard-on-pfsense/
Comment configurer le double/multi-WAN dans pfSense
• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 30 octobre 2023
• Catégorie de poste: pfSense
• Temps de lecture: 8 min lire
Dans ce tutoriel, nous allons examiner comment mettre en place Dual/Multi-WAN dans pfSense.
Si vous avez deux connexions Internet WAN différentes et que vous utilisez pfSense, les mettre en place comme étant soit équilibré en charge, soit en
tant que primaire/soumettant pour le basculement automatique est une excellente option. Soit le trafic peut être établi d'une manière où pfSense
déterminera la ligne ISP à utiliser en fonction du trafic qu'elle reçoit, soit vous pouvez configurer une connexion primaire et une connexion de secours.
Le scénario primaire et de sauvegarde est bénéfique si vous avez un FAI qui fournit un meilleur service Internet (qu'il s'agisse de vitesse ou de
fiabilité), ce qui permettra à pfSense de tomber automatiquement sur la ligne de sauvegarde si la connexion Internet est perdue. Les deux sont
d'excellentes options, mais le service Internet fourni par chaque fournisseur de services Internet déterminera très probablement quelle option est la
meilleure. Veuillez garder à l'esprit que le processus ci-dessous fonctionnera si vous avez plus de deux connexions WAN également.
Table des matières montrer

Comment configurer le double/multi-WAN dans pfSense


Nous examinerons comment mettre en place deux/multi-WAN dans pfSense ci-dessous.
1. La première chose que nous devons faire est d'activer la deuxième interface WAN. Selon l'appareil que vous utilisez, le nom de l'interface sera
différent, mais vous devriez pouvoir naviguer jusqu'à la section Interface Assignments et ajouter l'interface WAN2. Lorsque vous avez fini d'ajouter
l'interface, sélectionnez le nom pour y accéder.
2. Activer l'interface, changer le nom et définir le type de configuration IPv4 et IPv6 en tant que DHCP. Si vous savez avec certitude que le FAI
n'utilise pas IPv6 (ou dans de très rares circonstances, IPv4), vous n'avez pas à l'activer.

3. Dans la section Réseaux réservés, activer les deux options et Save.


Configuration d'un groupe de passerelle – Comment mettre en place du double/multi-WAN dans pfSense
Maintenant que les deux interfaces sont configurées et configurées, nous allons créer un groupe de passerelle pour gérer les deux. Le groupe passerelle
déterminera s'il va équilibrer les deux connexions ou faire office de ligne primaire/souligne de secours.
1. Naviguez vers le système, le routage, puis les groupes de passerelle, puis sélectionnez Ajouter.
2. Créer un nom de groupe.

3. Si vous souhaitez que les deux interfaces WAN soient équilibrées en charge, vous conduirez chacune au niveau 1. Cela signifie que les deux sont
des connexions actives et qu'il convient d'être utilisé.
4. Si vous souhaitez qu'une interface WAN soit la principale et une seconde interface WAN pour être le secondaire, fixez le primaire de niveau 1 et le
secondaire en tant que niveau 2.

5. Dans le niveau de déclenchement, fixez cette valeur comme étant votre préférence. La documentation pfSense donne une grande explication des
différences entre chacune d'elles.

6. Enfin, créez une description et sauvegardez, puis appliquez. Le groupe passerelle est maintenant créé.

Portail par défaut – Comment mettre en place du double/multi-WAN dans pfSense


Maintenant que le groupe a été créé, nous devons préciser quand il doit être utilisé. Il y a deux façons principales de le faire – la première est de
modifier la section passerelle par défaut dans le menu Système/Routing/Gateways.
NOTE : Lorsque vous modifiez la passerelle par défaut de cette manière, ces préférences s'appliqueront à tous les trafics sur toutes les interfaces en
utilisant la valeur par défaut.
La deuxième façon de modifier la passerelle pour les interfaces spécifiques est de créer une règle de permission dans le pare-feu. Pour ce faire,
sélectionnez Pare-feu, puis Règles, et naviguez jusqu'à l'interface à laquelle vous souhaitez que ce groupe de passerelle s'applique.

Modifier la règle Autoriser qui existe, sélectionnez Display Advanced, puis changez la Portail au groupe de passerelle créé ci-dessus.
NOTE: Si la section de passerelle n'est pas accessible, assurez-vous que la famille d'adresses n'est pas définie comme IPv4 et IPv6.

Conclusion – Comment mettre en place du double/multi-WAN dans pfSense


Ce tutoriel a examiné comment configurer Dual/Multi-WAN dans pfSense. Si vous avez l'intention d'avoir deux connexions ISP séparées (ou
techniquement, autant que vous le souhaitez), c'est une bonne idée d'utiliser des groupes de passerelle car cela vous permettra de charger l'équilibre ou
de basculer automatiquement en utilisant un réseau WAN primaire et secondaire. Veuillez garder à l'esprit que vous pouvez configurer plusieurs
groupes de passerelles si vous souhaitez que certaines interfaces supportent l'équilibre et d'autres pour avoir un basculement WAN. Les règles de pare-
feu détermineront alors quelle interface utilise quelle passerelle.
Merci d'avoir vérifié le tutoriel sur la façon de configurer dual/multi-WAN dans pfSense. Si vous avez des questions sur la manière de mettre en place
le double/multi-WAN dans pfSense, laissez-les dans les commentaires.

Comment configurer l'échelle de queue sur pfSense


• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 3 novembre 2022
• Catégorie de poste: pfSense
• Temps de lecture: 9 min lire
Dans cet article, nous examinerons comment configurer Tailscale sur pfSense.

L'échelle de queue est un VPN de configuration zéro, ce qui signifie que sans aucun transfert de port, vous serez en mesure d'accéder à tous les
appareils de votre réseau local. Maintenant que Tailscale est supportée sur pfSense, c'est un endroit idéal pour faire fonctionner Tailscale.
Gardez à l'esprit que si vous souhaitez utiliser un VPN plus traditionnel, vous pouvez toujours mettre en place OpenVPN ou WireGuard. Cependant,
ces deux options nécessitent un transfert de port, contrairement à l'échelle de la queue. Du point de vue de la configuration pure, Tailscale est
incroyablement facile à mettre en place et nous allons examiner comment mettre Tailscale sur pfSense ci-dessous.
Table des matières montrer
Comment configurer l'échelle de queue sur pfSense
Veuillez organiser les étapes ci-dessous pour configurer Tailscale sur pfSense.
1. Sélectionnez Système, puis Package Manager.

2. Recherchez l'échelle de queue, puis installez le paquet Tailscale.


3. Sélectionnez VPN, puis Tailscale pour lancer les paramètres de l'échelle de la queue.

4. À ce stade, nous devons configurer la clé de pré-authentification. Cela peut être créé sur le site web de l'échelle de mesure. Si vous n'avez pas déjà
de compte, créez-en un, puis connectez-vous et sélectionnez Paramètres, puis clés.
5. Sélectionnez générer la clé d'authentification afin que nous puissions créer la clé pour pfSense. Select Generate Key (les paramètres peuvent
rester par défaut).
6. Après la génération de la clé, copy copiez-la, puis retournez à la section Authentification de Tailscale sur pfSense.
7. Collez la clé qui vient d'être créée, puis sélectionnez save.
8. Après avoir sauvegardé, sélectionnez Paramètres, puis activez Tailder et Save.
Noeud de sortie – Comment mettre en place un taraudeur sur pfSense
Si vous avez configuré Tailscale en tant que nœud de sortie, le nœud de sortie peut être utilisé comme un VPN complet. L'image ci-dessous montre ce
qu'est un VPN complet contre tunnel, mais le point important est que tout le trafic sera acheminé par Tailscale si vous utilisez un noeud de sortie. Par
conséquent, si vous êtes sur le Wi-Fi public, c'est probablement une bonne idée d'utiliser cette fonctionnalité car vous allez tunneller tout le trafic via
pfSense (donc, la sécurisation de la connexion).
Quelques choses doivent être configurées pour régler un noeud de sortie dans Tailscale:
1. À l'intérieur des paramètres de l'échelle de queue sur pfSense, activer l'offre d'être un nœud de sortie pour le trafic Internet sortant à partir de
l'option du réseau Tailscale. En outre, définissez les Routes advertis comme votre sous-réseau local (que vous souhaitez pouvoir accéder à partir de
réseaux externes), puis économisez.

2. Sur le site Web Tailscale, sélectionnez Machines, puis les trois ellipses à côté de votre système pfSense, puis éditer les paramètres de la route.
3. Sélectionnez l'utilisation comme noeud de sortie. La fonctionnalité noeud de sortie est maintenant configurée et peut être utilisée par des
dispositifs clients.
4. Sur n'importe quelle application que vous utilisez, sélectionnez Utiliser le nœud de sortie et changer le nœud de sortie pour être pfSense. Si vous ne
voulez pas utiliser le nœud de sortie, sélectionnez Néant, mais assurez-vous qu'Autoriser l'accès au réseau local est activé afin que vous puissiez
vous connecter à vos appareils locaux.
5. L'échelle de la queue est maintenant configurée. Vous pouvez maintenant ajouter d'autres appareils ou simplement vous connecter à Tailscale à partir
d'un réseau externe pour accéder à tous vos appareils locaux.

Conclusion: Comment mettre en place un tarière sur pfSense


Ce tutoriel a cherché comment mettre en place Tailscale sur pfSense. L'échelle de la queue ne pourrait pas être plus facile à mettre en place et c'est (à
mon avis) le moyen le plus facile et le plus rapide de mettre en place un serveur VPN sur pfSense. Il est important de noter qu'il ne s'agit pas d'un VPN
traditionnel comme le fait OpenVPN ou WireGuard, mais c'est le moyen le plus rapide d'accéder à votre réseau local et ne nécessite aucun transfert de
port.
Merci d'avoir vérifié le tutoriel sur la façon de configurer Tailscale sur pfSense. Si vous avez des questions sur la façon de mettre Tailscale sur pfSense,
laissez-les dans les commentaires
Comment créer des règles de pare-feu dans pfSense
• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 3 novembre 2022
• Catégorie de poste: pfSense
• Temps de lecture: 11 min lire
Dans ce tutoriel, nous allons voir comment créer des règles de pare-feu dans pfSense.
Lorsque vous configurez pfSense et configurez toutes vos interfaces, vous devez créer des règles de pare-feu. Une règle du pare-feu permettra ou
refusera le trafic en fonction de la source du trafic d'où provient ce trafic. Il y a plusieurs façons d'implémenter les règles du pare-feu dans pfSense, et
comprendre comment elles fonctionnent est une étape importante pour s'assurer que votre réseau est correctement configuré.
Il y a un grand article de Netgate qui explique comment les règles sont traitées et je vous suggère de le lire et de le comprendre avant de voir comment
créer des règles de pare-feu dans pfSense.
Table des matières montrer

1. Comment créer des règles de pare-feu dans pfSense


Lorsque vous souhaitez créer des règles de pare-feu dans pfSense, les règles doivent être configurées sur chaque interface (à moins que vous n'utilisiez
une règle de pare-feu flottant, qui est expliquée à une étape ultérieure). Cela signifie que si vous avez des réseaux LAN, IoT et Guest, des règles de
pare-feu devront être créées sur chaque interface pour permettre ou refuser le trafic. Vous devez également créer des règles de pare-feu si vous utilisez
un VPN comme OpenVPN ou WireGuard (sur l'interface VPN).
Des règles sont créées pour chaque interface dans la seule direction entrante. Cela ne signifie pas que le trafic sortant ne peut pas être bloqué,
mais le trafic doit prendre naissance dans la direction entrante de l'interface. Un exemple est expliqué plus loin dans ce tutoriel.
Il est également important de comprendre que par défaut, le trafic est automatiquement refusé. Pour permettre le traffic sur une interface,
une règle d'autorisation doit d'abord être créée.
1.1 Comment accéder aux règles du pare-feu dans pfSense
1. Si vous souhaitez configurer les règles du pare-feu, vous pouvez accéder à la section des règles en naviguant sur le pare-feu, puis aux règles.

2. Après avoir navigué vers les règles, vous verrez toutes les interfaces actuellement dans pfSense ainsi qu'un onglet flottant qui sera expliqué plus tard.

3. Si vous créez des règles pour l'interface WAN, vous créerez des règles pour autoriser le trafic vers votre réseau local à partir de réseaux externes. Si
vous utilisez le transfert de port dans pfSense, vous devez vous assurer qu'une règle de pare-feu existe sur l'interface WAN pour le même port qui a été
acheminé.
4. Toutes les autres interfaces répertoriées (autres que la section flottante) géreront le traffic pour les interfaces internes ou pour une autre catégorie
(VPN par example).
1.2 Comment créer des règles de pare-feu dans pfSense
1. Pour créer une règle de pare-feu dans pfSense, naviguez jusqu'à l'interface où vous souhaitez créer la règle et sélectionnez Ajouter. La flèche vers le
haut créera une règle en haut de la liste, et la flèche vers le bas en créera une en bas.

2. Sélectionnez dans l'onglet Action si vous souhaitez que le trafic soit autorisé (passement), bloqué ou rejeté.

3. Mettez à jour l'interface si nécessaire, puis changez la famille d'adresses en IPv4, IPv6, ou IPv4 et IPv6.
4. Dans la section du protocole, sélectionnez le protocole correct pour la règle que vous souhaitez créer. Si vous voulez autoriser ou refuser tout
trafic, sélectionnez tout le trafic.
Sur la base du protocole que vous sélectionnez, différentes options apparaîtront en dessous. Par exemple, si vous sélectionnez TCP, vous devrez
spécifier la plage de ports TCP.

5. Dans la section source, sélectionnez la catégorie correcte.


Si vous souhaitez choisir un réseau entier (LAN, IoT, Invité, etc.), sélectionnez le « nom de l’interface et net ». Cela utilisera l'ensemble du
réseau.
6. Dans la section destination, sélectionnez l'option correcte (identique à la section source).
7. Donnez une description à la règle et sauvegardez-le.

1.3 Exemple de règle du pare-feu


Je vais énumérer un exemple de règle de pare-feu en dessous qui bloque le trafic de mon réseau invité à mon réseau LAN. Cela signifie que toute
personne connectée à mon réseau invité ne sera pas en mesure d'accéder à quoi que ce soit sur mon réseau LAN.
• Action : Blocage
• Interface: GUEST
• Adresse Famille: IPv4 et IPv6
• Protocole:
• Source :
• Destination : LAN net
• Description: Block LAN de l'invité
Cette règle bloque tout trafic du réseau invité vers le réseau LAN pour le trafic IPv4 et IPv6. Sur l'interface réseau LAN, une règle peut également être
créée pour bloquer le trafic du réseau LAN vers le réseau invité si vous ne voulez pas any un trafic passant vers/depuis les réseaux Guest et LAN.
Je veux être clair que la règle initiale est créée sur l'interface du réseau Guest parce que les règles sont créées au niveau de l'interface pour le
trafic entrant uniquement. Le trafic est bloqué sur le réseau LAN parce qu'un dispositif invité tente de se connecter à un dispositif LAN et
pfSense le bloque.
Appareil de réseau invité - Demandes réseau LAN - pfSense Firewall - Règle de bloc

1.3 Règles flottantes de pare-feu


Il y a quelques précautions à prendre si vous utilisez des règles de pare-feu flottants, mais elles sont un outil précieux. Les règles de pare-feu flottants
s'appliquent à plusieurs interfaces et sont traitées en premier lieu lorsqu'une requête frappe pfSense. Vous devez garder cela à l'esprit parce que si le
trafic est bloqué d'une règle flottante, il n'arrivera jamais aux règles d'interface.
Le principal avantage de l'utilisation de règles de pare-feu flottant est que vous pouvez bloquer ou autoriser le trafic pour toutes les interfaces avec
une règle individuelle. Par exemple, si vous voulez autoriser le trafic DNS (port 53), vous pouvez créer une règle d'autorisation à l'intérieur de la
section flottante, et le trafic sur le port 53 sera autorisé pour toutes les interfaces.
C'est une option puissante, mais soyez prudents car vous gérez techniquement toutes les interfaces avec une règle unique.

2. Conclusion – Comment créer des règles de pare-feu dans pfSense


Ce tutoriel a examiné comment créer des règles de pare-feu dans pfSense. Après avoir mis en place pfSense et commencer à le configler, le pare-feu
deviendra extrêmement important car il déterminera quel trafic doit être autorisé/blocé. Sans règles de pare-feu, tout le trafic est bloqué par défaut,
donc au minimum, vous devez créer des règles d'autorisation pour le trafic qui devraient être autorisés.
Merci d'avoir vérifié le tutoriel sur la façon de créer des règles de pare-feu dans pfSense. Si vous avez des questions sur la façon de créer des règles de
pare-feu dans pfSense, laissez-les dans les commentaires.
Comment utiliser la synchronisation des dossiers partagés sur un NAS
de synologie
• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 2 novembre 2022
• Catégorie de poste: Synologie
• Temps de lecture: 5 min lire
Aujourd'hui, nous allons jeter un oeil sur la manière de configurer et de configurer la synchronisation des dossiers partagés sur un NAS de Synology.

Shared Folder Sync utilise rsync pour synchroniser un dossier sur une source Synology NAS avec un dossier sur un NAS de destination Synology
NAS. Ce processus est très comparable à Snapshot Replication mais ne nécessite pas le système de fichiers btrfs. Si vous avez deux NAS de Synology
qui utilisent des btrfs, je vous suggère vivement de consulter Snapshot Replication car il synchronise les données ainsi que des instantanés à un NAS de
destination Synology. Cependant, si vous utilisez ext4, vous pouvez utiliser Shared Folder Sync.
Gardez à l'esprit que Shared Dorter Sync nécessite deux NAS de Synology.
Table des matières montrer
Instructions – Synologie partagée de la synchronisation des dossiers NAS
1. Sur le NAS de destination Synology, ouvrez le panneau de contrôle, sélectionnez File Services, puis Rsync. S'assurer que le service rsync est
activé.
2. Sur le NAS de Synology source, ouvrez le panneau de contrôle, sélectionnez Synchronisation Shared Folder, puis Liste des tâchesList.
3. Sélectionnez Créer, puis donnez un nom à la tâche.
4. Sélectionnez les dossiers que vous souhaitez synchroniser, puis sélectionnez la case à cocher et sélectionnez Suivant.
5. Inscrivez-vous dans les informations pour la destination Synology NAS. Les réglages en bas peuvent être personnalisés, puis tester la connexion.
NOTE: La case à cocher de synchronisation au niveau du bloc compare les données et ne synchronise que la différence.
6. Modifiez le calendrier que vous souhaitez que cette tâche s'exécute.
7. Si tout a l'air correct, vous pouvez Applyser les paramètres et le dossier commencera à se synchroniser.
Il est très important de comprendre que cette tâche synchronisera les données de la source à la destination. Vous devez savoir que si les
données sont compromises sur la source, elles se synchronisent avec la destination. Par conséquent, vous devez toujours configurer les
sauvegardes appropriées pour vous assurer que vos données sont récupérables en cas de corruption. J'ai quelques tutoriels sur la façon dont vous
pouvez sauvegarder un NAS Synology ici.
Conclusion
Les étapes de configuration d'un partage de dossier partagé sont très simples mais peuvent être utiles pour les utilisateurs qui cherchent à synchroniser
deux dossiers, en particulier si vous utilisez Ext4 et que la réplication de Snapshot n'est pas une option.
Merci d'avoir vérifié le tutoriel. Si vous avez des questions, s'il vous plaît, laissez-les dans les commentaires.

https://www.wundertech.net/how-to-use-shared-folder-sync-on-a-synology-nas/

Utiliser Rsync pour restaurer des fichiers de sauvegarde d'un NAS de


Synology vers un PC Linux
• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 2 novembre 2022
• Catégorie de poste: Linux / Synologie / Pentologie
• Temps de lecture: 7 min lire
Dans ce tutoriel, nous allons voir comment utiliser Rsync pour restaurer des fichiers sauvegardés d'un NAS Synology vers un PC Linux.
Maintenant... techniquement, vous pouvez remplacer la source dans ce tutoriel (Synology NAS) et le remplacer par n'importe quel endroit que vous
voulez, mais en suivant la tendance de nos deux derniers tutoriels, nous allons restaurer les fichiers à partir d'un NAS de Synology.
Avant de commencer, je veux souligner exactement ce qu'est Rsync. Rsync est un utilitaire qui transfère des fichiers d'un emplacement de fichier à un
autre. Les sauvegardes initiales sont longues à mesure que chaque fichier individuel est sauvegardé, mais les futures sauvegardes sont incrémentielles
et nettement plus rapides. S'il y a une chose que vous devez savoir, c'est que Rsync n'est PAS quelque chose que vous devriez ou que vous pouvez
utiliser pour des restaurations de métaux nus. Rsync est un excellent utilitaire pour sauvegarder votre dossier d'origine et vos fichiers personnels,
mais ce sera une mauvaise option pour certains scénarios. Cela ne signifie pas qu'il est impossible de sauvegarder d'autres dossiers/fichiers (car vous
pouvez sauvegarder l'ensemble du répertoire racine et le faire dans de nombreux cas). Cela signifie simplement que restaurer l'ensemble du répertoire
racine n'est pas une option car vous risquez des problèmes majeurs de l'autorisation de fichier/dossier. Cependant, la restauration de fichiers/dossiers
individuels est un cas d'utilisation valide.
Si vous avez raté les deux premières parties de ce tutoriel, veuillez les vérifier ci-dessous.
PARTIE 1: Comment sauvegarder un PC Linux sur un NAS de Synology en utilisant Rsync
PARTIE 2: Utiliser des clés SSH pour sauvegarder automatiquement un PC Linux à un NAS de synologie
Table des matières montrer
Utiliser Rsync pour restaurer les fichiers Sauvetage à partir d’un NAS de Synology –
Instructions
1. Nous n'allons pas passer par le processus d'utilisation de Rsync pour sauvegarder notre PC Linux (lien ci-dessus), mais pour votre référence, c'est la
commande que j'ai utilisée pour soutenir mon dossier d'accueil.
rsync -ax - [USERNAME-[IP ADDRESS:/[VOLUME----------------------------------------------------------------------

NOTE : Il est important de connaître le format de la commande ci-dessus, donc nous allons le décomposer :
• Rsync -ax: Il s'agit des paramètres de l'utilitaire Rsync et de la ligne de commande.
• ~:: Voici le répertoire SOURCE. Cela signifie que le répertoire vous allez faire marche arrière. Si vous voulez voir ce qui existe ici, vous
pouvez « y » s'yrer (cd), puis « ls » pour voir les dossiers/fichiers.
• [USERNAME:[IP ADDRESS:/ [VOLUME/Backups/[PC NAME: C'est l'emplacement du dossier de la NAS de Synology que nous
soutenons nos fichiers jusqu'à.
2. Après la fin de la commande Rsync et que tous les fichiers ont été sauvegardés, visualisez l'emplacement du dossier sur votre NAS Synology (ou
partout où vous le stockez). Vous remarquerez que Rsync a ajouté le dossier d'accueil de mon compte utilisateur (c'est-à-dire où tous mes fichiers sont
stockés). Ceci est important à noter lorsque nous créons notre commande Rsync «restaurer».
3. À ce stade, vous devez déterminer ce que vous souhaitez restaurer. Si vous avez perdu un dossier, vous ne restaurerez probablement pas tout un
dossier, mais dans ce tutoriel, je vais restaurer l'ensemble du dossier. Exécutez la commande ci-dessous pour restaurer l'ensemble du dossier d'origine.
rsync -avnx [USERNAME-[IP ADRESSE-
[AVLUME-/------------------------------------------------------------------------------------------
NOTA : Le dernier « / » est très important Sans cela, vous restaurerez un dossier à votre répertoire d'origine qui est votre nom d'utilisateur avec tous
vos fichiers à l'intérieur. L'ajout du «/» à la fin écrasera les fichiers/dossiers d'information existants.
4. Si le test apparaît correct et que les fichiers/dossiers seront rétablis correctement, supprimer le paramètre « n », et exécuter la commande.
rsync -avx [USERNAME-[IP ADRESSE-?:/ [VOLUME/Sopas/[NOM
DUPC/[USERNAME/---------------------------------------------------

5. Vos fichiers dans votre répertoire personnel devraient maintenant être restaurés.
Conclusion
Rsync est un excellent outil qui vous donne une tonne de flexibilité. J'utilise Rsync pour sauvegarder tout mon répertoire racine qui m'assure que j'ai
tout sauvegardé correctement. Ensuite, je vais exécuter plusieurs commandes Rsync pour déplacer des fichiers/dossiers de mon NAS Synology à mon
système d'exploitation Linux nouvellement installé. Malheureusement, l'exécution d'une commande de base pour écraser l'ensemble du répertoire
racine sur une nouvelle installation ne fonctionne pas car toute votre hiérarchie de permission sera détruite, mais avoir les données est la partie
importante.
Dans mon prochain tutoriel, je vais passer en revue comment installer Veeam pour Linux, le configurer, et faire une restauration en métal nu. C'est une
meilleure option pour les personnes qui veulent ou ont besoin de faire des restaurations de métaux nus.

https://www.wundertech.net/use-rsync-to-restore-backed-up-files-from-a-synology-nas-to-a-linux-pc/

Utiliser des clés SSH pour sauvegarder automatiquement un PC Linux


sur un NAS de Synology
• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 2 novembre 2022
• Catégorie de poste: Linux / Synologie / Pentologie
• Temps de lecture: 6 min lire
Aujourd'hui, nous allons voir comment vous pouvez utiliser les clés SSH et Cron pour sauvegarder automatiquement un PC Linux sur un NAS
Synology.

Le processus vous permettra de vous authentifier automatiquement d'un PC Linux vers un NAS de Synology et de programmer la tâche pour
fonctionner à la fréquence de votre choix.
Si vous n'êtes pas sûr de savoir comment sauvegarder un PC Linux sur un NAS Synology en utilisant Rsync, consultez notre tutoriel.
Table des matières montrer

Utiliser des clés SSH pour sauvegarder automatiquement un PC Linux à un NAS de Synology -
Instructions
1. Tout d'abord, nous devons mettre en place notre NAS de Synology afin qu'il puisse utiliser des clés SSH. Assurez-vous que SSH est activé.
2. Sur votre PC Linux, ouvrez le terminal et créez une clé SSH en entrant la commande ci-dessous. Utilisez les paramètres par défaut en appuyant sur «
Enter » jusqu'à ce que la clé soit créée.
ssh-keygen -t rsa

3. Copiez la clé publique de notre NAS.


ssh-copy-id (USERNAME) [ADDRESSAGE DE LA ESPTRAIT
4. Une fois la clé copiée, SSH dans votre NAS Synology utilisant le terminal de votre PC Linux et entrez votre mot de passe SSH. Pour SSH dans votre
NAS Synology, l'utilisateur doit faire partie du groupe Administrateurs. Si vous n'avez pas activé SSH, cliquez ici pour voir notre tutoriel sur la façon
de le configurer.
ssh (USERNAME) [ADDRESSEUR DE L'IP
5. Nous devons maintenant apporter trois modifications à notre NAS afin que notre utilisateur puisse accéder à la clé SSH que nous avons créée. Si
vous souhaitez voir quels changements d'autorisation nous faisons, vous pouvez les trouver ici: 711711, 600
Chmod 600 dollars/ssh/auto-clés
chmod 711
Chmod 711

6. Après les modifications de l'autorisation, « sortir » la session SSH et essayer de s'authentifier à nouveau. Vous ne devriez pas avoir besoin d'un mot
de passe.
Sortie
ssh (USERNAME) [ADDRESSEUR DE L'IP
Automatisez la commande de secours Rsync avec Cron
7. La dernière étape consiste à créer un travail cron de sorte que la commande Rsync s'exécute automatiquement. Nous avons créé notre commande
Rsync dans notre dernier tutoriel et nous ajouterons la même commande pour automatiser le processus. Éditez le fichier cron.
crontab -e

8. Cron est TRES puissant. Il existe de nombreuses façons différentes de mettre en place cette commande, mais je l'ai simplifiée du mieux que je peux.
Dans mon exemple, je remplis mon dossier à mon dossier Synology NAS à 2 heures du matin tous les soirs. Si vous êtes intéressé par la
personnalisation de cette commande pour qu'elle s'exécute à différents intervalles, vous pouvez voir un tas d'exemples ici.
0 2 :/ [VOLUME/Sauvegarde/[NOM DU CUISSON/[PCNOM/[PCNOM
9. Le processus va maintenant se dérouler automatiquement à 2 heures du matin tous les soirs.
Conclusion
L'utilisation de touches SSH et Cron pour sauvegarder automatiquement un PC Linux sur un NAS Synology est le meilleur moyen et le plus facile de
s'assurer que vos fichiers sont sauvegardés fréquemment. Les commandes Rsync sont très faciles à écrire et à exécuter, mais leur automatisation va un
pas de plus et place la simplicité au premier plan. Merci pour la lecture. Laissez n'importe quelle question que vous pourriez avoir dans les
commentaires

https://www.wundertech.net/use-ssh-keys-to-automatically-backup-a-linux-pc-to-a-synology-nas/

Comment utiliser Rsync sur un NAS de synologie


• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 10 novembre 2022
• Catégorie de poste: Linux / Synologie / Pentologie
• Temps de lecture: 7 min lire
Dans ce tutoriel, nous allons voir comment utiliser Rsync sur un NAS de Synology.
Rsync est un outil qui peut être utilisé pour synchroniser des fichiers d'un emplacement à un autre. Ce tutoriel examinera comment utiliser Rsync sur
un NAS de Synology d'un point de vue général, en utilisant un appareil Linux pour montrer le processus. Après la fin du travail initial de Rsync, les
futurs sauvegardes sont progressives (par opposition à pleines). Pour cette raison, la sauvegarde initiale prendra beaucoup plus de temps que les
sauvegardes suivantes.
Le processus ci-dessous examinera comment utiliser Rsync sur un NAS Synology avec Linux comme exemple, mais sachez qu'il y a beaucoup
d'appareils sur lesquels vous pouvez utiliser Rsync.
Table des matières montrer

Comment utiliser Rsync sur un NAS de synologie


1. Connectez-vous au DSM, ouvrez le panneau de contrôle, sélectionnez les services de fichiers et assurez-vous que le service d'activation rsync
est sélectionné.
2. Créez un dossier partagé de sauvegardes (vous pouvez utiliser le nom que vous voulez, ou pouvez en utiliser un qui existe déjà) et notez le numéro
de volume (vous en aurez besoin plus tard).
3. Assurez-vous que le compte utilisateur avec lequel vous aurez authentifié a un accès en lecture/écriture au dossier partagé.
4. Créez un sous-dossier dans le dossier partagé avec le nom du PC que vous allez sauvegarder (si vous ne voulez pas remonter directement sur le
dossier racine).
5. Si votre pare-feu est activé, créez une règle de pare-feu qui ouvre le port 22 pour SSH.
NOTE : vous pouvez le sécuriser un pas de plus si vous le souhaitez en ouvrant uniquement le port 22 sur le trafic interne vers des adresses IP internes
(utilisez votre plage d'adresses IP interne). Cette règle doit être au-dessus de toute règle «deny» qui existe.

6. Connectez-vous à votre PC Linux (ou n'importe quel appareil que vous utiliserez) et ouvrez Terminal. À ce stade, nous allons commencer à
construire notre commandement Rsync. De nombreux paramètres peuvent être ajoutés à une commande Rsync, mais dans ce tutoriel, nous allons
sauvegarder l'ensemble de notre disque dur Linux sur notre sous-dossier de sauvegarde sur notre logiciel Synology NAS. La commande Rsync sera
construite comme suit:
sudo rsync -avnx / [USERNAME-[NAS IP ADRESSE-NOS---------------------------------------------------------------------

NOTE: le paramètre de ligne de commande «n» ci-dessus exécutera un roulage à sec lorsque celui-ci est exécuté. Cela NE recevra PAS de fichiers. Il
informera simplement l'utilisateur quels fichiers seront copiés lors de l'exécution de la commande (avec le paramètre « n » supprimé). Il est également
important de noter que la première «/» dans la commande Rsync est la donnée source que nous allons copier au NAS.
7. Si c'est la première fois que vous exécutez la commande, il vous sera demandé d'accepter l'empreinte digitale de la clé ECDSA. Tapez oui et
sélectionnez la clé d'entrée.

8. Saisissez le mot de passe de votre compte utilisateur Synology NAS qui a l'autorisation du dossier partagé.
NOTE : vous pourriez avoir besoin d'entrer d'abord le mot de passe de votre utilisateur Linux.
9. Lorsque la course à sec est terminée (en supposant que les résultats sont ce que vous attendiez), supprimer le paramètre « n », et lancer la
commande. Lorsque vous y êtes invité, entrez à nouveau le mot de passe NAS.
sudo rsync -avx / [USERNAME-[NAS IP ADRESSE-NON-EN-EN-EN-DAM-EN-DAM-NAS-VUS-DAM-EN-DAM-NOM/NOTS/NOM DE LA VOLUME NOS/NOM
DE LA VOLUME/NOM DE L'ANRSE/NOM DE LA VO
10. Lorsque le processus sera terminé, vous verrez que vos fichiers sont maintenant sur votre NAS Synology dans le dossier que nous avons créé.
Conclusion – Comment utiliser Rsync sur un NAS de synthèse
Ce tutoriel a examiné comment utiliser Rsync sur un NAS de Synology. La première fois qu'il sera exécuté, tous les fichiers devront être sauvegardés,
ce qui prendra un peu plus de temps que les sauvegardes ultérieures. Rsync effectue des sauvegardes incrémentielles, ce qui signifie qu'il va voir les
fichiers qui sont modifiés et les sauvegarder jusqu'au NAS de Synology.
Ce processus n'est PAS automatisé. Vous ne pouvez sauvegarder vos machines que lorsque vous exécutez la commande. Si vous souhaitez automatiser
ce processus en utilisant des touches SSH et Cron, veuillez consulter notre tutoriel.
C'est toujours une bonne idée de soutenir votre NAS Synology hors site. Si vous êtes intéressé à faire cela, consultez nos tutoriels sur la façon de
soutenir votre NAS Synology sur un Raspberry Pi ou Backblaze B2 Merci d'avoir vérifié le tutoriel sur la façon d'utiliser Rsync sur un NAS de
Synology Si vous avez des questions sur la façon d'utiliser Rsync sur un NAS de Synology, laissez-les dans les commentaires.

Yacht vs. Portainer: Comparaison de l'interface Docker


• Auteur du poste: Frank Joseph
• Dernière modification du poste: 18 septembre 2023
• Catégorie de poste : Docker
• Temps de lecture: 11 min lire
Dans cet article, nous allons regarder Yacht vs. Portainer pour déterminer quelle interface de gestion Docker est la meilleure.
Si vous utilisez Docker à n'importe quelle capacité, vous savez que l'interaction avec lui via l'interface de ligne de commande (CLI) peut être frustrante.
Yacht et Portainer offrent une interface graphique complète pour Docker, qui vous permet de gérer tous vos conteneurs Docker dans une interface
utilisateur facile à utiliser.
Le yacht et Portainer sont similaires, mais ont des différences clés du point de vue de l'utilisation quotidienne, nous allons donc comparer certaines de
leurs fonctionnalités et capacités ci-dessous pour vous aider à déterminer quelle option est la meilleure.
Table des matières montrer

Avez-vous besoin d'une interface de gestion pour Docker ?


Techniquement, vous pouvez utiliser Docker via l'interface de ligne de commande uniquement, et l'utilisation d'une interface de gestion comme Yacht
ou Portainer n'est pas nécessaire. Cependant, ils simplifient le fonctionnement global des deux et vous permettent de gérer facilement vos conteneurs
Docker avec une grande interface graphique.
Cela vous permet de gérer les conteneurs existants, ou simplement d'en créer de nouveaux d'une manière plus facile et les débutants peuvent trouver
l'interface utilisateur nécessaire à l'utilisation quotidienne. Il aide également à visualiser le fonctionnement des conteneurs, ce qui peut vous permettre
de mieux comprendre comment fonctionne Docker.

Qu'est-ce que Yacht?


Le yacht est une application qui fournit une interface web pour la gestion des conteneurs Docker en mettant l'accent sur la simplicité et la facilité
d'utilisation. Il s'agit d'un projet open source qui peut aider les utilisateurs, en particulier ceux nouveaux de Docker, à gérer plus facilement leurs
applications conteneurisées.
Le yacht permet aux utilisateurs de créer, de démarrer, d'arrêter et de surveiller les conteneurs Docker à partir d'une interface utilisateur basée sur le
web. Vous pouvez gérer plusieurs conteneurs simultanément, visualiser des journaux en temps réel, inspecter les détails du conteneur et accéder à
d'autres fonctionnalités Docker sans avoir à écrire une seule ligne de code ou des instructions de ligne de commande.
Caractéristiques du yacht
Le yacht a de nombreuses fonctionnalités similaires à Portainer, mais la principale différence est que l'ensemble de l'interface utilisateur est conçu avec
la simplicité à l'esprit. Voici quelques caractéristiques clés de Yacht :
• Déploiement de l'application: Vous pouvez déployer des applications à l'aide de Docker Compose ou de modèles préfabriqués.
• Gestion des conteneurs: Démarrer, arrêter et surveiller les conteneurs Docker directement à partir de l'interface Web.
• Logs et statistiques : Accès en temps réel aux journaux et aux statistiques de vos conteneurs.
• Easy Yacht Update: Yacht a l'un des moyens les plus faciles que j'ai vu pour mettre à jour une interface utilisateur de gestion Docker (et est
beaucoup plus facile que Portainer). Tout ce que vous avez à faire est d'accéder aux paramètres et à l'onglet de mise à jour, et vous pouvez
mettre à jour Yacht à la dernière version en utilisant une instance de Watchtower en run-once.
Modèles en yacht

Qu'est-ce que Portainer?


Portainer est une plateforme open source qui fournit une interface conviviale pour gérer les environnements Docker, Docker Swarm, Kubernetes et
Azure ACI. Il permet aux utilisateurs de gérer leurs applications conteneurisées, leurs images, leurs réseaux et leurs volumes à partir d'un tableau de
bord unique et unifié.
Avec Portainer, vous pouvez déployer des applications, surveiller l'état des conteneurs en cours d'exécution et résoudre les problèmes d'application sans
utiliser l'interface de ligne de commande. Cela est particulièrement utile pour les équipes qui sont nouvelles pour Docker ou Kubernetes, ainsi que pour
les développeurs expérimentés à la recherche d'un moyen plus efficace de gérer leurs applications.
Il existe différents appareils sur lesquels les utilisateurs aiment installer Portainer, car c'est l'une de l'interface de gestion Docker, sinon la plus
couramment utilisée.

Caractéristiques de Portainer
Portainer a toutes les fonctionnalités de Yacht, plus de nombreux éléments supplémentaires:
• Gestion des conteneurs: créer, démarrer, arrêter et surveiller les conteneurs Docker directement à partir de l'interface web. Vous pouvez
également accéder aux journaux, aux statistiques et aux détails de la console de chaque conteneur.
• Modèles d'applications: Déployer des modèles pré-construits pour des applications communes en quelques clics, en économisant du temps
pour la mise en place et le déploiement de nouveaux conteneurs.
• Contrôle d'accès basé sur les rôles (RBAC): Attribuer des rôles aux utilisateurs et gérer leur accès aux ressources.
• Gestion multi-environnement: vous pouvez gérer plusieurs environnements Docker (Docker standalone, Docker Swarm ou Kubernetes) à
partir d'une seule instance Portainer.
• Gestion du registre: Connectez-vous aux registres Docker et les gérer, ce qui facilite le stockage et la distribution de vos images Docker.

Modèles à Portainer

Yacht et Portainer Install Instructions


Le yacht et le Portainer sont installés comme conteneurs, de sorte que leur processus de configuration individuelle est similaire à tout autre conteneur
Docker. Cependant, comme il s'agit d'une interface graphique, vous devez généralement les installer tous les deux à partir de l'interface de la ligne de
commande.
Heureusement, le processus d'installation est une commande individuelle et vous n'avez pas à vous soucier de modifier de nombreux paramètres (le cas
échéant). Le volume de chacun vous permettra de conserver des données persistantes (au cas où vous souhaitez les déplacer).
Commande d'installation de yachts:
docker volume create yacht

docker run -d -p 8000:8000 -v /var/run/docker.sock:/var/run/docker.sock -v yacht:/config --name yacht selfhostedpro/yacht

Commande d'installation de Portainer:


docker volume create portainer_data

docker run -d -p 8000:8000 -p 9443:9443 --name portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v


portainer_data:/data portainer/portainer-ce:latest

Il y a aussi des scénarios où vous pouvez installer Yacht et Portainer automatiquement, comme si vous utilisez OMV-extras et OpenMediaVault.

Principale différence entre le yacht et le Portainer


La principale différence entre Yacht et Portainer est que le yacht est beaucoup plus convivial, tandis que Portainer est plus rempli de fonctionnalités.
Dans l'ensemble, Portainer et Yacht sont conçus pour simplifier la gestion de Docker grâce à leurs interfaces web conviviales et Yacht excelle
généralement du point de vue de la simplicité. Portainer, d'autre part, est beaucoup plus rempli de fonctionnalités et offre aux utilisateurs la possibilité
de gérer d'autres environnements comme Docker Swarm et Kubernetes.
Voici quelques autres différences clés entre Yacht et Portainer :
• Projet Maturité: Portainer est un projet plus mature, qui existe depuis 2015. Il a été largement adopté et développé une importante
communauté d'utilisateurs. D'autre part, Yacht est un projet plus récent et a une base d'utilisateurs plus petite.
• Environnements soutenus: Portainer bénéficie d'un soutien environnemental plus large, étendant sa fonctionnalité au-delà de Docker et
Docker Swarm pour inclure Kubernetes et Azure ACI. Le yacht se concentre principalement sur les environnements Docker.
• Interface utilisateur: Les interfaces utilisateur de Portainer et Yacht diffèrent considérablement. Le yacht maintient une interface minimaliste
et simple, se concentrant sur la simplicité et la facilité d'utilisation. À autre, Portainer dispose d'une interface plus complète, offrant un plus
grand éventail d'options et de fonctionnalités pour ceux qui ont besoin de plus de contrôle et de personnalisation.
• Contrôle d'accès basé sur le rôle (RBAC) : Portainer prend en charge RBAC, qui est une caractéristique importante pour les équipes car il
permet aux administrateurs de définir les niveaux d'accès et les autorisations pour les différents utilisateurs.
• Modèles d'application: Les deux plateformes prennent en charge le déploiement de l'application à l'aide de modèles, mais ils le gèrent
différemment.

Conclusion: Yacht vs. Portainer


Ce tutoriel a examiné les différences entre Yacht vs. Portainer. Si vous êtes quelqu'un qui préfère la simplicité, vous ne pouvez pas vous tromper avec
Yacht car cela vous permettra de gérer vos conteneurs Docker et ne fournit aucune des fonctionnalités avancées (que certains classeront comme bloat)
que Portainer fait.
Cependant, du point de vue de la fonctionnalité pure, Portainer est nettement plus rempli de fonctionnalités et fournira aux utilisateurs et aux équipes
de gérer beaucoup plus en ce qui concerne leurs conteneurs.
Pour souligner que Portainer dispose d'un niveau gratuit (Community Edition) et d'entreprise (Business Edition), qui offre un ensemble différent de
caractéristiques en fonction des exigences. Les particuliers et les amateurs de laboratoire seront satisfaits de l'édition communautaire, bien que l'édition
Businessexiste pour une utilisation en entreprise.
Dans les deux cas, vous ne pouvez pas vous tromper, et dans de nombreux cas, vous devriez essayer les deux (ils sont tous les deux gratuits) pour
déterminer lequel vous préférez le mieux. Merci d'avoir vérifié l'article sur Yacht vs. Portainer. Si vous avez des questions sur Yacht vs. Portainer, s'il
vous plaît, laissez-les dans les commentaires.
Meilleures alternatives Docker
• Auteur du poste: Frank Joseph
• Date de la dernière modification : 1er juin 2023
• Catégorie de poste : Docker
• Temps de lecture: 9 min lire
Table des matières montrer

5 meilleures alternatives Docker à laquelle vous devez envisager


Dans cet article, nous examinerons les 5 meilleures alternatives Docker que vous pourrez utiliser. Alors que Docker est une grande plate-forme avec
des tonnes de soutien sous la forme de différents conteneurs et d'un soutien global de la communauté, il existe d'autres options qui devraient être
essayées lorsqu'on examine différentes options de conteneurisation.

Qu'est-ce que Docker?


Docker est une plateforme qui aide à créer, déployer et exécuter des applications d'une manière conteneurisée. En raison de la configuration des
conteneurs Docker, ils sont déployés avec tout ce dont ils ont besoin pour fonctionner, ce qui signifie que vous pouvez les déplacer vers un appareil
séparé (même avec un système d'exploitation différent) et qu'ils continueront à fonctionner comme prévu.
C'est un énorme avantage de Docker, car vous n'êtes pas limité à un ensemble individuel de matériel comme vous le faites avec d'autres solutions. Non
seulement cela, mais il y a une tonne d'images différentes que vous pouvez exécuter, avec beaucoup de soutien en ligne sous la forme de questions,
d'articles, de tutoriels, en raison de la popularité de Docker.
La capture d'écran ci-dessous est Portainer – mon outil préféré pour gérer les conteneurs Docker.
Pourquoi considérer une alternative Docker ?
Alors que Docker est sans doute la plateforme la plus populaire en matière de configuration et de gestion de conteneurs, il existe d'autres solutions qui
peuvent fonctionner le mieux en fonction des exigences que vous avez.
Par exemple, la dépendance de Docker à un démon central pour la gestion des conteneurs peut parfois être un goulet d'étranglement, en particulier dans
un environnement multilocataires. En outre, la sécurité de Docker a souvent été un sujet de préoccupation, en particulier lorsque les conteneurs doivent
fonctionner avec des privilèges racines.
Rien de tout cela ne veut dire que Docker est mauvais, parce que c'est l'une de mes plateformes préférées, mais il y a d'autres alternatives que les
utilisateurs peuvent envisager s'ils aimeraient essayer quelque chose de nouveau.
Meilleures alternatives Docker
Maintenant que nous avons regardé exactement ce qu'est Docker et pourquoi vous voudrez peut-être utiliser une autre solution, regardons les
meilleures alternatives Docker que vous pouvez utiliser.

Podman: True Docker Alternative


La première alternative Docker est Podman, une solution qui peut être installée sur différentes plateformes, y compris Linux, Windows et macOS.
Souvent considéré comme une alternative directe à Docker, Podman fournit des caractéristiques similaires à celles de Docker, tout en s'attaquant à
certaines de ses lacunes.
La différence la plus bénéfique entre Docker et Podman est que Podman utilise des conteneurs indépendamment d'un daémon central, ce qui signifie
que Podman est plus sûr. En termes de profane, Podman est conçu pour faire fonctionner des conteneurs en tant qu'utilisateurs individuels par
opposition à un daemon (ou racine), augmentant la sécurité globale de la plate-forme.
Une chose intéressante à propos de Podman est que s'il peut être installé sur Windows ou macOS, il fonctionne encore techniquement sur Linux, ce qui
donne une approche universelle de son exécution de conteneurs.
Podman utilise également un sous-ensemble des options de ligne de commande de Docker, ce qui rend une transition facile pour les utilisateurs
confortables avec Docker.

Conteneur: solution de remplacement Docker de faible activité


La prochaine alternative Docker que nous allons examiner est Containerd. Containerd est un conteneur à fonctionnement. Il est responsable de
l'exécution de conteneurs et de la gestion des images de conteneurs sur un nœud.
Containerd est conçu pour fournir un temps d'exécution pour Docker et Kubernetes, en manipulant l'exécution et la supervision des conteneurs
centraux, et en fournissant des fonctionnalités avancées telles que le stockage et la gestion des interfaces réseau.
Containerd a évolué pour devenir un grand projet sous la Fondation de calcul des natifs du nuage. Il offre un moyen simple de gérer les conteneurs et
les images sans traiter de composants Docker de plus haut niveau.
Comme vous pouvez le voir dans la capture d'écran ci-dessous, Containerd fonctionne avec différents types d'outils et de services.
RunC : Docker Alternative
RunC est un conteneur léger et portable qui sert de moteur sous-jacent pour la création et l'exécution de différents types de conteneurs.
RunC met en œuvre la fonctionnalité des conteneurs conformément aux spécifications de l'initiative Open Container (OCI), un ensemble de normes
industrielles visant à assurer la cohérence et l'interopérabilité entre les différentes technologies de conteneurs.
En fin de compte, RunC est une option légère pour l'utilisation de différents types de conteneurs, mais est basée sur la ligne de commande et manque
de certaines des options de plate-forme de haut niveau que Docker fournit aux utilisateurs.

LXC: Conteneurs Linux


Les conteneurs LXC (conteneurs Linux) sont l'option la plus intéressante sur cette liste. Un conteneur LXC est une méthode de virtualisation au niveau
du système d'exploitation pour exécuter plusieurs systèmes Linux (conteneurs) isolés sur un seul hôte de contrôle.
Les conteneurs LXC peuvent être considérés comme des machines virtuelles légères, fournissant la plupart de l'isolement des machines virtuelles, mais
avec moins de frais généraux car il n'a pas besoin d'imiter le matériel et de partager généralement les ressources d'accueil.
Les conteneurs LXC peuvent être utilisés pour diverses choses (comme Pi-hole, ou même pour faire fonctionner Docker) et offrent aux utilisateurs une
tonne de flexibilité. Ma plateforme préférée pour faire fonctionner des conteneurs LXC est Proxmox.

Kubernetes
Pour être clair, Kubernetes n'est pas une alternative directe à Docker, mais c'est une plate-forme d'orchestration de conteneurs qui vous permet de gérer
différents runtimes (un être Docker).
Kubernetes offre des possibilités de gestion et de mise à l'échelle des grappes, ce qui en fait une excellente alternative au déploiement de conteneurs à
grande échelle. Cela signifie que vous pouvez déployer et gérer des conteneurs à travers un groupe de machines, ce qui apporte de grands avantages
tels que la haute disponibilité et la tolérance aux pannes.

Autres solutions de rechange pour ordinateurs de bureau Docker


Docker Desktop offre aux utilisateurs un excellent outil pour gérer les conteneurs, les images, les volumes, et plus encore sur Windows, macOS ou
Linux.
Si vous utilisez Docker Desktop et que vous êtes intéressé par des alternatives, consultez Podman ci-dessus. C'est une excellente alternative qui
fournira une expérience utilisateur similaire et, comme mentionné ci-dessus, partage certaines fonctionnalités avec Dockers CLI.

Meilleures alternatives de Docker: lesquelles sont les meilleures?


Il est extrêmement difficile de donner une alternative qui soit la meilleure. Principalement parce que les exigences qui existent détermineront en fin de
compte quelle option doit être utilisée.
Cependant, à mon avis, Podman est la meilleure alternative de Docker. Podman sera familier aux utilisateurs à l'aise avec Dockers CLI, offre une
sécurité renforcée et dispose d'une excellente option GUI qui est facile à utiliser.
Conclusion: Docker est toujours une excellente option
Alors que nous nous sommes penchés sur les meilleures alternatives à Docker, Docker reste roi dans l'esprit de beaucoup de gens et a encore une place
importante dans le monde des conteneurs. J'hésiterais à remplacer complètement Docker si vous le considérez. Simplement en regardant les options de
registre Docker à elles seules vous donnera un tas d'idées différentes de différents types de conteneurs que vous pouvez exécuter.
En regardant l'ensemble de l'écosystème Docker, c'est un excellent outil avec des tonnes de soutien et une grande communauté. Bien que les outils ci-
dessus soient excellents, vous aurez du mal à remplacer complètement Docker par n'importe lequel d'entre eux.
Merci d'avoir vérifié l'article sur les meilleures alternatives Docker. Si vous avez des questions sur les alternatives Docker, laissez-les dans les
commentaires.

Comment mettre en place la synchronisation sur un NAS de synologie


• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 3 novembre 2022
• Catégorie de poste: Synologie
• Temps de lecture: 13 mnns lire
Dans ce tutoriel, nous allons examiner comment mettre en place Syncthing sur un NAS de Synologie.
Syncthing est une application qui synchronise en permanence les fichiers de deux dispositifs différents. Cela signifie que lorsqu'un fichier change de
fichier sur votre NAS Synology, il se synchronisera automatiquement avec le dispositif secondaire qui a été défini. Ceci est extrêmement puissant car
cela vous permet de synchroniser des fichiers de votre NAS Synology à un emplacement différent, ou même d'utiliser votre NAS Synology comme
destination pour les tâches de synchronisation.
Gardez à l'esprit que Syncthing est un outil de synchronisation, ce qui signifie que les fichiers sont synchronisés entre deux emplacements. C'est une
chose importante à retenir car vous pouvez supprimer indirectement un fichier et il sera synchronisé à l'autre emplacement. Pour cette raison, vous
devriez toujours prendre en sauvegarde vos fichiers importants.
Table des matières montrer

Comment mettre en place la synchronisation sur un NAS de synologie


Avant de regarder comment mettre en place Syncthing sur un NAS de Synology, nous devons obtenir notre UID et GID pour le conteneur Docker.
1. Assurez-vous que vous pouvez entrer dans votre NAS Synology. Vous pouvez apprendre à SSH dans votre NAS de Synology ici.
2. Lorsque nous créons notre conteneur de synchronisation, nous devons spécifier le PUID et le GUID pour que le conteneur (Syncthing) puisse
accéder aux données sur notre NAS Synology. Vous devrez exécuter la commande ci-dessous et remplacer le nom d'utilisateur correct.
NOTE : Vous devez vous assurer que l'utilisateur/groupe a une autorisation de lecture/écriture au(x) dossier(s) de votre NAS Synology que vous
souhaitez utiliser avec Syncthing. Nous examinerons cette question en détail dans un délai.
id (USERNAME)

3. Ouvrez Docker, sélectionnez Registre, puis recherchez Syncthing et téléchargez la dernière image de serveur/synchronisation.
4. Une fois l'image terminée, double-cliquez dessus pour créer un nouveau conteneur.

4. Changez le réseau pour utiliser le même réseau que Docker hôte, puis sélectionnez suivante.
5. Changez le nom du conteneur en synchronisation, activez le redémarrage automatique, puis sélectionnez Paramètres avancés.
6. Créer deux variables d'environnement appelées PUID et GUID qui devraient être remplies avec les valeurs trouvées à l'étape deux ci-dessus.
Comme mentionné précédemment, cet utilisateur et ce groupe doivent avoir accès aux dossiers partagés que vous souhaitez que Syncthing puisse
accéder. Lorsque vous avez fini de les ajouter, sélectionnez Enregistrer, puis sélectionnez Suivant.
7. À l'écran suivant, sélectionnez Ajouter un dossier, puis sélectionnez le bouton Créer un dossier sous Docker et créez un dossier intitulé
Syncthing. Définissez le chemin de montage comme /config pour ce dossier (capture d'écran à l'étape suivante).
8. Ajoutez chaque dossier partagé folderauquel vous souhaitez accéder via Syncthing. Le nom de Mount Path peut être le nom du dossier.
Sélectionnez Next.
9. Si tout a l'air bien, sélectionnez Done pour créer le récipient.
10. Après le démarrage du conteneur, vous pouvez y accéder en utilisant l'URL ci-dessous (en substituant votre adresse IP Synology NAS).
NOTE: Si vous utilisez le pare-feu de Synology, créez une règle d'autorisation pour les ports TCP 8384 et 22000, ainsi que les ports UDP 22000 et
21027.
https://[SYNOLGY-NAS-IP-:8384
Synologie Émissions de dossiers partagés
La synchronisation est extrêmement finalement en matière d'autorisations. Pour éviter tout cela, vous pouvez faire fonctionner le récipient comme
racine, ce qui n'est généralement pas recommandé. Il y a quelques choses dont vous devez être conscient avant de passer à la configuration de
Syncthing.
1. Le PUID et le GUID de l'utilisateur défini ci-dessus doivent avoir l'autorisation de chaque dossier partagé que vous avez monté. Cela signifie que si
vous avez utilisé votre compte utilisateur personnel et le groupe « utilisateurs » (PGID 100), le groupe « utilisateurs » doit également avoir une
autorisation de lecture/écriture au dossier.

2. Si la corbeille est activée sur le dossier partagé, elle aura un dossier « recycle » à l'intérieur de celui-ci. Par défaut, seuls les administrateurs ont
l'autorisation de ce dossier, mais Syncthing jettera une erreur si le compte utilisateur n'a pas l'autorisation.
Pour contourner cela, éditez le dossier partagé dans le panneau de contrôle, puis décochez l'option de restriction d'accès aux administrateurs et
sauvegarder.
Cela permettra aux utilisateurs de voir ce qu'il y a à l'intérieur du dossier partagé, donc si vous ne voulez pas que tous les utilisateurs aient
l'autorisation à la corbeille, sautez jusqu'à la section suivante et ne le faites pas.

L'utilisateur que vous avez défini ci-dessus doit avoir l'autorisation du #recycledossier «recycler», mais cela ne signifie pas que tous les utilisateurs
doivent le faire. L'option ci-dessus donne à tous les utilisateurs l'autorisation du groupe « utilisateurs » à la corbeille.
Si vous préférez donner l'autorisation à un utilisateur individuel, ouvrez le Dossier partagé dans la station de fichier et faites un clic droit sur le
#recycle dossier «recycler», puis sélectionnez Propriétés.
Sélectionnez Autorisation, puis créez. À partir de là, vous pouvez sélectionner l'utilisateur, puis donner la lecture et l'écriture de l'autorisation au
dossier #recycle'recycler'. L'erreur aura disparu dans Syncthing.
Configuration de synchronisation – Comment mettre en place la synchronisation sur un NAS de synologie
1. Lorsque vous naviguez pour la première fois sur le site web, il vous sera demandé de partager un usage anonyme. Vous pouvez choisir oui ou non en
fonction de ce que vous préféreriez.

2. La prochaine chose que nous devrons faire est de définir un nom d'utilisateur et un mot de passe pour la GUI Syncthing. Sélectionnez Paramètres
dans la section Danger.
3. Sélectionnez GUI, puis définissez un utilisateur d'authentification GUI et un mot de passe d'authentification GUI, puis enregistrer. Après
avoir sauvegardé, vous serez invité à entrer le nom d'utilisateur et le mot de passe.
4. Vous pouvez maintenant sélectionner Ajouter un dossier en synchronisme, entrez une étiquette de dossier et un chemin de dossier (le chemin sera
ce que nous avons spécifié ci-dessus dans la trajectoire du mont), puis Enregistrer.
5. Si les permissions sont correctement définies, le dossier sera étiqueté comme non partagé. Vous pouvez maintenant synchroniser ce dossier avec un
serveur de synchronisation séparé.

Conclusion: Comment mettre en place la synchronisation sur un NAS de Synologie


Ce tutoriel a cherché comment mettre en place Syncthing sur un NAS de Synology. La synchronisation fonctionne très bien sur un NAS de Synology,
mais les permissions configurées dans le conteneur et sur le NAS sont très importantes. Si vous n'avez pas les permissions correctement configurées,
vous allez obtenir un tas d'erreurs dans Syncthing. Il est facile de mettre le récipient à l'utilisateur de la racine et d'éviter tous ces problèmes, mais vous
ne devriez généralement pas exécuter des conteneurs comme racines, à moins que vous ne le deviez absolument.
Merci d'avoir vérifié le tutoriel sur la façon de mettre en place Syncthing on a Synology NAS. Si vous avez des questions sur la façon de mettre en
place Syncthing sur un NAS de Synology, laissez-les dans les commentaires.
Comment mettre à jour Docker Compose on a Synology NAS
• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 2 novembre 2022
• Catégorie de poste: Synologie
• Temps de lecture: 6 min lire
Aujourd'hui, nous allons examiner comment vous pouvez mettre à jour Docker Compose on a Synology NAS.

Tout d'abord, si vous ne savez pas comment utiliser Docker Compose on a Synology NAS, j'ai créé un tutoriel sur la façon dont vous pouvez le faire.
Le tutoriel vous guidera à travers Docker et vous aidera à décider si Docker Compose est le bon choix pour vous. Ce tutoriel se concentrera sur la façon
dont vous pouvez mettre à jour Docker Compose puisque la version Docker Compose livrée avec un NAS Synology est assez ancienne.
Table des matières montrer

Instructions
1. Assurez-vous que Docker est installé. Docker Compose est automatiquement installé sur un NAS Synology, mais l'appareil doit être équipé de
Docker.
2. Assurez-vous que vous pouvez entrer dans votre NAS Synology. Ouvrez le panneau de commande, sélectionnez Terminal et SNMP, et Activez le
service SSH. Si vous utilisez le pare-feu de Synology, assurez-vous d’autoriser le trafic du port 22. J'ai créé une vidéo sur la façon de SSH dans votre
NAS de Synology si vous avez des problèmes.
3. Après que vous SSH dans l'appareil, exécutez la commande ci-dessous pour déterminer la version de Docker Compose que vous utilisez
actuellement.
Docker-compose -version

4. Naviguez jusqu'à l'endroit où existent le répertoire Docker Compose.


cd/var/packages/Docker/target/usr/bin

5. Sauvegarder le répertoire actuel en le renommant. Cela conservera le dossier sur votre NAS Synology, mais ne sera pas écrasé par la mise à jour.
sudo mv docker-compose docker-compose-back-back
6. Maintenant que le répertoire a été renommé, nous pouvons exécuter le script en dessous duquel mettra automatiquement à jour Docker Compose.
Veuillez noter qu'à la fin de la rédaction de ce tutoriel, la version 1.27.4 est la dernière version. Je voudrais héritier du côté de la prudence et ne pas
installer autre chose que la dernière version, mais vous devez mettre à jour la version ci-dessous (écrite en rouge) avec la dernière version. Vous
trouverez la dernière version sur ce lien.
sudo curl -L https://github.com/docker/compose/releases/download/1.27.4/docker-compose--uname-
sauname---------------------------------------------------------------------

NOTE: Si vous mettez à jour vers une version qui ne semble pas fonctionner, supprimer le dossier en exécutant la commande ci-dessous, puis
recommencer la commande ci-dessus avec la version précédente.
sudo rm docker-compose

7. Mettre à jour les autorisations afin que le dossier puisse être exécuté. Cette commande donne l'autorisation d'exécution au dossier en plus des
autorisations qu'il a actuellement.
sudo chmod x docker-compose

8. Docker Compose est maintenant mis à jour Vous pouvez exécuter à nouveau la commande ci-dessous pour confirmer que vous êtes à la version
1.27.4. Si vous êtes intéressé par l'apprentissage de la raison pour laquelle vous voudrez peut-être utiliser Docker Compose par opposition à Docker
GUI de Synology, je l'explique plus en détail dans les instructions vidéo.
Docker-compose -version

Conclusion – Synology NAS Update Docker Compose


Si vous l'avez fait jusqu'ici, vous pouvez apprendre comment créer des conteneurs Docker Compose sur un NAS Synology dans ce tutoriel. J'ai aussi
un guide qui vous montrera comment mettre à jour les conteneurs Docker Compose. Certaines personnes trouvent qu'il est plus facile d'utiliser
l'interface graphique de Synology, mais Docker Compose ouvre de nombreuses possibilités pour une gestion extrêmement facile des conteneurs.
Comme toujours, merci d'avoir lu le tutoriel. Si vous avez des questions, s'il vous plaît, laissez-les dans les commentaires.
NAS vs. Serveur : Quel est le meilleur pour vous ?
• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 26 octobre 2023
• Catégorie de poste : Home Lab
• Post comments: 0 commentaire
• Temps de lecture: 6 min lire
Lorsque vous essayez de déterminer le type de matériel que vous devez acheter, la décision revient souvent à choisir entre un NAS et un serveur. Bien
qu'ils soient différents, ils sont très similaires, nous comparerons donc un NAS vs. Serveur ci-dessous pour essayer de vous aider à décider quelle
option est la meilleure.
Table des matières montrer

Qu'est-ce qu'un NAS?


Un NAS est court pour le stockage en réseau, ce qui signifie que vous pouvez configurer un appareil qui utilise RAID et lui connecter à partir
d'appareils extérieurs pour tous vos besoins de stockage de fichiers. La redondance est automatiquement intégrée (selon le type de réseau RAID que
vous utilisez) et ils sont facilement configurés pour remonter jusqu'aux emplacements extérieurs.
Bien que les dispositifs NAS puissent sembler simples, vous pouvez les utiliser pour diverses tâches et acheter des dispositifs préconstruits comme
Synology offre, ou même construire les vôtres et utiliser des systèmes d'exploitation NAS comme TrueNAS, Unraid ou OpenMediaVault.
La plupart des dispositifs NAS feront presque tout ce dont les petites entreprises ou les utilisateurs à domicile ont besoin, mais il existe des scénarios
dans lesquels un serveur spécialement conçu sera une meilleure option.

Qu'est-ce qu'un serveur ?


Un serveur peut être considéré comme beaucoup de choses différentes. Quelque chose d'aussi simple qu'un système d'exploitation basé sur Linux
comme Ubuntu Server, ou quelque chose d'aussi complexe qu'un Hypervisor (Proxmox, XCP-ng, ESXi, etc.) peut être considéré comme un serveur.
Du point de vue matériel, un serveur peut être quelque chose d'aussi simple qu'un ancien PC (pour les utilisateurs à domicile), ou quelque chose d'aussi
complexe qu'une centrale électrique montée sur rack avec des tonnes de ressources informatiques. La définition change radicalement selon que vous
êtes un utilisateur à domicile, une petite entreprise ou une entreprise à part entière.

NAS vs. Serveur: Principales différences


Nous examinerons quelques différences clés entre les dispositifs NAS/systèmes d'exploitation et les serveurs ci-dessous.
Configuration requise
La clé pour essayer de choisir entre un NAS et un Serveur est les exigences pour l'appareil. Par exemple, si vous voulez simplement que le serveur
fonctionne comme un serveur de fichiers, un NAS pourrait être une meilleure option qu'un serveur.
Cependant, si vous voulez que l'appareil fonctionne comme un serveur d'impression, un serveur de base de données, un serveur web, un hyperviseur,
etc., l'installation d'un système d'exploitation dédié de qualité serveur avec un matériel puissant sera une meilleure option.

Coûts du prix et de l'utilisation


Non seulement les serveurs avec de grandes performances seront généralement plus chers que les dispositifs NAS, mais leur matériel global sera plus
cher sur le long trajet généralement en raison d'une consommation d'énergie plus élevée. Cela signifie que, d'un point de vue des prix purs, les serveurs
coûteront généralement plus cher à l'avance et à long terme.
Cela dit, les appareils NAS peuvent aussi devenir chers. Surtout s'ils sont montés sur rack avec des alimentations électriques redondantes, des tonnes de
disques durs, de grandes performances... vous obtenez le point. Le matériel pour l'un ou l'autre peut être coûteux, mais les serveurs ont généralement
de meilleures spécifications qui conduisent à une consommation d'énergie plus élevée.

Sécurité
La sécurité est importante, peu importe ce que vous faites, mais les exigences de sécurité que vous avez devraient être déterminées d'emblée et vous
devriez comparer ces options aux offres que le système d'exploitation que vous avez l'intention d'utiliser.
Par exemple, si un pare-feu logiciel est une exigence clé, vous devez confirmer le système d'exploitation que vous utilisez le support.

Échelonnabilité
Les dispositifs NAS sont généralement des dispositifs individuels. Bien que vous puissiez configurer les données sur les dispositifs NAS pour qu'elles
soient hautement disponibles dans certaines situations, l'évolutivité réelle est limitée. Certains systèmes d'exploitation comme TrueNAS Scale sont
conçus avec l'évolutivité à l'esprit, mais les serveurs seront généralement mieux mis à l'échelle.
Conclusion et réflexions finales
Il n'y a pas nécessairement de bonne ou de mauvaise réponse lorsqu'on choisit entre un NAS et un serveur. La première chose à examiner est les
exigences réelles et essayer de les faire correspondre au bon système d'exploitation. Comme il y a tellement de systèmes d'exploitation différents que
vous pouvez utiliser, c'est généralement la première chose à vérifier.
Dès que vous sélectionnez un système d'exploitation à partir des exigences, jetez un œil au matériel que vous souhaitez utiliser. Cela permettra de
déterminer quelle option est la meilleure.

Comment configurer WebDAV sur un NAS de synologie


• Auteur du poste: Frank Joseph
• Date de la dernière modification du texte : 8 septembre 2023
• Catégorie de poste: Synologie
• Temps de lecture: 10 min lire
Dans ce tutoriel, nous allons voir comment configurer WebDAV sur un NAS de Synology.
Si vous configurez WebDAV, vous pourrez accéder à vos fichiers NAS Synology à partir d'un emplacement externe. Cela dit, vous devez être
confortable et capable (également, également,) de transférer comme un serveur WebDAV l'exige.
Il est également important de s'assurer que WebDAV a du sens pour votre flux de travail et vos besoins. Si votre objectif est de transférer un fichier,
l'utilisation temporaire de SFTP ou d'une autre forme de transfert de fichiers (comme Synology Drive et Synology QuickConnect) pourrait avoir le plus
de sens. Une option encore meilleure serait d'utiliser un VPN.
Cependant, si vous voulez accéder à vos dossiers partagés à partir d'un emplacement externe, WebDAV pourrait avoir le plus de sens.
Table des matières montrer

Comment configurer WebDAV sur un NAS de synologie


Les étapes ci-dessous expliqueront comment configurer WebDAV sur un NAS de Synology.
1. Pour configurer WebDAV, vous devez d'abord télécharger le paquet WebDAV Server à partir du centre de paquets.

2. Après avoir installé, ouvrez le paquet, puis sélectionnez Enable HTTPS. Je recommande que vous n'hésifiiez pas HTTP car les justificatifs
d'identité envoyés avec la demande seront envoyés en texte clair (où elle est cryptée avec HTTPS).
Le port par défaut pour WebDAV HTTPS est de 5006, mais je recommanderais de le transformer en quelque chose de différent - peu importe quoi,
mais il devrait être différent de 5006.
3. À ce stade, le serveur WebDAV est entièrement configuré, mais nous allons aller plus loin en créant un utilisateur WebDAV.
Compte utilisateur pour WebDAV
Puisque la configuration d'un serveur WebDAV vous permettra d'accéder à vos fichiers à partir d'un serveur séparé, vous pourriez travailler avec
quelqu'un qui devrait avoir des droits sur les dossiers individuels partagés (ou simplement vouloir les séparer).
Dans ce cas, vous pouvez créer un compte utilisateur séparé et vous assurer que le compte n'a accès qu'aux dossiers partagés auxquels il a besoin pour
accéder.
1. Ouvrez le panneau de contrôle, sélectionnez Utilisateur et Groupe, puis Create. Entrez les informations, puis assurez-vous de ne pas accéder No
Access à tous les dossiers auxquels vous ne voulez pas que le compte utilisateur ait accès.
Ensuite, sélectionnez Read/Write ou Read Only en fonction de l'autorisation que l'utilisateur doit avoir aux dossiers partagés que vous souhaitez qu'ils
aient accès.
2. Dans la section Applications, refuser toute autorisation à l'exception de WebDAV.
3. Créez l'utilisateur et passez à l'étape suivante
Accès à distance pour un serveur WebDAV
Avant de pouvoir accéder au serveur WebDAV à distance, vous devez configurer un nom d'hôte ou un nom de domaine DDNS qui pointera vers votre
adresse IP externe. Si vous allez utiliser un nom de domaine, vous voudrez peut-être envisager d'utiliser un mandataire inverse pour éviter d'avoir à
transférer autre chose que le port TCP 443.
Si vous n'utilisez pas de proxy inverse et que vous ne prévoyez pas d'utiliser un nom d'hôte et un port DDNS, vous devrez également transférer le TCP
Port 5999 (ou tout ce que vous utilisez) pour le serveur WebDAV.
Exemple de port vers l'extérieur en utilisant pfSense
Certificat et pare-feu
La dernière étape avant le test est d'obtenir un certificat SSL valide (puisque nous utilisons HTTPS). Si vous utilisez DDNS, vous devez déjà avoir un
certificat SSL valide (saut à l'étape 3 si vous le faites), mais si vous ne l'êtes pas, vous pouvez suivre les étapes ci-dessous.
1. Ouvrez le panneau de contrôle, sélectionnez Sécurité, puis Certificats et Add a Nouveau certificat.
2. Sélectionnez ensuite Obtenir un certificat à partir de Let’s Encrypt, et entrez le nom de domaine et une adresse e-mail valide. Vous pouvez
ensuite obtenir le choix Done.
3. Enfin, sélectionnez Paramètres et changez le certificat de synlogie au certificat Let's Encrypt que vous venez d'obtenir à côté du serveur WebDAV.
4. Une recommandation globale (mais non obligatoire) est de limiter le serveur WebDAV à une adresse IP spécifique (ou une gamme d'adresses IP)
afin que le serveur WebDAV ne soit pas accessible par tout le monde.
Cela nécessite que vous configurez le pare-feu de Synology, mais c'est une étape extrêmement utile (et potentiellement nécessaire).

Test du serveur WebDAV


Si vous avez terminé la section DDNS/Domain Name et port forwarding, vous devriez maintenant être en mesure de vous connecter à votre serveur
WebDAV à partir d'un réseau extérieur (notez, réseau extérieur – cela ne fonctionnera pas localement). Enfin, sélectionnez Ajouter un nouveau
certificat.
Configuration des fenêtres
Sur Windows, vous pouvez mapper un lecteur de réseau, puis entrer l'adresse complète et le port. Vous pouvez ensuite vous connecter à l'utilisateur
WebDAV que vous avez créé (ou à un autre compte).
Le lecteur cartographié se connectera et vous pourrez y accéder.

Configuration Mac
Sur macOS, appuyez sur Commande K pour se connecter à un serveur, puis tapez dans l'adresse web et le port. Vous devrez alors entrer les
identifiants pour vous connecter.
Conclusion: Comment configurer WebDAV sur un NAS de synologie
Ce tutoriel a cherché comment configurer WebDAV sur un NAS de Synology. Pour la plupart, il existe des situations uniques où la configuration d'un
serveur WebDAV a du sens. Dans presque tous les cas, vous devriez envisager de limiter le champ à une série d'adresses IP pour vous assurer que le
serveur n'est pas accessible à tout le monde.
Une autre meilleure pratique consiste à créer un utilisateur WebDAV spécifique afin que vous ne puissiez pas vous connecter en utilisant un autre
compte utilisateur NAS (assurez-vous simplement de révoquer l'accès sur les autres comptes utilisateur).
Merci d'avoir vérifié le tutoriel sur la façon de configurer WebDAV sur un NAS de Synology Si vous avez des questions sur la façon de configurer
WebDAV sur un NAS de Synology, laissez-les dans les commentaires.

Comment mettre en place un serveur FTP/SFTP sur un NAS de


Synologie
• Auteur du poste: Frank Joseph
• Dernière modification du poste: 22 octobre 2023
• Catégorie de poste: Synologie
• Temps de lecture: 8 min lire
Dans ce tutoriel, nous allons voir comment mettre en place un serveur FTP/SFTP sur un NAS de Synology.
FTP (File Transfer Protocol) vous permet de transférer des fichiers d'un hôte à un autre. En général, un serveur FTP vous permettra d'héberger des
fichiers que d'autres utilisateurs peuvent télécharger avec un client FTP. Dans ce tutoriel, nous utiliserons SFTP, qui est une version sécurisée du
protocole FTP traditionnel.
Gardez à l'esprit que pour accéder à votre serveur FTP, vous devrez utiliser le transfert de port avec un nom d'hôte DDNS.
Table des matières montrer

FTP vs. SFTP sur un NAS de Synologie


Avant de regarder comment mettre en place un serveur FTP/SFTP sur un NAS Synology, vous devez comprendre les deux principales options
disponibles.
Tout d'abord, un vieux serveur FTP simple does not n'utilise aucune forme de chiffrement, ce qui signifie que tout est envoyé en texte clair. Pour cette
raison, vous ne voulez pas l'utiliser. Bien que vous puissiez l'utiliser, ce n'est pas quelque chose que je recommanderais.
Au minimum, vous devez utiliser SFTP (SSH File Transfer Protocol), qui ajoute le chiffrement au protocole FTP. Il y a même une option FTPS que
vous pouvez utiliser (que ce tutoriel ne couvrira pas).
Pour être tout à fait clair, FTP n'est pas sécurisé car il n'utilise pas le chiffrement, de sorte que vos identifiants (nom d'utilisateur/mot de
passe) seront envoyés en texte clair.
Pour cette raison, vous devez utiliser SFTP au minimum pour vous assurer que les identifiants sont chiffrés, c'est pourquoi les étapes ci-
dessous ne montreront que comment configurer un serveur SFTP.

Configuration d'un serveur SFTP sur un NAS de Synologie


Afin de configurer le serveur SFTP sur un NAS de Synology, suivez les étapes ci-dessous.
1. Ouvrez le panneau de contrôle, sélectionnez Services de fichiers, puis FTP. Faites défiler jusqu'à SFTP et Enable SFTP Server. Changer le port
en quelque chose de différent de 22 (sûreté par l'obscurité en changeant le port par défaut). Après avoir effectué les modifications, sélectionnez
Appliquer.
NOTE : J'utiliserai le Port 2222, mais vous pouvez utiliser tout ce qui n'est pas actuellement utilisé.
Pare-feu/transfert de port pour SFTP
Les paramètres SFTP sont configurés, mais vous devez maintenant faire avancer le port de TCP Port 2222 (ou tout ce que vous utilisez). Gardez à
l'esprit que vous devez également configurer DDNS pour vous assurer que vous êtes en mesure d'accéder à votre adresse IP externe à partir d'un
emplacement extérieur.
Nous devons également configurer le pare-feu Synology pour permettre les connexions au port SFTP spécifié ci-dessus (si vous utilisez le pare-feu
Synology).
Dans le panneau de contrôle, sélectionnez Sécurité, puis pare-feu, et créez une nouvelle règle pour TCP Port 2222 (ou quel que soit le port que vous
avez spécifié ci-dessus). Ceci n’est nécessaire que si vous utilisez le pare-feu de Synology.
Sur votre routeur, créez une nouvelle règle de transfert de port pour le port TCP 2222 (ou quel que soit le port que vous avez spécifié ci-dessus). Une
règle de transfert de port est illustrée ci-dessous, en utilisant pfSense.
Une fois que les règles de transfert du pare-feu et du port ont été créées, vous pouvez passer à la section compte utilisateur.

Compte utilisateur du SFTP


Étant donné que le SFTP est un protocole de transfert de fichiers, vous envoyez très probablement des fichiers à un utilisateur qui n'a
traditionnellement pas accès à votre NAS. Dans ce cas, il est important de créer un compte utilisateur distinct et de s'assurer qu'ils n'ont accès qu'aux
dossiers partagés auxquels ils ont besoin d'accéder.
1. Ouvrez le panneau de contrôle, sélectionnez Utilisateur et Groupe, puis Create. Saisissez l'information, puis assurez-vous de sélectionner Non
Accès sur tous les dossiers auxquels vous ne voulez pas que l'utilisateur accède.
Ensuite, sélectionnez Read/Write ou Read Only en fonction de l'autorisation que l'utilisateur doit avoir aux dossiers partagés que vous souhaitez qu'ils
aient accès.
2. Dans la section Applications, refuser toute autorisation, à l'exception du SFTP.
3. Créez l'utilisateur et passez à l'étape suivante pour tester
Test de la connexion SFTP
Maintenant que le serveur SFTP a été configuré, vous pouvez tester la connexion. File-illa est l'un des clients FTP les plus populaires que vous puissiez
utiliser, c'est donc ce que nous utiliserons ci-dessous.
Veuillez noter que vous pouvez le tester localement si vous le souhaitez avant de le tester sur Internet.
1. Saisissez dans votre hôte (nom d'hôte DNS), l'utilisateur FTP créé, ainsi que le mot de passe et le port.

2. Après la connexion, vous devriez voir les dossiers listés dans le site distant. Vous pouvez maintenant voir les fichiers auxquels vous avez la
permission.
Conclusion: Comment mettre en place un serveur FTP/SFTP sur un NAS de Synology
Pour la plupart, l'utilisation d'un serveur SFTP n'est pas aussi souvent que possible car vous pouvez utiliser divers outils comme Synology Drive via
des services tels que Synology QuickConnect et éviter le transfert de ports. Cependant, il y a des cas où un serveur SFTP est utile, et dans des cas
comme celui-là, c'est la façon de le configurer.
Merci d'avoir vérifié le tutoriel sur la façon de configurer un serveur FTP/SFTP sur un NAS de Synology. Si vous avez des questions sur la façon de
mettre en place un serveur FTP/SFTP sur un NAS Synology, veuillez les laisser dans les commentaires.

Comment sauvegarder une machine virtuelle/conteneur à Proxmox


• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 30 octobre 2023
• Catégorie de poste : Proxmox
• Temps de lecture: 10 min lire
Dans ce tutoriel, nous allons voir comment sauvegarder une machine virtuelle/conteneur dans Proxmox.
Bien que vous puissiez sauvegarder une machine virtuelle (VM) ou un conteneur à l'intérieur du système d'exploitation invité lui-même, il est
considérablement plus facile de gérer le processus de sauvegarde dans Proxmox lui-même. Proxmox vous permet de sauvegarder et de restaurer les
machines virtuelles et les conteneurs en mettant en place un stockage externe et en configurant des tâches de sauvegarde. Vous pouvez ensuite
sauvegarder et restaurer les invités directement à partir de l'interface graphique Proxmox.
Table des matières montrer
Configuration du stockage externe pour les sauvegardes de Proxmox
Avant de pouvoir sauvegarder les VM ou les conteneurs de Proxmox, vous devez configurer le stockage externe. Du point de vue de la fonctionnalité,
vous configurerez le stockage externe dans le centre de données Proxmox, puis configurerez les calendriers de sauvegarde. Il n'y a pas nécessairement
une façon correcte ou incorrecte de le faire, mais l'une de mes options préférées (du point de vue d'un serveur de fichiers) est NFS.
Cela dit, si vous avez un appareil capable d'exécuter Proxmox Backup Server, vous devez le considérer fortement car Proxmox Backup Server
sauvegardera les VM et les conteneurs de manière incrémentielle. Cela permettra (potentiellement) de plus petites tailles de transfert et de sauvegardes
plus rapides.
1. Pour configurer le stockage externe, sélectionnez Datacenter, puis Storage, puis Add, et le type de stockage que vous souhaitez ajouter. Comme
mentionné ci-dessus, NFS est une excellente option si vous vous connectez à un serveur de fichiers, avec Proxmox Backup Server étant l'option
préférée si vous avez un appareil capable de l'exécuter.
1. Sélectionnez Datacenter puis Stockage.

2. Sélectionnez Ajouter puis ajouter le type de stockage que vous souhaitez utiliser. Dans cet exemple, je vais utiliser NFS, mais vous pouvez utiliser
tout ce que vous voulez.
3. Sur l'écran NFS, créez un ID, puis entrez l'adresse IP de votre serveur NFS. Dans le menu déroulant Exporter, l'emplacement de votre dossier
Proxmox doit apparaître automatiquement (en supposant qu'il a été configuré avec les autorisations NFS appropriées - utilisez ce tutoriel Synology si
vous êtes intéressé à voir la section d'autorisation NFS).
Dans la liste déroulante du contenu, sélectionnez TOUTES les rubriques. Vous pouvez ensuite sélectionner Ajouter.
4. Proxmox devrait maintenant montrer le stockage que nous avons créé ci-dessus. À ce stade, vous pouvez passer à la partie de secours.

Comment sauvegarder une machine virtuelle/conteneur à Proxmox


Maintenant que nous avons configuré Proxmox et notre partage NFS, nous pouvons sauvegarder une machine virtuelle ou un conteneur en suivant les
étapes ci-dessous.
1. Sélectionnez la machine virtuelle que vous souhaitez sauvegarder, puis sélectionnez Sauvegarde.
2. Dans l'onglet de sauvegarde, sélectionnez l'emplacement de stockage NFS en haut à droite. Cela nous permettra de remonter à l'emplacement correct
(dans mon exemple, synologie-nas-stockage).

3. Sélectionnez Sauvegarde maintenant dans le coin supérieur gauche.


4. Sélectionnez votre stockage, mode et compression, puis sélectionnez Sauvegarde et la sauvegarde commencera.
Sauvegardes automatiques des machines virtuelles/conteneurs
Vous pouvez facilement configurer les sauvegardes automatiques dans Proxmox pour toutes vos machines virtuelles si vous le souhaitez. Cela
permettra automatiquement de sauvegarder chaque machine virtuelle selon un calendrier spécifique.
1. Sélectionnez Datacenter puis Sauvegarder, puis sélectionnez Ajouter.

2. Sélectionnez le stockage pour votre part (NFS/Proxmox Backup Server, etc.), puis spécifiez le mode Schedule, Selection, Compression et Mode.
3. Vous pouvez également modifier la politique de rétention pour ne conserver qu'un certain nombre de versions en sélectionnant l'onglet Rétention.
Sans spécifier de politique de rétention, toutes les sauvegardes seront stockées, ce qui réduira considérablement l'espace de stockage sur votre
serveur externe au fil du temps.

4. Vos machines virtuelles se remettront automatiquement sur votre serveur externe après que vous ayez sélectionné Create

Restaurer une machine virtuelle à partir d'une sauvegarde


Une fois les sauvegardes créées, vous pouvez facilement restaurer votre machine virtuelle ou votre conteneur si vous en avez besoin.
1. Sélectionnez la machine virtuelle, puis Sauvegarder.
2. Sélectionnez l'emplacement de stockage en haut à droite sous Stockage où la sauvegarde existe.

3. Sélectionnez l'instantané que vous souhaitez restaurer, puis sélectionnez Restaurer.

4. Toutes les informations peuvent rester par défaut (sauf si vous souhaitez les démarrer automatiquement après la restauration), puis sélectionnez
Restore.
5. Vous recevrez un message indiquant que cela effacera en permanence la machine virtuelle existante. Si vous êtes d'accord, sélectionnez Oui. Votre
machine virtuelle va maintenant être restaurée à partir de la sauvegarde que vous avez sélectionnée.

Conclusion: Comment sauvegarder une machine virtuelle/conteneur dans le cadre de Proxmox


Ce tutoriel a examiné comment sauvegarder une machine virtuelle/conteneur en Proxmox. La section la plus importante de ce tutoriel est de s'assurer
que le stockage de la destination de sauvegarde se trouve sur un serveur externe. Comme mentionné ci-dessus, si vous pouvez utiliser Proxmox Backup
Server, c'est probablement votre meilleur pari, mais une part NFS est également une excellente option. La clé est que les sauvegardes de Proxmox sont
extrêmement faciles à gérer et à utiliser, et sont une chose facile à mettre en œuvre.
Merci d'avoir vérifié le tutoriel sur la manière de sauvegarder une machine virtuelle/conteneur dans Proxmox. Si vous avez des questions sur la façon
de sauvegarder une VM/conteneur dans Proxmox, laissez-les dans les commentaires.
Comment mettre à jour un conteneur Docker en utilisant Portainer
• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 15 septembre 2023
• Catégorie de poste : Docker
• Temps de lecture: 6 min lire
Aujourd'hui, nous allons voir comment mettre à jour un conteneur Docker en utilisant Portainer.

Il existe de nombreuses façons de mettre à jour les conteneurs Docker, mais Portainer rend le processus assez simple.
Pour faire la démonstration de la façon de mettre à jour un conteneur Docker en utilisant Portainer, je vais mettre à jour un conteneur Nginx Proxy
Manager. Actuellement, je gère une ancienne version (2.3.1) et nous allons la mettre à jour jusqu'à la dernière version.
Avant de commencer ce processus, assurez-vous que votre conteneur est correctement créé et que des volumes existent avec vos données
importantes. Si les données ne sont pas mappées à un dossier local, elles seront écrasées par les données d'image les plus récentes.
Table des matières montrer

Comment mettre à jour un conteneur Docker en utilisant Portainer


Avant de pouvoir mettre à jour Docker Containers avec Portainer, vous devez installer Portainer.
Installation de Portainer
1. Téléchargez et utilisez le conteneur Portainer en exécutant les commandes ci-dessous.
sudo docker run -d -p 8000:8000 -p 9000:9000 -p 9443:9443-name-portainer-restart-always-v
/var/run/docker.sock:/var/run/docker.sock -v portainer-data:/portainer-ceun/portainer-ce:latest

2. Il installera Portainer et sera accessible par l'adresse IP du poste de travail et le port 9000. Quand vous y arrivez, créez un nom d'utilisateur et un mot
de passe.
http://[WORKSTATION-IP-ADDRESS-:9000
3. Sélectionnez Docker et Connect.
4. Sélectionnez Local.
Mise à jour des conteneurs Docker à l'aide de Portainer
Maintenant que Portainer est installé, vous pouvez exécuter les étapes ci-dessous pour mettre à jour Docker Containers.
1. Sélectionnez Conteneurs, puis arrêtez le conteneur que vous souhaitez mettre à jour.

2. Sélectionnez le conteneur, et vous verrez un bouton nommé Recreate. En sélectionnant ce bouton, le conteneur prendra les données persistantes et
recréera le récipient. Gardez à l'esprit que les seules données qui resteront sur le conteneur sont des données qui ont été mises en correspondance avec
un volume. Ceci est expliqué plus en détail dans la vidéo ci-dessus.

3. Sélectionnez Pull la dernière image, puis Recreate.


4. Lorsque ce processus sera terminé, le récipient sera recréé avec la dernière image. Sélectionnez le récipient et Startdémarrez-le. Le statut passera au
fonctionnement.

5. Le conteneur va maintenant exister avec la version la plus récente.


Conclusion: Mettre à jour un conteneur Docker en utilisant Portainer
Ce tutoriel a cherché comment mettre à jour un conteneur Docker en utilisant Portainer. Comme je l'ai dit plus haut, ce n'est pas la seule façon de le
faire. Il y a plusieurs façons, mais c'est ce que je considère comme le plus facile. Il est bon de vérifier périodiquement et de s'assurer que vos
conteneurs exécutent la dernière version.
Gardez à l'esprit que vous pouvez toujours recréer un conteneur existant en utilisant une version plus ancienne si vous rencontrez des problèmes
inattendus. C'est ce qui rend les conteneurs Docker si faciles à travailler avec.
Merci d'avoir vérifié le tutoriel sur la façon de mettre à jour un conteneur Docker en utilisant Portainer. Si vous avez des questions sur la façon de
mettre à jour un conteneur Docker en utilisant Portainer, n'hésitez pas à les laisser dans les commentaires.

Vous aimerez peut-être aussi