Académique Documents
Professionnel Documents
Culture Documents
2. Sélectionnez l'interface physique que vous souhaitez configurer la zone DM, puis sélectionnez Ajouter.
Règles du pare-feu – Comment mettre en place une zone démilitarisée dans pfSense
C'est la partie la plus importante de tout ce tutoriel. Les règles de pare-feu que vous configurez détermineront ce que le réseau DM peut/ne peut pas
accéder. En fin de compte, cette section sera différente pour tout le monde car vous devrez spécifier les ports spécifiques auxquels vous souhaitez que
la zone DM puisse accéder.
Il n'y a pas nécessairement un minimum de ports qui devraient être autorisés, car cela dépend vraiment des services que vous utilisez. Par exemple, si
vous exposez un système de gestion de contenu comme WordPress, vous voulez probablement vous assurer que le port 80 (HTTP), le port 443
(HTTPS) et le port 53 (DNS) sont autorisés afin que WordPress puisse communiquer avec Internet.
Cependant, si vous utilisez autre chose, il y a une chance que vous ayez besoin de spécifier différents ports. Rappelez-vous que ce sont les ports
auxquels vous voulez que les dispositifs DM'Accès à l'écoute. Si vous prévoyez d'utiliser le transfert de port pour exposer l'un de ces services,
le pare-feu n'a techniquement pas besoin de règles – mais vous voulez probablement que quelque chose soit autorisé pour s'assurer que les
appareils peuvent communiquer avec Internet pour mettre à jour, etc.
Quelques points supplémentaires que je voudrais faire pour que cela contribue, je l'espère, à:
• Comprenez comment les règles du pare-feu fonctionnent dans pfSense afin que vous compreniez exactement ce que vous permettez.
• Le réseau DMz ne pourra pas accéder à quoi que ce soit par défaut. Cependant, si vous créez une règle d'autorisation, la zone DM sera en
mesure de communiquer avec vos sous-réseaux LAN, alors ne le faites pas. Au lieu de cela, autoriser l'accès aux seuls ports spécifiques
auxquels les dispositifs DM ont besoin d'accéder.
• S'il y a plusieurs dispositifs DMz qui ont besoin d'accéder à des ports similaires (ce qui ne signifie pas tous les dispositifs DM, mais
certains dispositifs DM), vous pouvez utiliser des alias pour regrouper les dispositifs qui doivent accéder aux mêmes ports ensemble.
• Cela contredit le point principal ici et est très probablement overkill, mais je précise toujours une règle qui bloque le trafic vers mon
réseau local de destination (et tout autre sous-réseau local important). Cela garantit simplement que si une règle de pare-feu est créée par
inadvertance qui donne accès à quelque chose qu'il n'était pas prévu, le trafic sera bloqué sur mon réseau LAN indépendamment. Vous
pouvez également bloquer le réseau DMz sur les règles de pare-feu du réseau LAN.
Exemple de règles de pare-feu pour un réseau DM
C'est tout. Dès que les règles de pare-feu sont créées et que les appareils utilisent le réseau DMz configuré ci-dessus, ils seront séparés de vos autres
appareils locaux.
Lorsque vous avancez, vous autorisez l'accès à un appareil sur votre réseau local. Il est important de comprendre que cela permet aux personnes et aux
appareils en dehors de votre réseau local d'accéder à un appareil spécifique à l'intérieur de votre réseau local.
Il est généralement de bonne pratique d'utiliser un VPN pour accéder aux appareils de votre réseau local car vous vous assurez qu'un compte, ainsi
qu'un certificat, sont nécessaires pour se connecter. Cela limite les problèmes de sécurité qui pourraient se poser, mais il existe de nombreuses
circonstances dans lesquelles un transfert de port est nécessaire.
Après avoir cherché à aller de l'avant dans pfSense, vous comprendrez le transfert de port et comment c'est fait. Veuillez garder à l'esprit que c'est
pour une configuration pfSense de base.
Table des matières montrer
Qu'est-ce que Port Forwarding?
Avant de faire avancer quoi que ce soit en pfSense, il est important de comprendre exactement ce que fait l'acheminement du port. Le transfert de port
détend un service sur votre réseau local vers le monde extérieur.
Après qu'un port a été retransmis, un utilisateur extérieur au réseau local peut naviguer vers un nom de domaine, un nom d'hôte DDNS ou une adresse
IP externe, approdire le numéro de port qui a été transféré et accéder à ce service.
En général, vous voulez vous assurer que vous exposez en toute sécurité les services car il y a certainement des risques associés à l'acheminement des
ports. Toutefois, il existe également des circonstances dans lesquelles un transfert de port est nécessaire. Voici quelques exemples de ports qui sont
couramment acheminés.
HTTP: Le port 80 est le port par défaut pour le trafic HTTP. Bien qu'il soit dans votre intérêt d'utiliser le protocole HTTPS (port 443) lors de
l'exposition d'un service web (illustré ci-dessous), il y a des circonstances où les utilisateurs vont transférer 80.
HTTPS : C'est le port « par défaut » que la plupart des utilisateurs ouvrent. Il peut s'agir d'un port transféré pour héberger un site Web ou utilisé avec
un serveur proxy inverse et un nom de domaine pour exposer plusieurs services Web différents en toute sécurité.
VPN : Si vous utilisez quelque chose comme OpenVPN, vous serez obligé de transférer le port UDP 1194 (par défaut). Les serveurs VPN sont un
excellent moyen d'accéder aux services sur un réseau local car les utilisateurs intéressés par la connexion devront s'authentifier avec un nom
d'utilisateur, un mot de passe et un certificat.
Vous pouvez héberger un serveur OpenVPN sur votre installation pfSense facilement, configurer WireGuard, ou utiliser quelque chose comme un
Raspberry Pi si vous souhaitez une configuration alternative.
Maintenant que nous avons déminé exactement quel transfert de port est, suivez les instructions ci-dessous pour apprendre à aller de l'avant dans
pfSense.
2. Laisser l'interface en tant que WAN. Le protocole peut être laissé en TCP, remplacé par UDP ou TCP/UDP.
3. Définissez la destination comme l'adresse WAN, puis dans la gamme de ports de destination, vous pouvez soit sélectionner à partir d'un élément
existant à l'aide du menu déroulant, soit entrer dans un port personnalisé.
4. Dans l'IP cible de redirection, vous pouvez ajouter l'adresse IP locale où le port doit être cartographié. C'est l'appareil qui sera exposé en dehors de
votre réseau local
5. Dans le port cible Redirection, ajouter le même numéro de port que vous avez sélectionné à l'étape quatre ci-dessus (dans notre exemple, nous
utilisons 5001).
6. En bas, donner une description et s'assurer que l'association de règles de filtrage est définie comme une règle de filtre associée. Cela garantira
qu'une règle de pare-feu est automatiquement créée pour ce port vers l'avant. Vous pouvez alors sauver la règle.
7. Après avoir économisé, vous devrez appliquer les modifications. La règle de transfert du port pfSense sera alors créée.
Étape 3: Configuration des règles du pare-feu nécessaires
Si vous sélectionnez le pare-feu puis Règles, vous devriez voir que la règle du pare-feu a été automatiquement créée sous WAN.
NOTE: la description aura un NAT devant elle car la règle a été automatiquement créée. La règle sera également liée, ce qui signifie que la suppression
de la règle du transfert de port supprimera la règle du pare-feu.
Ceci est très bien décrit dans la vidéo ci-dessous de Tech Me Out. S'il vous plaît, envisagez de vous joaxer sur sa chaîne YouTube.
En général, il convient certainement de limiter les emplacements qui seront en mesure de se connecter à cet appareil est une bonne pratique qui devrait
certainement être prise en considération.
NOTE : si vous n'utilisez qu'une adresse IP ou un sous-rés sous-réseau individuel, vous n'avez pas besoin de passer par l'effort de créer un alias et de
simplement entrer cette information dans la source (avec un seul hôte ou un alias sélectionné).
3. Pour configurer un Alias, sélectionnez Firewall puis Aliases.
https://www.wundertech.net/pfsense-port-forwarding-setup-guide/
3. Activez l'interface et changez la Description à ce que vous voulez. Changer le type de configuration IPv4 en IPv4 en IPv4.
4. Dans la configuration IPv4 statique, régler l'adresse IP en 10.200.0.1 /24. Si vous souhaitez utiliser une gamme de sous-réseaux différentes, vous
pouvez changer le 10.200.0 pour tout ce que vous voulez (tant qu’il n’est pas utilisé actuellement). Réglez le MTU comme 1420 (spécial grâce à
r/pfsense pour l'info). Sauvegarder et appliquer les paramètres de l'interface.
5. Si vous retournez au tunnel WireGuard, vous verrez maintenant que l'interface est affectée à notre tunnel.
2. Changer le protocole de TCP en n'importe lequel et donner au pare-feu une description, puis enuvegarder et appliquer la règle.
3. Sélectionnez le WAN (identique à l'étape 1, mais pour le réseau WAN au lieu de WG-VPN) et ajoutez une nouvelle règle de pare-feu. Laisser la
famille d'adresses en tant qu'IPv4, puis fixez le protocole à l'UPD. Définissez Destinationl'adresse WAN et définissez le port personnalisé à partir
de et à 51820. Sauvez et appliquez la nouvelle règle du pare-feu.
2. Configuration par les pairs de WireGuard
A ce stade, la configuration du serveur est complète et les règles de pare-feu ont été créées. Nous allons maintenant créer un « pair », qui est un client
qui se connectera à notre serveur.
La configuration de WireGuard Peer est légèrement unique en ce sens que vous avez besoin d'obtenir la clé publique de la paire que vous mettez en
place. Cela peut être n'importe quoi, d'un PC Windows à un appareil Mac/Linux, ou même un appareil Android/iOS. Le processus sera le même, ce qui
signifie que vous devez d'abord configurer l'interface sur cet appareil. La vidéo YouTube ci-dessus explique cela en détail.
Je vais montrer rapidement des exemples d'Android et Windows, mais sachez que les appareils Mac, Linux et iOS seront extrêmement
similaires.
pfSense WireGuard Android Setup
1. Sur mon appareil Android, j'ai créé un nouveau tunnel WireGuard en créant un nom et en générant une clé publique/privée. Dans la section
Adresses, je la définis sous la rubrique 10.200.0.5/24, qui est l'adresse IP qui sera attribuée à ce client. Assurez-vous d'ajouter /24 ou de rencontrer
des difficultés à vous connecter à d'autres appareils.
1.1. Définissez le serveur DNS comme étant ce que vous voulez, puis copiez la clé publique et sauvegardez. Nous modifierons la configuration
homologue WireGuard sur ce dispositif après avoir fini de mettre en place pfSense.
Mise en place de pfSense WireGuard pour Windows
2. Sur Windows, ajouter un tunnel vide. Lorsque vous le ferez, une clé publique et une clé privée seront générées. Dans la section Adresses, je la fixai
comme 10.200.0.5/24, qui sera l'adresse IP qui sera attribuée à ce client. Assurez-vous d'ajouter /24 ou de rencontrer des difficultés à vous
connecter à d'autres appareils.
2.1. Définissez le serveur DNS comme tout ce que vous voulez, puis copiez la clé publique et sauvegardez. Nous modifierons la configuration
homologue WireGuard sur ce dispositif après avoir fini de mettre en place pfSense.
Exemple de fenêtres
3.1.2 Configuration du client à plein-toulier
Si vous souhaitez acheminer TOUT le trafic à travers le tunnel VPN, fixez le paramètre AutoriséIPs à 0.0.0.0/0. Cela permettra d'acheminer tout le
trafic à travers le tunnel du VPN.
Avec cette configuration, votre adresse IP externe lors de la navigation vers des sites web sera l'adresse IP externe pfSense.
Exemple Android
Windows – pfSense WireGuard Client Exemple
3. Connecter le client WireGuard à pfSense
L'ensemble de votre configuration devrait être mis en place à ce stade et est prêt à partir. Assurez-vous d'être sur un réseau externe et connectez-vous.
Vous devriez pouvoir vous connecter à votre sous-réseau LAN et à toutes les ressources locales hébergées sur celui-ci. Si vous utilisez un VPN split-
tunnel, votre adresse IP externe doit être la même que le réseau auquel vous êtes actuellement connecté, et si vous utilisez un VPN à sous-tunnel
complet, elle devrait être la même que le réseau pfSense.
Vous pouvez vérifier que le client et le serveur ont fait un « secouage » en sélectionnant Status puis WireGuard dans pfSense et en élargissant le
tunnel que nous avons créé. Si vous êtes connecté et que la poignée de main a réussi, vous verrez un symbole vert de poignée de main.
3.1 Restart WireGuard Service sur pfSense
Si vous devez redémarrer le service WireGuard sur pfSense, sélectionnez Status puis Services et sélectionnez l'icône Restart.
https://www.wundertech.net/how-to-set-up-wireguard-on-pfsense/
Comment configurer le double/multi-WAN dans pfSense
• Auteur du poste: Frank Joseph
• Date de la dernière modification du poste : 30 octobre 2023
• Catégorie de poste: pfSense
• Temps de lecture: 8 min lire
Dans ce tutoriel, nous allons examiner comment mettre en place Dual/Multi-WAN dans pfSense.
Si vous avez deux connexions Internet WAN différentes et que vous utilisez pfSense, les mettre en place comme étant soit équilibré en charge, soit en
tant que primaire/soumettant pour le basculement automatique est une excellente option. Soit le trafic peut être établi d'une manière où pfSense
déterminera la ligne ISP à utiliser en fonction du trafic qu'elle reçoit, soit vous pouvez configurer une connexion primaire et une connexion de secours.
Le scénario primaire et de sauvegarde est bénéfique si vous avez un FAI qui fournit un meilleur service Internet (qu'il s'agisse de vitesse ou de
fiabilité), ce qui permettra à pfSense de tomber automatiquement sur la ligne de sauvegarde si la connexion Internet est perdue. Les deux sont
d'excellentes options, mais le service Internet fourni par chaque fournisseur de services Internet déterminera très probablement quelle option est la
meilleure. Veuillez garder à l'esprit que le processus ci-dessous fonctionnera si vous avez plus de deux connexions WAN également.
Table des matières montrer
3. Si vous souhaitez que les deux interfaces WAN soient équilibrées en charge, vous conduirez chacune au niveau 1. Cela signifie que les deux sont
des connexions actives et qu'il convient d'être utilisé.
4. Si vous souhaitez qu'une interface WAN soit la principale et une seconde interface WAN pour être le secondaire, fixez le primaire de niveau 1 et le
secondaire en tant que niveau 2.
5. Dans le niveau de déclenchement, fixez cette valeur comme étant votre préférence. La documentation pfSense donne une grande explication des
différences entre chacune d'elles.
6. Enfin, créez une description et sauvegardez, puis appliquez. Le groupe passerelle est maintenant créé.
Modifier la règle Autoriser qui existe, sélectionnez Display Advanced, puis changez la Portail au groupe de passerelle créé ci-dessus.
NOTE: Si la section de passerelle n'est pas accessible, assurez-vous que la famille d'adresses n'est pas définie comme IPv4 et IPv6.
L'échelle de queue est un VPN de configuration zéro, ce qui signifie que sans aucun transfert de port, vous serez en mesure d'accéder à tous les
appareils de votre réseau local. Maintenant que Tailscale est supportée sur pfSense, c'est un endroit idéal pour faire fonctionner Tailscale.
Gardez à l'esprit que si vous souhaitez utiliser un VPN plus traditionnel, vous pouvez toujours mettre en place OpenVPN ou WireGuard. Cependant,
ces deux options nécessitent un transfert de port, contrairement à l'échelle de la queue. Du point de vue de la configuration pure, Tailscale est
incroyablement facile à mettre en place et nous allons examiner comment mettre Tailscale sur pfSense ci-dessous.
Table des matières montrer
Comment configurer l'échelle de queue sur pfSense
Veuillez organiser les étapes ci-dessous pour configurer Tailscale sur pfSense.
1. Sélectionnez Système, puis Package Manager.
4. À ce stade, nous devons configurer la clé de pré-authentification. Cela peut être créé sur le site web de l'échelle de mesure. Si vous n'avez pas déjà
de compte, créez-en un, puis connectez-vous et sélectionnez Paramètres, puis clés.
5. Sélectionnez générer la clé d'authentification afin que nous puissions créer la clé pour pfSense. Select Generate Key (les paramètres peuvent
rester par défaut).
6. Après la génération de la clé, copy copiez-la, puis retournez à la section Authentification de Tailscale sur pfSense.
7. Collez la clé qui vient d'être créée, puis sélectionnez save.
8. Après avoir sauvegardé, sélectionnez Paramètres, puis activez Tailder et Save.
Noeud de sortie – Comment mettre en place un taraudeur sur pfSense
Si vous avez configuré Tailscale en tant que nœud de sortie, le nœud de sortie peut être utilisé comme un VPN complet. L'image ci-dessous montre ce
qu'est un VPN complet contre tunnel, mais le point important est que tout le trafic sera acheminé par Tailscale si vous utilisez un noeud de sortie. Par
conséquent, si vous êtes sur le Wi-Fi public, c'est probablement une bonne idée d'utiliser cette fonctionnalité car vous allez tunneller tout le trafic via
pfSense (donc, la sécurisation de la connexion).
Quelques choses doivent être configurées pour régler un noeud de sortie dans Tailscale:
1. À l'intérieur des paramètres de l'échelle de queue sur pfSense, activer l'offre d'être un nœud de sortie pour le trafic Internet sortant à partir de
l'option du réseau Tailscale. En outre, définissez les Routes advertis comme votre sous-réseau local (que vous souhaitez pouvoir accéder à partir de
réseaux externes), puis économisez.
2. Sur le site Web Tailscale, sélectionnez Machines, puis les trois ellipses à côté de votre système pfSense, puis éditer les paramètres de la route.
3. Sélectionnez l'utilisation comme noeud de sortie. La fonctionnalité noeud de sortie est maintenant configurée et peut être utilisée par des
dispositifs clients.
4. Sur n'importe quelle application que vous utilisez, sélectionnez Utiliser le nœud de sortie et changer le nœud de sortie pour être pfSense. Si vous ne
voulez pas utiliser le nœud de sortie, sélectionnez Néant, mais assurez-vous qu'Autoriser l'accès au réseau local est activé afin que vous puissiez
vous connecter à vos appareils locaux.
5. L'échelle de la queue est maintenant configurée. Vous pouvez maintenant ajouter d'autres appareils ou simplement vous connecter à Tailscale à partir
d'un réseau externe pour accéder à tous vos appareils locaux.
2. Après avoir navigué vers les règles, vous verrez toutes les interfaces actuellement dans pfSense ainsi qu'un onglet flottant qui sera expliqué plus tard.
3. Si vous créez des règles pour l'interface WAN, vous créerez des règles pour autoriser le trafic vers votre réseau local à partir de réseaux externes. Si
vous utilisez le transfert de port dans pfSense, vous devez vous assurer qu'une règle de pare-feu existe sur l'interface WAN pour le même port qui a été
acheminé.
4. Toutes les autres interfaces répertoriées (autres que la section flottante) géreront le traffic pour les interfaces internes ou pour une autre catégorie
(VPN par example).
1.2 Comment créer des règles de pare-feu dans pfSense
1. Pour créer une règle de pare-feu dans pfSense, naviguez jusqu'à l'interface où vous souhaitez créer la règle et sélectionnez Ajouter. La flèche vers le
haut créera une règle en haut de la liste, et la flèche vers le bas en créera une en bas.
2. Sélectionnez dans l'onglet Action si vous souhaitez que le trafic soit autorisé (passement), bloqué ou rejeté.
3. Mettez à jour l'interface si nécessaire, puis changez la famille d'adresses en IPv4, IPv6, ou IPv4 et IPv6.
4. Dans la section du protocole, sélectionnez le protocole correct pour la règle que vous souhaitez créer. Si vous voulez autoriser ou refuser tout
trafic, sélectionnez tout le trafic.
Sur la base du protocole que vous sélectionnez, différentes options apparaîtront en dessous. Par exemple, si vous sélectionnez TCP, vous devrez
spécifier la plage de ports TCP.
Shared Folder Sync utilise rsync pour synchroniser un dossier sur une source Synology NAS avec un dossier sur un NAS de destination Synology
NAS. Ce processus est très comparable à Snapshot Replication mais ne nécessite pas le système de fichiers btrfs. Si vous avez deux NAS de Synology
qui utilisent des btrfs, je vous suggère vivement de consulter Snapshot Replication car il synchronise les données ainsi que des instantanés à un NAS de
destination Synology. Cependant, si vous utilisez ext4, vous pouvez utiliser Shared Folder Sync.
Gardez à l'esprit que Shared Dorter Sync nécessite deux NAS de Synology.
Table des matières montrer
Instructions – Synologie partagée de la synchronisation des dossiers NAS
1. Sur le NAS de destination Synology, ouvrez le panneau de contrôle, sélectionnez File Services, puis Rsync. S'assurer que le service rsync est
activé.
2. Sur le NAS de Synology source, ouvrez le panneau de contrôle, sélectionnez Synchronisation Shared Folder, puis Liste des tâchesList.
3. Sélectionnez Créer, puis donnez un nom à la tâche.
4. Sélectionnez les dossiers que vous souhaitez synchroniser, puis sélectionnez la case à cocher et sélectionnez Suivant.
5. Inscrivez-vous dans les informations pour la destination Synology NAS. Les réglages en bas peuvent être personnalisés, puis tester la connexion.
NOTE: La case à cocher de synchronisation au niveau du bloc compare les données et ne synchronise que la différence.
6. Modifiez le calendrier que vous souhaitez que cette tâche s'exécute.
7. Si tout a l'air correct, vous pouvez Applyser les paramètres et le dossier commencera à se synchroniser.
Il est très important de comprendre que cette tâche synchronisera les données de la source à la destination. Vous devez savoir que si les
données sont compromises sur la source, elles se synchronisent avec la destination. Par conséquent, vous devez toujours configurer les
sauvegardes appropriées pour vous assurer que vos données sont récupérables en cas de corruption. J'ai quelques tutoriels sur la façon dont vous
pouvez sauvegarder un NAS Synology ici.
Conclusion
Les étapes de configuration d'un partage de dossier partagé sont très simples mais peuvent être utiles pour les utilisateurs qui cherchent à synchroniser
deux dossiers, en particulier si vous utilisez Ext4 et que la réplication de Snapshot n'est pas une option.
Merci d'avoir vérifié le tutoriel. Si vous avez des questions, s'il vous plaît, laissez-les dans les commentaires.
https://www.wundertech.net/how-to-use-shared-folder-sync-on-a-synology-nas/
NOTE : Il est important de connaître le format de la commande ci-dessus, donc nous allons le décomposer :
• Rsync -ax: Il s'agit des paramètres de l'utilitaire Rsync et de la ligne de commande.
• ~:: Voici le répertoire SOURCE. Cela signifie que le répertoire vous allez faire marche arrière. Si vous voulez voir ce qui existe ici, vous
pouvez « y » s'yrer (cd), puis « ls » pour voir les dossiers/fichiers.
• [USERNAME:[IP ADDRESS:/ [VOLUME/Backups/[PC NAME: C'est l'emplacement du dossier de la NAS de Synology que nous
soutenons nos fichiers jusqu'à.
2. Après la fin de la commande Rsync et que tous les fichiers ont été sauvegardés, visualisez l'emplacement du dossier sur votre NAS Synology (ou
partout où vous le stockez). Vous remarquerez que Rsync a ajouté le dossier d'accueil de mon compte utilisateur (c'est-à-dire où tous mes fichiers sont
stockés). Ceci est important à noter lorsque nous créons notre commande Rsync «restaurer».
3. À ce stade, vous devez déterminer ce que vous souhaitez restaurer. Si vous avez perdu un dossier, vous ne restaurerez probablement pas tout un
dossier, mais dans ce tutoriel, je vais restaurer l'ensemble du dossier. Exécutez la commande ci-dessous pour restaurer l'ensemble du dossier d'origine.
rsync -avnx [USERNAME-[IP ADRESSE-
[AVLUME-/------------------------------------------------------------------------------------------
NOTA : Le dernier « / » est très important Sans cela, vous restaurerez un dossier à votre répertoire d'origine qui est votre nom d'utilisateur avec tous
vos fichiers à l'intérieur. L'ajout du «/» à la fin écrasera les fichiers/dossiers d'information existants.
4. Si le test apparaît correct et que les fichiers/dossiers seront rétablis correctement, supprimer le paramètre « n », et exécuter la commande.
rsync -avx [USERNAME-[IP ADRESSE-?:/ [VOLUME/Sopas/[NOM
DUPC/[USERNAME/---------------------------------------------------
5. Vos fichiers dans votre répertoire personnel devraient maintenant être restaurés.
Conclusion
Rsync est un excellent outil qui vous donne une tonne de flexibilité. J'utilise Rsync pour sauvegarder tout mon répertoire racine qui m'assure que j'ai
tout sauvegardé correctement. Ensuite, je vais exécuter plusieurs commandes Rsync pour déplacer des fichiers/dossiers de mon NAS Synology à mon
système d'exploitation Linux nouvellement installé. Malheureusement, l'exécution d'une commande de base pour écraser l'ensemble du répertoire
racine sur une nouvelle installation ne fonctionne pas car toute votre hiérarchie de permission sera détruite, mais avoir les données est la partie
importante.
Dans mon prochain tutoriel, je vais passer en revue comment installer Veeam pour Linux, le configurer, et faire une restauration en métal nu. C'est une
meilleure option pour les personnes qui veulent ou ont besoin de faire des restaurations de métaux nus.
https://www.wundertech.net/use-rsync-to-restore-backed-up-files-from-a-synology-nas-to-a-linux-pc/
Le processus vous permettra de vous authentifier automatiquement d'un PC Linux vers un NAS de Synology et de programmer la tâche pour
fonctionner à la fréquence de votre choix.
Si vous n'êtes pas sûr de savoir comment sauvegarder un PC Linux sur un NAS Synology en utilisant Rsync, consultez notre tutoriel.
Table des matières montrer
Utiliser des clés SSH pour sauvegarder automatiquement un PC Linux à un NAS de Synology -
Instructions
1. Tout d'abord, nous devons mettre en place notre NAS de Synology afin qu'il puisse utiliser des clés SSH. Assurez-vous que SSH est activé.
2. Sur votre PC Linux, ouvrez le terminal et créez une clé SSH en entrant la commande ci-dessous. Utilisez les paramètres par défaut en appuyant sur «
Enter » jusqu'à ce que la clé soit créée.
ssh-keygen -t rsa
6. Après les modifications de l'autorisation, « sortir » la session SSH et essayer de s'authentifier à nouveau. Vous ne devriez pas avoir besoin d'un mot
de passe.
Sortie
ssh (USERNAME) [ADDRESSEUR DE L'IP
Automatisez la commande de secours Rsync avec Cron
7. La dernière étape consiste à créer un travail cron de sorte que la commande Rsync s'exécute automatiquement. Nous avons créé notre commande
Rsync dans notre dernier tutoriel et nous ajouterons la même commande pour automatiser le processus. Éditez le fichier cron.
crontab -e
8. Cron est TRES puissant. Il existe de nombreuses façons différentes de mettre en place cette commande, mais je l'ai simplifiée du mieux que je peux.
Dans mon exemple, je remplis mon dossier à mon dossier Synology NAS à 2 heures du matin tous les soirs. Si vous êtes intéressé par la
personnalisation de cette commande pour qu'elle s'exécute à différents intervalles, vous pouvez voir un tas d'exemples ici.
0 2 :/ [VOLUME/Sauvegarde/[NOM DU CUISSON/[PCNOM/[PCNOM
9. Le processus va maintenant se dérouler automatiquement à 2 heures du matin tous les soirs.
Conclusion
L'utilisation de touches SSH et Cron pour sauvegarder automatiquement un PC Linux sur un NAS Synology est le meilleur moyen et le plus facile de
s'assurer que vos fichiers sont sauvegardés fréquemment. Les commandes Rsync sont très faciles à écrire et à exécuter, mais leur automatisation va un
pas de plus et place la simplicité au premier plan. Merci pour la lecture. Laissez n'importe quelle question que vous pourriez avoir dans les
commentaires
https://www.wundertech.net/use-ssh-keys-to-automatically-backup-a-linux-pc-to-a-synology-nas/
6. Connectez-vous à votre PC Linux (ou n'importe quel appareil que vous utiliserez) et ouvrez Terminal. À ce stade, nous allons commencer à
construire notre commandement Rsync. De nombreux paramètres peuvent être ajoutés à une commande Rsync, mais dans ce tutoriel, nous allons
sauvegarder l'ensemble de notre disque dur Linux sur notre sous-dossier de sauvegarde sur notre logiciel Synology NAS. La commande Rsync sera
construite comme suit:
sudo rsync -avnx / [USERNAME-[NAS IP ADRESSE-NOS---------------------------------------------------------------------
NOTE: le paramètre de ligne de commande «n» ci-dessus exécutera un roulage à sec lorsque celui-ci est exécuté. Cela NE recevra PAS de fichiers. Il
informera simplement l'utilisateur quels fichiers seront copiés lors de l'exécution de la commande (avec le paramètre « n » supprimé). Il est également
important de noter que la première «/» dans la commande Rsync est la donnée source que nous allons copier au NAS.
7. Si c'est la première fois que vous exécutez la commande, il vous sera demandé d'accepter l'empreinte digitale de la clé ECDSA. Tapez oui et
sélectionnez la clé d'entrée.
8. Saisissez le mot de passe de votre compte utilisateur Synology NAS qui a l'autorisation du dossier partagé.
NOTE : vous pourriez avoir besoin d'entrer d'abord le mot de passe de votre utilisateur Linux.
9. Lorsque la course à sec est terminée (en supposant que les résultats sont ce que vous attendiez), supprimer le paramètre « n », et lancer la
commande. Lorsque vous y êtes invité, entrez à nouveau le mot de passe NAS.
sudo rsync -avx / [USERNAME-[NAS IP ADRESSE-NON-EN-EN-EN-DAM-EN-DAM-NAS-VUS-DAM-EN-DAM-NOM/NOTS/NOM DE LA VOLUME NOS/NOM
DE LA VOLUME/NOM DE L'ANRSE/NOM DE LA VO
10. Lorsque le processus sera terminé, vous verrez que vos fichiers sont maintenant sur votre NAS Synology dans le dossier que nous avons créé.
Conclusion – Comment utiliser Rsync sur un NAS de synthèse
Ce tutoriel a examiné comment utiliser Rsync sur un NAS de Synology. La première fois qu'il sera exécuté, tous les fichiers devront être sauvegardés,
ce qui prendra un peu plus de temps que les sauvegardes ultérieures. Rsync effectue des sauvegardes incrémentielles, ce qui signifie qu'il va voir les
fichiers qui sont modifiés et les sauvegarder jusqu'au NAS de Synology.
Ce processus n'est PAS automatisé. Vous ne pouvez sauvegarder vos machines que lorsque vous exécutez la commande. Si vous souhaitez automatiser
ce processus en utilisant des touches SSH et Cron, veuillez consulter notre tutoriel.
C'est toujours une bonne idée de soutenir votre NAS Synology hors site. Si vous êtes intéressé à faire cela, consultez nos tutoriels sur la façon de
soutenir votre NAS Synology sur un Raspberry Pi ou Backblaze B2 Merci d'avoir vérifié le tutoriel sur la façon d'utiliser Rsync sur un NAS de
Synology Si vous avez des questions sur la façon d'utiliser Rsync sur un NAS de Synology, laissez-les dans les commentaires.
Caractéristiques de Portainer
Portainer a toutes les fonctionnalités de Yacht, plus de nombreux éléments supplémentaires:
• Gestion des conteneurs: créer, démarrer, arrêter et surveiller les conteneurs Docker directement à partir de l'interface web. Vous pouvez
également accéder aux journaux, aux statistiques et aux détails de la console de chaque conteneur.
• Modèles d'applications: Déployer des modèles pré-construits pour des applications communes en quelques clics, en économisant du temps
pour la mise en place et le déploiement de nouveaux conteneurs.
• Contrôle d'accès basé sur les rôles (RBAC): Attribuer des rôles aux utilisateurs et gérer leur accès aux ressources.
• Gestion multi-environnement: vous pouvez gérer plusieurs environnements Docker (Docker standalone, Docker Swarm ou Kubernetes) à
partir d'une seule instance Portainer.
• Gestion du registre: Connectez-vous aux registres Docker et les gérer, ce qui facilite le stockage et la distribution de vos images Docker.
Modèles à Portainer
Il y a aussi des scénarios où vous pouvez installer Yacht et Portainer automatiquement, comme si vous utilisez OMV-extras et OpenMediaVault.
Kubernetes
Pour être clair, Kubernetes n'est pas une alternative directe à Docker, mais c'est une plate-forme d'orchestration de conteneurs qui vous permet de gérer
différents runtimes (un être Docker).
Kubernetes offre des possibilités de gestion et de mise à l'échelle des grappes, ce qui en fait une excellente alternative au déploiement de conteneurs à
grande échelle. Cela signifie que vous pouvez déployer et gérer des conteneurs à travers un groupe de machines, ce qui apporte de grands avantages
tels que la haute disponibilité et la tolérance aux pannes.
3. Ouvrez Docker, sélectionnez Registre, puis recherchez Syncthing et téléchargez la dernière image de serveur/synchronisation.
4. Une fois l'image terminée, double-cliquez dessus pour créer un nouveau conteneur.
4. Changez le réseau pour utiliser le même réseau que Docker hôte, puis sélectionnez suivante.
5. Changez le nom du conteneur en synchronisation, activez le redémarrage automatique, puis sélectionnez Paramètres avancés.
6. Créer deux variables d'environnement appelées PUID et GUID qui devraient être remplies avec les valeurs trouvées à l'étape deux ci-dessus.
Comme mentionné précédemment, cet utilisateur et ce groupe doivent avoir accès aux dossiers partagés que vous souhaitez que Syncthing puisse
accéder. Lorsque vous avez fini de les ajouter, sélectionnez Enregistrer, puis sélectionnez Suivant.
7. À l'écran suivant, sélectionnez Ajouter un dossier, puis sélectionnez le bouton Créer un dossier sous Docker et créez un dossier intitulé
Syncthing. Définissez le chemin de montage comme /config pour ce dossier (capture d'écran à l'étape suivante).
8. Ajoutez chaque dossier partagé folderauquel vous souhaitez accéder via Syncthing. Le nom de Mount Path peut être le nom du dossier.
Sélectionnez Next.
9. Si tout a l'air bien, sélectionnez Done pour créer le récipient.
10. Après le démarrage du conteneur, vous pouvez y accéder en utilisant l'URL ci-dessous (en substituant votre adresse IP Synology NAS).
NOTE: Si vous utilisez le pare-feu de Synology, créez une règle d'autorisation pour les ports TCP 8384 et 22000, ainsi que les ports UDP 22000 et
21027.
https://[SYNOLGY-NAS-IP-:8384
Synologie Émissions de dossiers partagés
La synchronisation est extrêmement finalement en matière d'autorisations. Pour éviter tout cela, vous pouvez faire fonctionner le récipient comme
racine, ce qui n'est généralement pas recommandé. Il y a quelques choses dont vous devez être conscient avant de passer à la configuration de
Syncthing.
1. Le PUID et le GUID de l'utilisateur défini ci-dessus doivent avoir l'autorisation de chaque dossier partagé que vous avez monté. Cela signifie que si
vous avez utilisé votre compte utilisateur personnel et le groupe « utilisateurs » (PGID 100), le groupe « utilisateurs » doit également avoir une
autorisation de lecture/écriture au dossier.
2. Si la corbeille est activée sur le dossier partagé, elle aura un dossier « recycle » à l'intérieur de celui-ci. Par défaut, seuls les administrateurs ont
l'autorisation de ce dossier, mais Syncthing jettera une erreur si le compte utilisateur n'a pas l'autorisation.
Pour contourner cela, éditez le dossier partagé dans le panneau de contrôle, puis décochez l'option de restriction d'accès aux administrateurs et
sauvegarder.
Cela permettra aux utilisateurs de voir ce qu'il y a à l'intérieur du dossier partagé, donc si vous ne voulez pas que tous les utilisateurs aient
l'autorisation à la corbeille, sautez jusqu'à la section suivante et ne le faites pas.
L'utilisateur que vous avez défini ci-dessus doit avoir l'autorisation du #recycledossier «recycler», mais cela ne signifie pas que tous les utilisateurs
doivent le faire. L'option ci-dessus donne à tous les utilisateurs l'autorisation du groupe « utilisateurs » à la corbeille.
Si vous préférez donner l'autorisation à un utilisateur individuel, ouvrez le Dossier partagé dans la station de fichier et faites un clic droit sur le
#recycle dossier «recycler», puis sélectionnez Propriétés.
Sélectionnez Autorisation, puis créez. À partir de là, vous pouvez sélectionner l'utilisateur, puis donner la lecture et l'écriture de l'autorisation au
dossier #recycle'recycler'. L'erreur aura disparu dans Syncthing.
Configuration de synchronisation – Comment mettre en place la synchronisation sur un NAS de synologie
1. Lorsque vous naviguez pour la première fois sur le site web, il vous sera demandé de partager un usage anonyme. Vous pouvez choisir oui ou non en
fonction de ce que vous préféreriez.
2. La prochaine chose que nous devrons faire est de définir un nom d'utilisateur et un mot de passe pour la GUI Syncthing. Sélectionnez Paramètres
dans la section Danger.
3. Sélectionnez GUI, puis définissez un utilisateur d'authentification GUI et un mot de passe d'authentification GUI, puis enregistrer. Après
avoir sauvegardé, vous serez invité à entrer le nom d'utilisateur et le mot de passe.
4. Vous pouvez maintenant sélectionner Ajouter un dossier en synchronisme, entrez une étiquette de dossier et un chemin de dossier (le chemin sera
ce que nous avons spécifié ci-dessus dans la trajectoire du mont), puis Enregistrer.
5. Si les permissions sont correctement définies, le dossier sera étiqueté comme non partagé. Vous pouvez maintenant synchroniser ce dossier avec un
serveur de synchronisation séparé.
Tout d'abord, si vous ne savez pas comment utiliser Docker Compose on a Synology NAS, j'ai créé un tutoriel sur la façon dont vous pouvez le faire.
Le tutoriel vous guidera à travers Docker et vous aidera à décider si Docker Compose est le bon choix pour vous. Ce tutoriel se concentrera sur la façon
dont vous pouvez mettre à jour Docker Compose puisque la version Docker Compose livrée avec un NAS Synology est assez ancienne.
Table des matières montrer
Instructions
1. Assurez-vous que Docker est installé. Docker Compose est automatiquement installé sur un NAS Synology, mais l'appareil doit être équipé de
Docker.
2. Assurez-vous que vous pouvez entrer dans votre NAS Synology. Ouvrez le panneau de commande, sélectionnez Terminal et SNMP, et Activez le
service SSH. Si vous utilisez le pare-feu de Synology, assurez-vous d’autoriser le trafic du port 22. J'ai créé une vidéo sur la façon de SSH dans votre
NAS de Synology si vous avez des problèmes.
3. Après que vous SSH dans l'appareil, exécutez la commande ci-dessous pour déterminer la version de Docker Compose que vous utilisez
actuellement.
Docker-compose -version
5. Sauvegarder le répertoire actuel en le renommant. Cela conservera le dossier sur votre NAS Synology, mais ne sera pas écrasé par la mise à jour.
sudo mv docker-compose docker-compose-back-back
6. Maintenant que le répertoire a été renommé, nous pouvons exécuter le script en dessous duquel mettra automatiquement à jour Docker Compose.
Veuillez noter qu'à la fin de la rédaction de ce tutoriel, la version 1.27.4 est la dernière version. Je voudrais héritier du côté de la prudence et ne pas
installer autre chose que la dernière version, mais vous devez mettre à jour la version ci-dessous (écrite en rouge) avec la dernière version. Vous
trouverez la dernière version sur ce lien.
sudo curl -L https://github.com/docker/compose/releases/download/1.27.4/docker-compose--uname-
sauname---------------------------------------------------------------------
NOTE: Si vous mettez à jour vers une version qui ne semble pas fonctionner, supprimer le dossier en exécutant la commande ci-dessous, puis
recommencer la commande ci-dessus avec la version précédente.
sudo rm docker-compose
7. Mettre à jour les autorisations afin que le dossier puisse être exécuté. Cette commande donne l'autorisation d'exécution au dossier en plus des
autorisations qu'il a actuellement.
sudo chmod x docker-compose
8. Docker Compose est maintenant mis à jour Vous pouvez exécuter à nouveau la commande ci-dessous pour confirmer que vous êtes à la version
1.27.4. Si vous êtes intéressé par l'apprentissage de la raison pour laquelle vous voudrez peut-être utiliser Docker Compose par opposition à Docker
GUI de Synology, je l'explique plus en détail dans les instructions vidéo.
Docker-compose -version
Sécurité
La sécurité est importante, peu importe ce que vous faites, mais les exigences de sécurité que vous avez devraient être déterminées d'emblée et vous
devriez comparer ces options aux offres que le système d'exploitation que vous avez l'intention d'utiliser.
Par exemple, si un pare-feu logiciel est une exigence clé, vous devez confirmer le système d'exploitation que vous utilisez le support.
Échelonnabilité
Les dispositifs NAS sont généralement des dispositifs individuels. Bien que vous puissiez configurer les données sur les dispositifs NAS pour qu'elles
soient hautement disponibles dans certaines situations, l'évolutivité réelle est limitée. Certains systèmes d'exploitation comme TrueNAS Scale sont
conçus avec l'évolutivité à l'esprit, mais les serveurs seront généralement mieux mis à l'échelle.
Conclusion et réflexions finales
Il n'y a pas nécessairement de bonne ou de mauvaise réponse lorsqu'on choisit entre un NAS et un serveur. La première chose à examiner est les
exigences réelles et essayer de les faire correspondre au bon système d'exploitation. Comme il y a tellement de systèmes d'exploitation différents que
vous pouvez utiliser, c'est généralement la première chose à vérifier.
Dès que vous sélectionnez un système d'exploitation à partir des exigences, jetez un œil au matériel que vous souhaitez utiliser. Cela permettra de
déterminer quelle option est la meilleure.
2. Après avoir installé, ouvrez le paquet, puis sélectionnez Enable HTTPS. Je recommande que vous n'hésifiiez pas HTTP car les justificatifs
d'identité envoyés avec la demande seront envoyés en texte clair (où elle est cryptée avec HTTPS).
Le port par défaut pour WebDAV HTTPS est de 5006, mais je recommanderais de le transformer en quelque chose de différent - peu importe quoi,
mais il devrait être différent de 5006.
3. À ce stade, le serveur WebDAV est entièrement configuré, mais nous allons aller plus loin en créant un utilisateur WebDAV.
Compte utilisateur pour WebDAV
Puisque la configuration d'un serveur WebDAV vous permettra d'accéder à vos fichiers à partir d'un serveur séparé, vous pourriez travailler avec
quelqu'un qui devrait avoir des droits sur les dossiers individuels partagés (ou simplement vouloir les séparer).
Dans ce cas, vous pouvez créer un compte utilisateur séparé et vous assurer que le compte n'a accès qu'aux dossiers partagés auxquels il a besoin pour
accéder.
1. Ouvrez le panneau de contrôle, sélectionnez Utilisateur et Groupe, puis Create. Entrez les informations, puis assurez-vous de ne pas accéder No
Access à tous les dossiers auxquels vous ne voulez pas que le compte utilisateur ait accès.
Ensuite, sélectionnez Read/Write ou Read Only en fonction de l'autorisation que l'utilisateur doit avoir aux dossiers partagés que vous souhaitez qu'ils
aient accès.
2. Dans la section Applications, refuser toute autorisation à l'exception de WebDAV.
3. Créez l'utilisateur et passez à l'étape suivante
Accès à distance pour un serveur WebDAV
Avant de pouvoir accéder au serveur WebDAV à distance, vous devez configurer un nom d'hôte ou un nom de domaine DDNS qui pointera vers votre
adresse IP externe. Si vous allez utiliser un nom de domaine, vous voudrez peut-être envisager d'utiliser un mandataire inverse pour éviter d'avoir à
transférer autre chose que le port TCP 443.
Si vous n'utilisez pas de proxy inverse et que vous ne prévoyez pas d'utiliser un nom d'hôte et un port DDNS, vous devrez également transférer le TCP
Port 5999 (ou tout ce que vous utilisez) pour le serveur WebDAV.
Exemple de port vers l'extérieur en utilisant pfSense
Certificat et pare-feu
La dernière étape avant le test est d'obtenir un certificat SSL valide (puisque nous utilisons HTTPS). Si vous utilisez DDNS, vous devez déjà avoir un
certificat SSL valide (saut à l'étape 3 si vous le faites), mais si vous ne l'êtes pas, vous pouvez suivre les étapes ci-dessous.
1. Ouvrez le panneau de contrôle, sélectionnez Sécurité, puis Certificats et Add a Nouveau certificat.
2. Sélectionnez ensuite Obtenir un certificat à partir de Let’s Encrypt, et entrez le nom de domaine et une adresse e-mail valide. Vous pouvez
ensuite obtenir le choix Done.
3. Enfin, sélectionnez Paramètres et changez le certificat de synlogie au certificat Let's Encrypt que vous venez d'obtenir à côté du serveur WebDAV.
4. Une recommandation globale (mais non obligatoire) est de limiter le serveur WebDAV à une adresse IP spécifique (ou une gamme d'adresses IP)
afin que le serveur WebDAV ne soit pas accessible par tout le monde.
Cela nécessite que vous configurez le pare-feu de Synology, mais c'est une étape extrêmement utile (et potentiellement nécessaire).
Configuration Mac
Sur macOS, appuyez sur Commande K pour se connecter à un serveur, puis tapez dans l'adresse web et le port. Vous devrez alors entrer les
identifiants pour vous connecter.
Conclusion: Comment configurer WebDAV sur un NAS de synologie
Ce tutoriel a cherché comment configurer WebDAV sur un NAS de Synology. Pour la plupart, il existe des situations uniques où la configuration d'un
serveur WebDAV a du sens. Dans presque tous les cas, vous devriez envisager de limiter le champ à une série d'adresses IP pour vous assurer que le
serveur n'est pas accessible à tout le monde.
Une autre meilleure pratique consiste à créer un utilisateur WebDAV spécifique afin que vous ne puissiez pas vous connecter en utilisant un autre
compte utilisateur NAS (assurez-vous simplement de révoquer l'accès sur les autres comptes utilisateur).
Merci d'avoir vérifié le tutoriel sur la façon de configurer WebDAV sur un NAS de Synology Si vous avez des questions sur la façon de configurer
WebDAV sur un NAS de Synology, laissez-les dans les commentaires.
2. Après la connexion, vous devriez voir les dossiers listés dans le site distant. Vous pouvez maintenant voir les fichiers auxquels vous avez la
permission.
Conclusion: Comment mettre en place un serveur FTP/SFTP sur un NAS de Synology
Pour la plupart, l'utilisation d'un serveur SFTP n'est pas aussi souvent que possible car vous pouvez utiliser divers outils comme Synology Drive via
des services tels que Synology QuickConnect et éviter le transfert de ports. Cependant, il y a des cas où un serveur SFTP est utile, et dans des cas
comme celui-là, c'est la façon de le configurer.
Merci d'avoir vérifié le tutoriel sur la façon de configurer un serveur FTP/SFTP sur un NAS de Synology. Si vous avez des questions sur la façon de
mettre en place un serveur FTP/SFTP sur un NAS Synology, veuillez les laisser dans les commentaires.
2. Sélectionnez Ajouter puis ajouter le type de stockage que vous souhaitez utiliser. Dans cet exemple, je vais utiliser NFS, mais vous pouvez utiliser
tout ce que vous voulez.
3. Sur l'écran NFS, créez un ID, puis entrez l'adresse IP de votre serveur NFS. Dans le menu déroulant Exporter, l'emplacement de votre dossier
Proxmox doit apparaître automatiquement (en supposant qu'il a été configuré avec les autorisations NFS appropriées - utilisez ce tutoriel Synology si
vous êtes intéressé à voir la section d'autorisation NFS).
Dans la liste déroulante du contenu, sélectionnez TOUTES les rubriques. Vous pouvez ensuite sélectionner Ajouter.
4. Proxmox devrait maintenant montrer le stockage que nous avons créé ci-dessus. À ce stade, vous pouvez passer à la partie de secours.
2. Sélectionnez le stockage pour votre part (NFS/Proxmox Backup Server, etc.), puis spécifiez le mode Schedule, Selection, Compression et Mode.
3. Vous pouvez également modifier la politique de rétention pour ne conserver qu'un certain nombre de versions en sélectionnant l'onglet Rétention.
Sans spécifier de politique de rétention, toutes les sauvegardes seront stockées, ce qui réduira considérablement l'espace de stockage sur votre
serveur externe au fil du temps.
4. Vos machines virtuelles se remettront automatiquement sur votre serveur externe après que vous ayez sélectionné Create
4. Toutes les informations peuvent rester par défaut (sauf si vous souhaitez les démarrer automatiquement après la restauration), puis sélectionnez
Restore.
5. Vous recevrez un message indiquant que cela effacera en permanence la machine virtuelle existante. Si vous êtes d'accord, sélectionnez Oui. Votre
machine virtuelle va maintenant être restaurée à partir de la sauvegarde que vous avez sélectionnée.
Il existe de nombreuses façons de mettre à jour les conteneurs Docker, mais Portainer rend le processus assez simple.
Pour faire la démonstration de la façon de mettre à jour un conteneur Docker en utilisant Portainer, je vais mettre à jour un conteneur Nginx Proxy
Manager. Actuellement, je gère une ancienne version (2.3.1) et nous allons la mettre à jour jusqu'à la dernière version.
Avant de commencer ce processus, assurez-vous que votre conteneur est correctement créé et que des volumes existent avec vos données
importantes. Si les données ne sont pas mappées à un dossier local, elles seront écrasées par les données d'image les plus récentes.
Table des matières montrer
2. Il installera Portainer et sera accessible par l'adresse IP du poste de travail et le port 9000. Quand vous y arrivez, créez un nom d'utilisateur et un mot
de passe.
http://[WORKSTATION-IP-ADDRESS-:9000
3. Sélectionnez Docker et Connect.
4. Sélectionnez Local.
Mise à jour des conteneurs Docker à l'aide de Portainer
Maintenant que Portainer est installé, vous pouvez exécuter les étapes ci-dessous pour mettre à jour Docker Containers.
1. Sélectionnez Conteneurs, puis arrêtez le conteneur que vous souhaitez mettre à jour.
2. Sélectionnez le conteneur, et vous verrez un bouton nommé Recreate. En sélectionnant ce bouton, le conteneur prendra les données persistantes et
recréera le récipient. Gardez à l'esprit que les seules données qui resteront sur le conteneur sont des données qui ont été mises en correspondance avec
un volume. Ceci est expliqué plus en détail dans la vidéo ci-dessus.