StageVidal » Historique » Version 41
« Précédent -
Version 41/83
(diff) -
Suivant » -
Version actuelle
Maurice Vidal, 21/05/2012 22:44
StageVidal¶
Références : http://chiliproject.tetaneutral.net/projects/tetaneutral/wiki/Stages2012
NickName sur l'IRC de l'association :
_Mvidal_
TODO¶
outils de communication de fichier IRC
http://paste.debian.net/164858/
http://pastebin.com
Tutoriel SSH :¶
L'objectif présenté ici est de mettre en place une connexion sécurisée entre un client et un serveur à travers une zone non fiable (Internet) grâce à un tunnel crypté. Nous nous serviront d'un système de clé SSH qui servira à nous authentifier : une clé privée que nous garderons sur le poste local, et une clé publique que nous mettrons dans le serveur.
Nous allons prendre comme exemple, le poste distant de l'association pvm3.tetaneutral.net (qui jouera le rôle du serveur), et comme poste local, pc_local.
Sur le poste distant il faut installer le package openssh-server :
aptitude install openssh-server
Et sur le poste local il faut installer le package openssh-client :
aptitude install openssh-client
Configuration du poste local :¶
Nous allons commencer par générer une clé SSH.
ssh-keygen
(/root/.ssh/id_rsa) :
enter passphrase :
enter same passphrase :
Par défaut la clé publique sera créée au nom de /root/.ssh/id_rsa.pub et la clé privée au nom de /root/.ssh/id_rsa.
En laissant chacun de ces champs vides, le chemin sera celui utilisé par défaut et aucune passphrase ne sera nécessaire. La passphrase sert uniquement à protéger la clé privé si on craint de ne pas la garder en sûreté sur son poste local.
On vérifie que les clés soient bien créées (exemple type) :
ls /root/.ssh/
id_rsa id_rsa.pub know_hosts
Configuration du poste distant :¶
Nous allons modifier le fichier de configuration se trouvant dans /root/.shh/authorized_keys pour venir y ajouter la clé publique (id_rsa.pub) du poste local, ce lui permettra de venir se connecter au serveur
Si nous avons récupéré la clé publique sur le serveur, nous pouvons l'insérer dans le fichier des clés autorisées :
cat id_rsa.pub >> ~/.ssh/authorized_keys
Le fichier de configuration pour le démon SSHD se situe à /etc/ssh/sshd_config, on le modifie pour améliorer la sécurité. Quelques options importantes :
- ListenAddress X.X.X.X:X Change le port dâécoute, ainsi lâintrus ne peut être complètement sûr de lâexécution dâun démon SSHD (câest de la sécurité par lâobscurité).
- Protocole 2 Désactiver le protocole version 1, car il a des défauts de conception qui facilite le crack de mots de passe.
- PermitRootLogin no Cette option permet de ne pas autoriser la connexion en root sur la machine.
- PermitEmptyPasswords no Les mots de passe vides sont un affront au système de sécurité.
- PasswordAuthentication yes Il est plus sûr dâautoriser lâaccès à la machine uniquement aux utilisateurs avec des clés SSH placées dans le fichier /root/.ssh/authorized_keys, il faut donc placer cette option à "no".
- SyslogFacility AUTH Fichiers journaux.
- LogLevel INF Fichiers journaux. *
Une fois le fichier de configuration prêt, il ne reste plus qu'à relancer le service :
/etc/init.d/ssh reload
Commandes utiles :¶
Se connecter en SSH sur le port 443 de la machine pvm3 de tetaneutral.net :
ssh -p 443 root@pvm3.tetaneutral.net
Copier le fichier distant /var/log/mail.log sur son poste local (il ne faut pas être connecté en SSH) :
scp -P 443 root@pvm3.tetaneutral.net:/var/log/mail.log /tmp/
Inversement pour copier un fichier local vers un poste distant (ne pas être connecté en SSH)
scp -P 443 fichier_local root@pvm1.tetaneutral.net:/home/maumau/lol.txt
Pour se déconnecter :¶
CTRL + d
Voir les log de ssh :¶
tailf /var/log/auth.log
PROJET PUPPET : DRBD + MX REDONDANT¶
Roadmap¶
Semaine 01, 09/04 - 13/04 : Prise en main de l'existant (SSH, IRC, Machines Virtuelles)
Semaine 02, 16/04 - 20/04 : Documentation sur le gestionnaire Puppet
Semaine 03, 23/04 - 28/04 : Maîtrise et configuration de Puppet
Semaine 04, 30/04 - 04/05 : Déploiement de Bind, Unbound et de Postfix via Puppet
Semaine 05, 07/05 - 11/05 : Documentation sur DRBD
Semaine 06, 14/05 - 18/05 : Mise en place d'un MX redondant grâce à DRBD
Aides Tutoriels sur Puppet¶
http://doc.ubuntu-fr.org/puppet
http://www.crium.univ-metz.net/docs/system/puppet.html
http://www.octopuce.net/Puppet-Administration-systeme-centralisee
http://bitfieldconsulting.com/puppet-tutorial-2
http://www.craigdunn.org/2010/08/part-2-puppet-2-6-1-configure-pvm1-and-puppetd/
http://docs.puppetlabs.com/guides/environment.html
http://projects.puppetlabs.com/projects/puppet/wiki/Simplest_Puppet_Install_Pattern
http://chiliproject.tetaneutral.net/projects/tetaneutral/wiki/PUPPET
http://finninday.net/wiki/index.php/Zero_to_puppet_in_one_day
http://madeinsyria.net/2011/06/howto-puppet-administration-et-industrialisation-de-masse/
http://jeyg.info/mise-en-place-de-puppet-un-gestionnaire-de-configuration-linuxunix/
http://www.deimos.net/blocnotesinfo/index.php?title=Puppet_:_Solution_de_gestion_de_fichier_de_configuration
http://bitfieldconsulting.com/puppet-tutorial
http://www.unixgarden.com/index.php/gnu-linux-magazine/les-sysadmins-jouent-a-la-poupee
Aides Tutoriels sur DRBD¶
http://wapiti.telecom-lille1.eu/commun/ens/peda/options/ST/RIO/pub/exposes/exposesrio2007/legrand-playez/howto.htm
http://www.drbd.org/users-guide-emb/p-work.html
http://doc.ubuntu-fr.org/drbd
http://doc.ubuntu-fr.org/tutoriel/mirroring_sur_deux_serveurs
Aides Tutoriels sur UnBound¶
http://www.deimos.net/blocnotesinfo/index.php?title=Fichier:Installing_And_Using_The_Unbound_Name_Server.pdf
http://unbound.net/documentation/index.html
http://www.howtoforge.com/installing-using-unbound-nameserver-on-debian-etch
http://www.bortzmeyer.org/unbound.html
Aides Tutoriels sur BIND¶
http://fr.wikibooks.org/wiki/Le_syst%C3%A8me_d%27exploitation_GNU-Linux/Le_serveur_de_noms_Bind
http://www.deimos.net/blocnotesinfo/index.php?title=Installation_et_configuration_d%27un_serveur_Bind9_primaire_(Master)
http://www.howtoforge.com/traditional_dns_howto
http://coagul.org/drupal/article/installation-d%E2%80%99-serveur-dns-bind-9-sur-debian
Aides Tutoriels sur Postfix Ldap¶
http://www.bizeul.net/?2005/05/27/7-serveur-de-messagerie-multi-domaines-avec-postfix-openldap-et-courier
http://www.mp-poissy.ac-versailles.net/Formations/05-06/Pdf/courrier_ldap.pdf
http://blog.wains.be/2010/01/25/postfix-virtual-usersgroupsaliases-stored-in-ldap/
http://wiki.linuxwall.info/doku.php/fr:ressources:dossiers:postfix:ldap
http://www.mp-poissy.ac-versailles.net/Formations/05-06/Pdf/courrier_ldap.pdf
http://www.404blog.net/?p=36
http://www.linux-france.org/prj/inetdoc/cours/admin.reseau.ldap.synthese/admin.reseau.ldap.srvr.html
Questions¶
A propos du DRBD + MX redondant¶
j'aurais voulu savoir si il faut que l'on mette en place 1 Bind et 1 Unbound et que l'on y fasse un DRBD sur les sections /etc de chacun de ces deux serveurs ?
Réponse : il y a trois choses séparées :
- configurer deux VM une avec bind et une avec unbound. Comme une partie des fichiers de configuration sont différents pour le moment pas de DRBD, juste bien documenter.
- configurer deux VM qui ont un bout de disque répliqué avec DRBD, bien documenter le setup DRBD
- configurer deux VM qui sont MX primaire et secondaire d'un domaine, verifier que ça marche. Ensuite essayer de rajouter DRBD pour rendre le setup totalement fiable dans le sens qu'aucune perte de mail entrant n'est possible.
A chaque fois l'objectif "documenter" est bien sur d'utiliser Puppet
La partie DRBD du MX viendra uniquement à la fin, c'est la plus complexe.
PUPPET : Déploiement de BIND et UNBOUND (sur deux machines)¶
Puppet est ce que lâon peut appeler un gestionnaire de configuration.
Câest un outil qui facilite le contrôle et la mise à jour de configurations tout en offrant la possibilité de faire abstraction de lâOS et de lâarchitecture concernée. Puppet va permettre de déployer des fichiers, des services, des packages, des commandes et même un cron au travers de clients qui deviendront des Serveurs (exemple : BIND, UNBOUND).
Puppet est donc un outil de centralisation de lâadministration de systèmes hétérogènes ou homogènes
Au travers du serveur puppet (Pvm1), chaque machine, appelée noeud (node), fait tourner Puppetd, qui :
Applique la configuration initiale pour le noeud concerné.
Applique les nouveautés de configuration au fil du temps.
Sâassure de manière régulière que la machine correspond bien à la config voulu.
La communication est assurée via des canaux chiffrés, en utilisant le protocole HTTPS de communication de ruby, et donc SSL (une mini-pki est fournie). Pvm1 sait servir :
des recettes de configuration (recipes)
des fichiers
des modèles (qui sont des fichiers avec des variables de remplacement)
des objets ruby (câest là lâextensibilité de lâapplication)
Et bien évidemment : Puppet est un logiciel libre écrit en Ruby, multiplateforme : BSD (Free, MacOS ...), Linux (Redhat, Debian, Suse ...), Sun (OPENSolaris ...).
Puppet fournit un langage déclaratif simple :
classes (permet de définir les configurations de chaque service)
héritage (permet de regrouper les configurations communes)
types dâobjets particuliers (définis par puppet, ou par des modules) fonctions utilisateur
abonnement dâinstances à dâautres instances (ex : un service est abonné à son fichier de conf, la modif de lâun entraînera le redémarrage de lâautre)
Exemples de types dâobjets internes :¶
File, permet de demander quâun fichier existe, dispose de certains droits, et corresponde éventuellement à un certain contenu, fournit statiquement, ou à travers un modèle (template) avec substitution de variables.
Service, permet de déclarer un service, de sâassurer quâil fonctionne, de le redémarrer dans certaines conditions (par exemple quand la configuration est modifiée).
Package, permet de demander lâinstallation, la mise à jour ou la désinstallation dâun package, en utilisant le système de packaging natif de lâOS utilisé (ports, deb, packages MacosX etc.)
User, permet de gérer les utilisateurs UNIX (dans /etc/passwd) indépendemment de lâOS utilisé.
Puppet fonctionne selon le modèle client/serveur :¶
Pré-requis :
Comme nom de domaine nous prenons un sous-domaine de l'association : testdomain1.tetaneutral.net
Et les adresses IP sont donc :
pvm1 : 91.224.149.35
pvm2 : 91.224.149.36
pvm3 : 91.224.149.37
pvm4 : 91.224.149.38
pvm5 : 91.224.149.30
Installation de Puppet¶
Serveur : # apt-get install pvm1
Clients : # apt-get install puppet
Ici nous utilisons la version 2.6.2 de Puppet. Lors de lâinstallation, un utilisateur « puppet » sera créé.
Tout d'abord il faut que le fichier hosts de chaque client référence l'adresse IP, le hostname et le FQDN du serveur. Ainsi il faut rajouter dans /etc/hosts :
91.224.149.35 pvm1 pvm1.testdomain1.tetaneutral.net
De même sur le serveur il faut rajouter les noms des 3 machines clientes de la même façon.
A ce stade nous n'avons pas de serveurs DNS, justement nous allons le(s) déployer :)
Il est important (si l'on a un pare-feu) d'ouvrir les ports 8140 coté serveur :
iptables -A INPUT -p tcp -m state --state NEW -s 91.224.149.0/24 --dport 8140 -j ACCEPT
De plus il est important de pouvoir regarder les logs (tant sur le serveur que sur les clients) :
tailf /var/log/daemon.log
Configuration de Puppet¶
DEMANDE DE CERTIFICAT
Serveur :
Il faut modifier le fichier /etc/puppet/puppet.conf, il doit ressembler à ceci :
[main] logdir=/var/log/puppet vardir=/var/lib/puppet ssldir=/var/lib/puppet/ssl rundir=/var/run/puppet factpath=$vardir/lib/facter templatedir=$confdir/templates [master] report=true reports=log,store modulepath=/etc/puppet/modules
Clients :
Ici il faut rajouter le FQDN (ou Hostname s'il n'y a pas de domaine) du serveur, ainsi dans /etc/puppet/puppet.conf :
[main] ... server=pvm1.testdomain1.tetaneutral.net
Une fois cette modification faite, il n'y pas plus qu'à demander au serveur Puppet de signer notre certificat, car rappelons que PUPPET utilise le SSL, il est donc plus sécurisé qu'un NFS.
pvm2# puppetd --waitforcert 60 --test
ou
pvm2# puppet agent --waitforcert 60 --test
Le serveur va ensuite visualiser les demandes :
pvm1#puppetca --list
Puis il va signer les demandes :
pvm1#puppetca --sign pvm2
ou
pvm1#puppetca --sign --all (pour tous d'un coup)
Le serveur est prêt à l'emploi, et les clients ont un certificat signé. Passons à une configuration axé sur le déploiement de Bind et d'Unbound.
Tout d'abord laissez moi vous montrer à quoi va ressembler l'arborescence de votre serveur puppet :
Afin d'utiliser Puppet un minimum, nous allons lui demander de déployer UNBOUND sur une machine cliente (pvm2). Il va falloir configurer le serveur, ainsi /etc/puppet/fileserver.conf :
[files] path /etc/puppet/files allow *.testdomain1.tetaneutral.net
Nous venons d'autoriser seulement les machines provenant du domaine à pouvoir recevoir des fichiers du répertoire /etc/puppet/files/
Il faut également créer le fichier : /etc/puppet/namespaceauth.conf et y rajouter :
[puppetrunner] allow *
Le daemon du client va initialement interroger le fichier /etc/puppet/manifests/site.pp du serveur, c'est pourquoi dans ce fichier nous allons importer tous les fichiers .pp (spécialement conçu pour Puppet).
/etc/puppet/manifests/site.pp :
import "node" import "modules.pp" import "cron"
Ensuite pour éviter de déployer UNBOUND sur tous les nodes, nous allons spécifier lesquels vont recevoir la classe UNBOUND que nous créerons (dans le fichier init.pp du module Unbound). Ainsi dans le fichier /etc/puppet/manifests/node.pp :
node basenode { include crontab } node 'pvm2.testdomain1.tetaneutral.net' inherits basenode { include bind, resolv } node 'pvm3.testdomain1.tetaneutral.net' inherits basenode { include unbound, resolv }
Ici nous créons un faux node (client puppet) nommé basenode en lui incluant la classe "crontab", et les nodes puppetli1 et pvm3 héritent de basenode (autrement dit de la classe crontab). Ensuite nous leurs attribuons la classe unbound et resolv pour pvm2 puis bind et resolv pour pvm3.
Il faut également créer le fichier /etc/puppet/manifests/modules.pp qui va référencer les modules du serveur :
import "unbound" import "bind"
On peut appeler un module, le nom d'un répertoire, en effet il est recommandé de créer des modules pour chaque service afin de rendre la configuration plus souple.
Pour finir sur la configuration de base, nous allons mettre en place un cron qui se déploiera sur les clients afin de lancer une synchronisation avec le serveur, ainsi quand le cron arrive à son échéance (15 minutes) il va permettre de checker toutes modifications du client puppet. Donc on va créer le fichier /etc/puppet/manifests/cron.pp :
class crontab { cron { "synchronisation puppet": command => "/usr/sbin/puppetd --test --server=pvm1.testdomain1.tetaneutral.net", minute => "*/15" } }
Passons à la configuration des modules :
Création des modules :¶
mkdir -p /etc/puppet/modules/unbound/{files,manifests,templates}
mkdir -p /etc/puppet/modules/bind/{files,manifests,templates}
Le dossier MANIFESTS permet de répertorier le fichier init.pp qui défini le coeur du module.
Le dossier FILES contient les fichiers statiques, ceux qui ne changent pas d'un node à l'autre.
Le dossier TEMPLATES contient les fichiers de configurations variant d'un hôte à l'autre.
Maintenant que les modules sont crées, nous plaçons le fichier de configuration d'Unbound que voici : /etc/puppet/modules/unbound/files/unbound.conf :
Ici nous faisons la résolution du domaine : testdomain1.tetaneutral.net avec pour serveur DNS : pvm3
### Simple recursive caching DNS ## /etc/unbound.conf server: verbosity: 1 outgoing-range: 60 interface: 91.224.149.37 do-ip4: yes do-udp: yes do-tcp: yes access-control: 0.0.0.0/0 allow #On autorise lâensemble dâINTERNET à interroger le DNS chroot: "" #Pas de chroot par défaut logfile: "/var/log/unbound.log" #On défini le fichier de log use-syslog: no #Log par défaut dans syslog hide-identity: yes hide-version: yes harden-glue: yes #On dit que le serveur fait autorité sur la zone private-domain: "testdomain1.tetaneutral.net." #On définit le suffix dns du réseau local local-zone: "testdomain1.tetaneutral.net." static #on définit qui s'occupe de quoi dans le domaine local-data: "testdomain1.tetaneutral.net. IN MX 10 pvm5.testdomain1.tetaneutral.net." #serveur Postfix pvm5 local-data: "testdomain1.tetaneutral.net. IN MX 20 pvm4.testdomain1.tetaneutral.net." #serveur Postfix pvm4 local-data: "testdomain1.tetaneutral.net. IN NS pvm3.testdomain1.tetaneutral.net." #service DNS local-data: "pvm1.testdomain1.tetaneutral.net. IN A 91.224.149.35" #résolution : nom -> adresse local-data: "pvm2.testdomain1.tetaneutral.net. IN A 91.224.149.36" local-data: "pvm3.testdomain1.tetaneutral.net. IN A 91.224.149.37" local-data-ptr: "91.224.149.35 pvm1.testdomain1.tetaneutral.net." #résolution inverse : adresse -> nom local-data-ptr: "91.224.149.36 pvm2.testdomain1.tetaneutral.net." local-data-ptr: "91.224.149.37 pvm3.testdomain1.tetaneutral.net." python: remote-control: forward-zone: name: "." forward-addr: 91.224.149.254 # DNS Faisant Authorité à tetaneutral.net
Passons à la configuration du fichier principal : /etc/puppet/modules/unbound/manifests/init.pp :
class unbound { package { unbound: ensure => installed } file { "/etc/unbound/unbound.conf": require => package["unbound"], notify => Service["unbound"], mode => 644, owner => "root", group => "root", source => "puppet:///modules/unbound/unbound.conf" } service { unbound: ensure => running, enable => true } } class resolv { file { "/etc/resolv.conf": require => Class["unbound"], ensure => present, content => "domain testdomain1.tetaneutral.net search testdomain1.tetaneutral.net nameserver $ipaddress" } }
Pour la classe "unbound", nous venons de lui permettre d'installer le paquet UNBOUND, de lui déployer le fichier de configuration sur /etc/unbound/unbound.conf afin de remplacer l'existant et ensuite nous lui avons forçer le démarrage du daemon UNBOUND. Lors du déploiement d'un fichier, dans le paramètre SOURCE, remarquons qu'il n'est pas nécessaire de référencer le répertoire "files" dans le module, grâce au protocole qui est défini ici : puppet:///
Quant à la classe "resolv" est de type TEMPLATES, c'est à dire qu'elle est dynamique, elle s'adapte à l'hôte grâce à son adresse IP qui est remonté grâce aux facts (outils facter qui est compréhensible par PUPPET). En effet Facter est un outil associé à puppet, chargé dâénumérer les paramètres locaux dâun système :
Adresse IP
Hostname
Distribution et version
Toutes autres variables locales définies par lâutilisateur.
Il est disponible sur les noeuds utilisant Puppetd, il fournit des variables utilisables dans les templates puppet.
Configuration du module BIND
Voici le fichier de configuration /etc/puppet/modules/bind/manifests/init.pp :
class bind { package { bind9: ensure => installed } file { "/etc/bind/named.conf.local": require => package ["bind9"], ensure => present, mode => 644, owner => "root", group => "bind", source => "puppet:///modules/bind/named.conf.local" } file { "/etc/bind/named.conf.options": require => package ["bind9"], ensure => present, mode => 644, owner => "root", group => "bind", source => "puppet:///modules/bind/named.conf.options" } file { "/var/cache/bind/db.testdomain1.tetaneutral.net": require => package ["bind9"], ensure => present, mode => 644, owner => "root", group => "bind", source => "puppet:///modules/bind/db.testdomain1.tetaneutral.net" } file { "/var/cache/bind/rev.testdomain1.tetaneutral.net": require => package ["bind9"], ensure => present, mode => 644, owner => "root", group => "bind", source => "puppet:///modules/bind/rev.testdomain1.tetaneutral.net" } service { bind9: ensure => running, enable => true , require => package ["bind9"], } }
Ici nous installons (si BIND n'est pas installé) le paquet, puis lui déployons les fichiers de configurations, puis le forçons à être démarré. Nous lui attribuons les droits 644 (par défaut sur Bind), puis le propriétaire root et le groupe bind.
Pareillement, ici nous remarquons que pour déployer le fichier, il n'est pas nécessaire de référencer le répertoire "files" dans le module, grâce au protocole qui est défini ici : puppet:///
Passons aux fichiers de configurations : /etc/puppet/modules/bind/files/named.conf.local :
// La zone primaire testdomain1.tetaneutral.net zone "testdomain1.tetaneutral.net" { type master; file "/var/cache/bind/db.testdomain1.tetaneutral.net"; }; // La zone inverse zone "149.224.91.in-addr.arpa" { type master; file "/var/cache/bind/rev.testdomain1.tetaneutral.net"; };
Puis le fichier : /etc/puppet/modules/bind/files/named.conf.options :
options { directory "/var/cache/bind"; forwarders { 91.224.149.254; 91.224.148.10; 8.8.8.8; }; auth-nxdomain no; # conform to RFC1035 listen-on { any; }; allow-query { any ; }; };
Le fichier de zone primaire TESTDOMAIN1.TETANEUTRAL.net : /etc/puppet/modules/bind/files/db.testdomain1.tetaneutral.net :
; ; BIND data file for testdomain1.tetaneutral.net ; $TTL 604800 @ IN SOA pvm2.testdomain1.tetaneutral.net. admin.testdomain1.tetaneutral.net. ( 201205091 ; Serial 604800 ; Refresh 86400 ; Retry 2419200 ; Expire 604800 ) ; Negative Cache TTL @ IN NS pvm2.testdomain1.tetaneutral.net. pvm1 IN A 91.224.149.35 pvm2 IN A 91.224.149.36 pvm3 IN A 91.224.149.37 pvm4 IN MX 0 91.224.149.38 pvm5 IN MX 10 91.224.149.30
Et pour finir le fichier de zone inverse ARPA : /etc/puppet/modules/bind/rev.testdomain1.tetaneutral.net :
; ; BIND data file for 91.224.149 ; $TTL 604800 @ IN SOA pvm2.testdomain1.tetaneutral.net. ( 201209051 ; Serial 604800 ; Refresh 86400 ; Retry 2419200 ; Expire 604800 ) ; Negative Cache TTL @ IN NS pvm2.testdomain1.tetaneutral.net. 35 IN PTR pvm1.testdomain1.tetaneutral.net. 36 IN PTR pvm2.testdomain1.tetaneutral.net. 37 IN PTR pvm3.testdomain1.tetaneutral.net. 38 IN PTR pvm4.testdomain1.tetaneutral.net. 30 IN PTR pvm5.testdomain1.tetaneutral.net.
Configuration des templates¶
Variables prédéfinie:
Ici nous allons vous montrer comment on peut adapter les fichiers de configurations que nous déployons suivant le node.
Ainsi chaque node aura un paramètre différent dâun autre node, il sâagit du template. Nous allons prendre le cas du fichier de configuration dâUnbound. Sur le serveur Puppet il faut déplacer le fichier /etc/puppet/modules/unbound/files/unbound.conf dans /etc/puppet/modules/unbound/templates/unbound.conf.erb.
En effet lorsquâon créé un template, il doit être sous lâextension "erb".
En effet nous allons nous servir de la variable "ipaddress" disponible grâce à lâoutil facter, ainsi en étant sur le client, il suffit de lancer la commande : pvm2 # facter pour obtenir les informations des variables de la machine locale.
Nous allons renseigner la variable "ipaddress" grâce aux balises de début: <%= et aux balises de fin: %>
Ainsi :
Pvm1 head /etc/puppet/modules/unbound/templates/unbound.conf.erb
server: verbosity: 1 outgoing-range: 60 interface: <%= ipaddress %> do-ip4: yes do-udp: yes do-tcp: yes access-control: 91.224.149.0/24 allow chroot: "" logfile: "/var/log/unbound.log"
A chaque fois que nous utiliserons les fichiers templates, il faudra changer le chemin source du fichier du serveur Puppet du fichier init.pp, dans cet exemple : /etc/puppet/modules/unbound/manifests/init.pp :
On remplace : source => "puppet:///modules/unbound/unbound.conf"
Par : content => template("/etc/puppet/modules/unbound/templates/unbound.conf.erb"),
Création de variables:¶
Nous allons maintenant créer des variables qui sâutiliseront uniquement sur les nodes définis. Nous poursuivons sur lâexemple dâUnbound qui se déploiera sur le client : pvm2.testdomain1.tetaneutral.net. Dans un premier temps il faut créer la variable dans le fichier /etc/puppet/manifests/node.pp :
node âpvm2.testdomain1.tetaneutral.net' inherits basenode {
$network = â91.224.149.0â
include bind }
Puis lâappliquer sur le fichier /etc/puppet/modules/unbound/templates/unbound.conf.erb :
Pvm1 head /etc/puppet/modules/unbound/templates/unbound.conf.erb
server: verbosity: 1 outgoing-range: 60 interface: <%= ipaddress %> do-ip4: yes do-udp: yes do-tcp: yes access-control: <%= network %>/24 allow chroot: "" logfile: "/var/log/unbound.log"
La mise en place de templates permet de gagner sensiblement du temps sur la configuration des postes, câest dâailleurs pour cette utilisation que lâoutil facter a été développé. En effet Puppet sert surtout pour les déploiements massifs, le gain de temps et d'énergie est ainsi effectif.
LANCEMENT DE LA SYNCHRONISATION :¶
Sur le serveur, il faut initier la connexion :
puppetmasterd --no-daemonize --debug
Nous lançon le daemon en mode test, c'est à dire non-démon afin de débugger et vérifier que tout se déroule convenablement.
Si on rencontre un problème tel que :
Could not run: Could not create PID file: /var/run/puppet/master.pid
Il faut alors supprimer le fichier sur le serveur : # rm /var/run/puppet/master.pid relancer la commande :
puppetmasterd --no-daemonize --debug
Sur les clients on va vérifier le fichier du serveur /etc/puppet/site.pp avec la commande :
puppetd --test --server=pvm1.testdomain1.tetaneutral.net
A savoir qu'un cron est mis en place afin d'éviter aux clients de renouveler cette commande manuellement, il faut noter que la commande du serveur : "puppetmasterd --no-daemonize -d" ne doit pas être arrêtée.
Mise en place d'un DRBD et GFS2 par Puppet¶
TOUT CE QUI EST DIT A PARTIR DE MAINTENANT DOIT ETRE IDENTIQUE SUR LES DEUX MACHINES, LANCER LES COMMANDES EN MEME TEMPS :
Nous avons besoins de deux nouvelles machines :
Hostname : pvm4 = IP : 91.224.149.38
Hosntame : pvm5 = IP : 91.224.149.30
Installation :¶
Au préalable il faut un second disque dur sur chaque machines, de taille minimale de 2G. normalement il apparait tel que : /dev/vdb.
Nous le partitionnons :
cfdisk /dev/vdb
NEW => LOGIQUE => Taille totale (faites entré) => WRITE => yes => "q" pour sortir
A la suite de cela, nous obtenons la partition : /dev/vdb5.
Installation des outils :¶
Sur le pvm1, nous allons créer deux nouveaux modules :
mkdir -p /etc/puppet/modules/drbd/{files,manifests,templates}
mkdir -p /etc/puppet/modules/gfs2/{files,manifests,templates}
Puis on rajoute nos deux modules dans le fichier /etc/puppet/manifests/modules.pp :
import "drbd" import "gfs2"
Commençons par l'installation de drbd :
vi /etc/puppet/modules/drbd/manifests/init.pp
class drbd::package { package { "drbd8-utils": ensure => installed } } class drbd::fic { exec { "modprobe": require => Class["drbd::package"], command => "/sbin/modprobe drbd" } file { "/etc/drbd.d/global_common.conf": require => Class["drbd::package"], ensure => present, source => "puppet:///modules/drbd/global_common.conf" } file { "/etc/drbd.d/r0.res": require => Class["drbd::package"], ensure => present, content => template("/etc/puppet/modules/drbd/templates/r0.res.erb") } } class drbd::command { exec { "create_ressource": require => File["/etc/drbd.d/r0.res"], command => "/sbin/drbdadm create-md r0" } exec { "start_drbd": require => create_ressource"], command => "/usr/sbin/service drbd start" } } class drbd::cron1 { file { "/root/overwrite.sh": ensure => present, source => "puppet:///modules/drbd/overwrite.sh" } file { "/root/mkfs.sh": ensure => present, source => "puppet:///modules/drbd/mkfs.sh" } } class drbd::cron1.1 { cron { "cron_over": require => Class["drbd::cron1"], command => "/root/overwrite.sh", hour => "*/2" } cron { "cron_mkfs": require => Class["drbd::cron1"], command => "/root/mkfs.sh", hour => "*/3", minute => "*/10" } } class drbd::cron2 { file { "/root/primary.sh": ensure => present, source => "puppet:///modules/drbd/primary.sh" } } class drbd::cron2.2 { cron { "cron_primary": require => Class["drbd::cron2"], command => "/root/primary.sh", hour => "*/3" } } class cron_supp { file { "/root/supp.sh": ensure => present, source => $hostname ? { pvm4 => "puppet:///modules/drbd/supp.pvm4.sh", pvm5 => "puppet:///modules/drbd/supp.pvm5.sh" } } cron { "delete_cron": require => File["/root/supp.sh"], command => "/root/supp.sh", hour => "*/3", minute => "35" } }
Puis nous mettons à disposition le fichier de configuration de drbd,
vi /etc/puppet/modules/drbd/files/global_common.conf
global { usage-count no; } common { protocol C; syncer { rate 100M; } }
Et on utilise un template pour l'autre partie du fichier de configuration,
vi /etc/puppet/modules/drbd/templates/r0.res.erb
resource r0 { device /dev/drbd0; disk <%= disk %>; meta-disk internal; startup { wfc-timeout 120; degr-wfc-timeout 120; become-primary-on both; } disk { on-io-error detach; } net { allow-two-primaries; after-sb-0pri discard-zero-changes; after-sb-1pri discard-secondary; after-sb-2pri disconnect; } on <%= node1name %> { address <%= node1ip %>:7788; } on <%= node2name %> { address <%= node2ip %>:7788; } }
On va ensuite modifier sur le serveur Puppet le fichier :
/etc/puppet/manifests/node.pp :
node 'pvm4.testdomain1.tetaneutral.net' { $pptmasterip = "91.224.149.35" $pptmastername = "pvm1" $pptmasterfqdn = "pvm1.testdomain1.tetaneutral.net" $node1ip = "91.224.149.38" $node1name = "pvm4" $node1fqdn = "pvm4.testdomain1.tetaneutral.net" $node2ip = "91.224.149.30" $node2name = "pvm5" $node2fqdn = "pvm5.testdomain1.tetaneutral.net" $disk = "/dev/vdb5" include drbd::package, drbd::fic, drbd::command, drbd::cron1, drbd::cron1.1, cron_supp } node 'pvm5.testdomain1.tetaneutral.net' { $pptmasterip = "91.224.149.35" $pptmastername = "pvm1" $pptmasterfqdn = "pvm1.testdomain1.tetaneutral.net" $node1ip = "91.224.149.38" $node1name = "pvm4" $node1fqdn = "pvm4.testdomain1.tetaneutral.net" $node2ip = "91.224.149.30" $node2name = "pvm5" $node2fqdn = "pvm5.testdomain1.tetaneutral.net" $disk = "/dev/vdb5" include drbd::package, drbd::fic, drbd::command, drbd::cron2, drbd::cron2.2, cron_supp }
Maintenant voyons les fichiers bash que nous utiliserons pour les différents 'cron' :
cat /etc/puppet/modules/drbd/files/overwrite.sh
#!/bin/bash drbdadm -- --overwrite-data-of-peer primary r0
cat /etc/puppet/modules/drbd/files/mkfs.sh
#!/bin/bash mkfs.gfs2 -t cluster1:gfs2 -p lock_dlm -j 2 /dev/drbd0
cat /etc/puppet/modules/drbd/files/primary.sh
#!/bin/bash drbdadm primary r0
cat /etc/puppet/modules/drbd/files/supp.pvm4.sh
#!/bin/bash rm -r /root/overwrite.sh rm -r /root/mkfs.sh
cat /etc/puppet/modules/drbd/files/supp.pvm5.sh
#!/bin/bash rm -r /root/primary.sh
Ne pas oublier de mettre le droit d'execution aux fichier bash avec cette commande :
chmod 744 /etc/puppet/modules/drbd/files/*.sh
Il y a des commandes à faire manuellement, moi j'ai préféré utiliser l'ordonnanceur cron.
Passons à la configuration de GFS2 :
cat /etc/puppet/modules/gfs2/manifests/init.pp
class gfs2::package { package { "cman": ensure => installed } package { "gfs2-tools": ensure => installed } package { "libopenais-dev": ensure => installed } } class gfs2::fic { file { "/etc/cluster/cluster.conf": require => Class["gfs2::package"], ensure => present, source => "puppet:///modules/gfs2/cluster.conf" } } class gfs2::command { exec { "stop_network_manager": require => Class["gfs2::fic"], command => "/usr/sbin/service network-manager stop" } exec { "start_cman": require => Exec["stop_network_manager"], command => "/usr/sbin/service cman start" } } class gfs2::hosts { file { "/etc/hosts": require => Class["gfs2::package"], ensure => present, content => template("/etc/puppet/modules/gfs2/templates/hosts.erb") } }
Nous voulons être sûr que nos deux machines puissent se joindre :
cat /etc/puppet/modules/gfs2/templates/hosts.erb
127.0.0.1 localhost <%= pptmasterip %> <%= pptmastername %> <%= pptmasterfqdn %> <%= node1ip %> <%= node1name %> <%= node1fqdn %> <%= node2ip %> <%= node2name %> <%= node2fqdn %>
Il faut également modifier le fichier /etc/puppet/manifests/node.pp afin de rajouter les classes gfs :
node 'pvm4.testdomain1.tetaneutral.net' {
...
$disk = "/dev/vdb5"
include drbd::package, drbd::fic, drbd::command, drbd::cron1, drbd::cron1.1, cron_supp, gfs2::package, gfs2::fic, gfs2::command, gfs2::hosts
}node 'pvm5.testdomain1.tetaneutral.net' {
...
$disk = "/dev/vdb5"
include drbd::package, drbd::fic, drbd::command, drbd::cron2, drbd::cron2.2, cron_supp, gfs2::package, gfs2::fic, gfs2::command, gfs2::hosts
}
Il ne reste plus que le fichier de configuration du cluster, cependant à cause de sa forme (composé de balises) :
Ainsi le fichier /etc/puppet/modules/gfs2/files/cluster.conf :
<?xml version="1.0"?> <cluster name="cluster1" config_version="3"> <cman two_node="1" expected_votes="1"/> <clusternodes> <clusternode name="pvm4" votes="1" nodeid="1"> <fence> <method name="single"> <device name="manual" ipaddr="91.224.149.38"/> </method> </fence> </clusternode> <clusternode name="pvm5" votes="1" nodeid="2"> <fence> <method name="single"> <device name="manual" ipaddr="91.224.149.30"/> </method> </fence> </clusternode> </clusternodes> <fence_daemon clean_start="1" post_fail_delay="0" post_join_delay="3"/> <fencedevices> <fencedevice name="manual" agent="fence_manual"/> </fencedevices> </cluster>
Ici ce qui importe c'est le nom du cluster que l'on y donne (important pour la suite) et le numéro de la version :
cluster name= cluster1 config_version= 3 (pour connaitre le numéro de la version : apt-cache policy gfs2-tools )
Egalement le nom des nos noeuds : clusternode name= pvm4 votes="1" nodeid= 1
Et pour finir l'adresse IP : device name="manual" ipaddr= 91.224.149.38
Puis sur le Pvm1 on lance la commande :
puppetmasterd --no-daemonize --debug
Et sur les clients :
puppetd --test --server=pvm1.testdomain1.tetaneutral.net
On vérifie :
Sur les machines clientes, on peut aller vérifier le raid1 :
service drbd status
Nous voyons que nous sommes à Primary/Primary UpToDate/UpToDate
Ici les machines sont en attentes d'un montage.
Maintenant il ne reste plus qu'à créer un répertoire, sur la pvm4 :
mkdir -p /media/cluster/drbd
mount -t gfs2 /dev/drbd0 /media/cluster/drbd
Et, sur la pvm5 :
mkdir -p /media/clusterdata/drbd
mount -t gfs2 /dev/drbd0 /media/clusterdata/drbd
Vérification :¶
On vérifie :
service drbd status
Il faut que l'on voie nos points de montage.
Sur une machine, n'importe laquelle, écrivez sur votre point de montage, par exemple pvm4 :
touch /media/cluster/drbd/pvm4.txt
ls /media/cluster/drbd
On voit notre fichier : pvm4.txt
Sur l'autre node du cluster (pvm5) :
ls /media/clusterdata/drbd
On voit notre fichier : pvm4.txt
Pour voir les log du cluster :
tailf /var/log/cluster/corosync.log
Grâce à GFS2, il n'est pas nécessaire de démonter le point de montage sur le node (pvm5) puis de le remonter afin de voir les écritures, en effet l'écriture se fait mais on ne peut la visualiser tant que le umount/mount n'a pas été réalisé.
A la fin de la page je met à disposition un tuto (sans puppet) de l'installation d'un Cluster DRBD GFS2.¶
Mise en place d'un Postfix avec authentification LDAP Sans Puppet (Pas fini)¶
Le projet n'est pas terminé, j'ai beaucoup travaillé mais j'ai manqué de logique, de bons tutoriels et de temps aussi, j'ai mis beaucoup du temps à comprendre Puppet =(
Grâce au DRBD, les messages ne sont pas perdu, ils sont accessibles par les deux serveurs Postfix. Le but ici est d'avoir des utilisateurs qui peuvent envoyer des mails sur les deux serveurs de messageries (utilisation de Ldap préférable à un serveur NIS).
Installer LDAP :¶
apt-get install slapd ldap-utils
dpkg-reconfigure slapd
Si on ne reconfigure pas ldap (à l'heure des dépôts actuels), il n'est pas possible de se connecter à l'annuaire ldap, que ce soit pour ajouter des entrées avec la commande #ldapadd (erreur : Invalid Credential (49)) car on voit qu'avec la commande #slapcat, le domaine n'est pas celui que nous avons créé dans /etc/ldap/slapd.conf, mais il s'agit du domaine : "nodomain".
A la suite de l'installation, il est nécessaire d'avoir le fichier de configuration /etc/ldap/slapd.conf. Pour cela il faut le copier :
cp /usr/share/doc/slapd/example/slapd.conf /etc/ldap/
Ensuite il faut modifier le fichier slapd.conf
suffix "dc=testdomain1.tetaneutral,dc=net" rootdn "cn=admin,dc=testdomain1.tetaneutral,dc=net" password-hash SSHA rootpw {SSHA}zmQHHtuIgyentPKrBw3lkNHN6JSVg/UW access to attrs=userPassword,shadowLastChange by dn="cn=admin,dc=testdomain1.tetaneutral,dc=net" write by anonymous auth by self write by * none access to * by dn="cn=admin,dc=dtestdomain1.tetaneutral,dc=net" write by * none
On peut ensuite installer les serveurs de messageries :¶
apt-get install courier-ldap postfix postfix-ldap
On peut rajouter des schema fournis par ldap :
cp /usr/share/doc/courier-authlib-ldap/authldap.schema.gz /etc/ldap/schema
gunzip /etc/ldap/schema/authldap.schema.gz
Et rajouter son chemin dans /etc/ldap/slapd.conf :
include /etc/ldap/schema/authldap.schema
On redémarre :
service slapd restart
Il faut ensuite ajouter des entrées, le mieux c'est avec phpldapadmin à l'adresse 127.0.0.1/phpldapadmin, mais avec l'editeur de texte emacs vi et les fichiers .ldif on va plus vite =))
vi exemple-type.ldif
dn: ou=people, dc=testdomain1.tetaneutral, dc=net objectclass: top objectclass: organizationalUnit ou: people dn: cn=gp_tech, ou=people, dc=testdomain1.tetaneutral, dc=net objectClass: top objectClass: posixGroup cn: gp_tech gidNumber: 1111 dn: uid=toto1, ou=people, dc=testdomain1.tetaneutral, dc=net objectClass: top objectClass: posixAccount objectClass: inetOrgPerson uid: toto cn: toto un sn: toto givenName: un uidNumber: 2200 gidNumber: 1111 homeDirectory: /home/toto1 userPassword: mdp2toto1 mail: toto1@testdomain1.tetaneutral.net dn: uid=toto2,ou=people,dc=testdomain1.tetaneutral,dc=net objectClass: top objectClass: inetOrgPerson objectClass: posixAccount uid: toto2 cn: toto deux sn: toto uidNumber: 2201 gidNumber: 1111 mail: toto2@testdomain1.tetaneutral.net homeDirectory: /home/toto2 userPassword: mdp2toto2
On applique ce changement d'arborescence :
ldapadd -x -f exemple_type.ldif -D cn=admin,dc=testdomain1.tetaneutral,dc=net -W
Configuration de Postfix¶
Il faut modifier le fichier de conf du serveur de messagerie:
vi /etc/postfix/main.cf
... local_recipient_maps = ldap:/etc/postfix/ldap_local_recipient.cf ...
Puis on créé le fichier ldap_local_recipient.cf :
server_host = 91.224.149.38 server_port = 389 search_base = dc=testdomain1.tetaneutral,dc=net # le %s signifie "adresse du destinataire telle que fourni par la commande "RCPT TO:" query_filter = (mail=%s) result_attribute = mail
On peut vérifier si notre serveur de messagerie peut joindre l'annuaire ldap :
postmap -q toto1@testdomain1.tetaneutral.net ldap:/etc/postfix/ldap_local_recipient.cf
Le problème c'est que quand je fais un : telnet 91.224.149.38 25 c'est que le mail est expédié, seulement il n'est pas envoyé à la boite mail, réponse des logs : status=bounced (unknown user: "toto1").