Le système d'exploitation GNU-Linux/Version imprimable
Une version à jour et éditable de ce livre est disponible sur Wikilivres,
une bibliothèque de livres pédagogiques, à l'URL :
https://fr.wikibooks.org/wiki/Le_syst%C3%A8me_d%27exploitation_GNU-Linux
Qu'est-ce qu'un système d'exploitation ?
Linux Is Not UniX.
Objectifs
[modifier | modifier le wikicode]À la fin de ce chapitre, le lecteur sera en mesure :
- d’expliquer le rôle d’un système d’exploitation,
- de nommer les principales couches de l’architecture d’un système d’exploitation,
- d’associer les générations d’ordinateur aux différents types de systèmes d’exploitation,
- d’expliquer les différentes versions de UNIX et Linux.
Introduction
[modifier | modifier le wikicode]Un système informatique moderne est composé d’un ou plusieurs processeurs, d’une mémoire principale, de disques durs, d’imprimantes, d’un clavier, d’une souris, d’un écran, d’une carte réseau et de beaucoup d’autres périphériques d’entrée/sortie. En un mot un système complexe. Dans ce contexte, développer des programmes d’application qui doivent tenir compte correctement de toutes ces entrées/sorties n’est pas une mince tâche. C’est pour cette raison que les ordinateurs modernes sont équipés d’un « système d’exploitation ». Une des tâches du système d’exploitation est donc d’offrir aux utilisateurs une interface simple et conviviale avec le matériel.
Dans ce chapitre, nous allons d’abord présenter une brève définition et description des systèmes d’exploitation. Par la suite, nous expliquons l’architecture et les fonctions d’un système d’exploitation. Puis finalement, les différentes versions de Unix et de Linux sont présentées.
Qu'est-ce qu'un système d'exploitation
[modifier | modifier le wikicode]Un système d'exploitation effectue deux tâches bien distinctes :
- Présenter une machine virtuelle à l’utilisateur.
- Gérer les ressources de l’ordinateur.
Machine virtuelle
[modifier | modifier le wikicode]Être une machine virtuelle signifie transformer un ensemble de circuits électroniques en un outil moderne qui offre une abstraction simple au niveau des entrées/sorties, de l'utilisation de la mémoire, de la gestion des fichiers, de la protection et du contrôle des erreurs, de l'interaction des programmes entre eux et de leur contrôle.
En deux mots : éviter au programmeur d’avoir à connaître les détails électroniques de tel ou tel microprocesseur et permettre à l'utilisateur de sauvegarder ses fichiers sans se soucier du type de disque utilisé pour stocker les informations.
Gestionnaire de ressources
[modifier | modifier le wikicode]L'autre fonction du système d'exploitation est le partage des ressources. Le système d’exploitation joue un rôle de policier afin d'éviter les conflits d'utilisation de la mémoire, des périphériques d'entrée/sortie, des interfaces réseau, … On peut facilement imaginer ce qui arriverait si trois programmes essayaient d'imprimer en même temps sans que des priorités aient été préalablement établies.
De plus, lorsque l'ordinateur est utilisé par plusieurs usagers, le partage de la mémoire et surtout sa protection demeurent une priorité absolue. À tout moment, tout bon système d'exploitation doit connaître l'utilisateur d'une ressource, ses droits d'accès et son niveau de priorité.
Architecture d’un système informatique
[modifier | modifier le wikicode]Tous les systèmes informatiques sont segmentés en « couches » pour permettre un meilleur contrôle de l'ensemble de l'ordinateur. La Figure 1 illustre les différentes couches d’un tel système.
Matériel
[modifier | modifier le wikicode]Au plus bas niveau, on retrouve la première couche qui contient les composantes physiques constituées des circuits intégrés, des fils, des sources de courant, …
La couche suivante regroupe des outils logiciels primitifs qui permettent de contrôler directement les composantes physiques sous-jacentes, comme les registres internes du processeur et l’unité arithmétique et logique. Cette couche est appelée le microcode et réside bien souvent dans le processeur de l'ordinateur.
L'autre couche est celle du langage machine qui est interprété par le microcode. Ce langage de bas niveau regroupe 50 à 300 instructions pour permettre de déplacer des bits, de calculer ou de comparer des valeurs à l'aide des registres internes du processeur.
Système d’exploitation
[modifier | modifier le wikicode]Le système d'exploitation qui se trouve juste au-dessus, offre aux programmeurs et aux utilisateurs un ensemble de fonctions du genre « lire le fichier » ou « afficher à l’écran ». Il s'agit ici d'un niveau d'abstraction élevé qui évite ainsi au programmeur de devoir écrire, par exemple, du code pour déplacer les têtes de lecture d'un disque rigide. Il s'agit du niveau d'exécution des pilotes de périphériques (contrôleurs d'interruptions, de disques, de carte graphique, ...).
En haut de la hiérarchie, il y a la couche où l'on retrouve les interpréteurs de commandes, les compilateurs et les logiciels d’application. Il est clair que ces programmes ne font pas partie du système d'exploitation, même s'ils sont livrés avec celui-ci dans bien des cas.
Logiciels d’application
[modifier | modifier le wikicode]Finalement, au-dessus de toutes ces couches se trouvent les logiciels d’application qui permettent à un utilisateur d’effectuer des tâches particulières sans qu'il ait à tenir compte des couches inférieures.
Fonctions d'un système d'exploitation
[modifier | modifier le wikicode]Aujourd'hui, l'informatique, aussi bien dans les entreprises que dans l'enseignement, utilise des machines plus petites fonctionnant avec des systèmes d'exploitation à caractère universel. Parmi ces systèmes d'exploitation, deux se distinguent particulièrement, un système mono-utilisateur, Windows, et un autre multi-utilisateurs et multi-tâches, Unix. D'une manière contestable, on peut affirmer que le premier système est destiné à des ordinateurs individuels, tandis que l'autre est réservé au travail en groupe.
Parmi les nombreux systèmes d’exploitation, Unix/Linux est celui qui offre le plus de richesse, le plus d'homogénéité et le plus de souplesse. Pour cette raison, dans ce livre, Linux a été choisi comme système d'exploitation pour illustrer les concepts théoriques. Par ailleurs, le système MS-DOS puis Windows, en évoluant, ont incorporé beaucoup de caractéristiques de Unix/Linux.
On peut diviser les fonctions des systèmes d'exploitation classiques en quatre parties principales :
- La gestion des processus (programmes).
- La gestion de la mémoire.
- Le système de fichiers.
- La gestion des entrées/sorties.
Les systèmes d'exploitation modernes intègrent par ailleurs d'autres caractéristiques. Ces dernières concernent notamment deux évolutions majeures des systèmes informatiques. La première est l'interconnexion des différentes machines et des différents systèmes par des réseaux locaux ou étendus. La seconde est la disparition des écrans de texte et leur remplacement par des dispositifs à fenêtres multiples disposant de propriétés graphiques.
Historique des systèmes d'exploitation
[modifier | modifier le wikicode]L’histoire de l’informatique est très brève – les ordinateurs sont nés avec la seconde guerre mondiale – et pourtant, elle a connu de grandes évolutions. L'historique des systèmes d'exploitation est intimement liée à l'évolution de l’informatique. Cette évolution est séparée en 4 grandes étapes :
- Première génération (1945-55) : les tubes à vide.
- Deuxième génération (1955-65) : les transistors et le traitement par lots.
- Troisième génération (1965-80) : les circuits intégrés et la multiprogrammation.
- Quatrième génération (1980-aujourd’hui) : les micro-ordinateurs.
- Cinquième génération (compléter-compléter) : l'informatique quantique.
Première génération (1945-55) : les tubes à vide
[modifier | modifier le wikicode]En 1946, le premier ordinateur ne comportant plus de pièces mécaniques est créé grâce à J. Mauchly et J. Presper Eckert : l’ENIAC (Electronic Numerical Integrator And Computer). Il est composé de 180 000 tubes à vide et occupe 1500 m². Son principal inconvénient est sa programmation : il était uniquement programmable manuellement avec des commutateurs ou des câbles à enficher.
Note : La première erreur informatique est due à un insecte qui, attiré par la chaleur, était venu se loger dans les tubes à vide et avait créé un court-circuit. Le mot « bug » (insecte en anglais), est donc resté pour nommer une erreur informatique.
Deuxième génération (1955-65) : les transistors et le traitement par lots
[modifier | modifier le wikicode]En 1948, le transistor est créé par la firme Bell Labs grâce aux ingénieurs John Bardeen, Walter Brattain et William Shockley. Le transistor permet de rendre les ordinateurs moins encombrants et moins gourmands en énergie électrique : c’est la révolution dans l’histoire de l’informatique. Ce n’est qu’en 1960 qu’IBM commercialise l’un des premiers ordinateurs à base de transistors, l’IBM 7000.
C’est aussi à cette époque que les premiers systèmes d’exploitation sont apparus tel FMS (the Fortran Monitor System) et IBSYS (IBM’s operating System), utilisant le traitement par lots pour gérer l’exécution des programmes qui se fait maintenant de façon autonome.
Troisième génération (1965-80) : les circuits intégrés et la multiprogrammation
[modifier | modifier le wikicode]Le circuit intégré est mis au point en 1958 par Texas Instrument. Il permet de réduire encore la taille des ordinateurs en intégrant plusieurs transistors dans le même composant électronique. Avec cette nouvelle génération d’ordinateurs, une nouvelle génération de systèmes d’exploitation mettant en application le concept de multiprogrammation fait son apparition.
Les premiers travaux sur MULTICS, l'ancêtre d'Unix, sont dus à Ken Thompson pour le compte de Bell Laboratories, AT&T, General Electric et le Massachusetts Institute for Technology.
En 1970, une première version d'Unix voit le jour. Elle fonctionne sur une machine PDP-7 de Digital Equipment. Les principales caractéristiques de ce système sont les suivantes :
- Gestion de fichiers sous forme d'une hiérarchie de répertoires.
- Entrées/sorties gérées de la même façon pour les fichiers, les processus (ou programmes) et les périphériques.
- Gestion multi-tâches de processus indépendants.
- Systèmes à base de commandes pouvant accepter de multiples interpréteurs de commandes, selon les besoins de l'utilisateur.
- Présence d'utilitaires et de compilateurs intégrés dans le système.
- Un système aussi portable que possible pouvant s'adapter à de nombreux types d'ordinateurs. C'est justement pour accroître la portabilité du système que Denis Ritchie inventa le langage de programmation C.
Une grande partie du système Unix fut réécrite en langage C. Le reste du système, en assembleur, dépend du type de machines sur lequel on installe le système. En 1976, la version 6 d'Unix, fut la première version complète. En 1979, ce fut le succès commercial avec la version 7. Cette version a été adoptée par Hewlett Packard et Digital Equipment.
Chaque constructeur eut le droit d'adapter Unix à ses machines. De même, des universités pouvaient travailler à son amélioration. Mais comme le nom d'Unix lui-même était protégé, chacun dut aussi choisir un nom différent. L'Université de Berkeley en Californie proposa ainsi les versions BSD (Berkeley Software Distribution). Face à cette diversité des versions d'Unix, AT&T proposa, dès 1983, le standard System V. Aujourd'hui, l'X/OPEN group a obtenu le droit de diffuser la marque Unix à tous les systèmes qui se soumettent à un contrôle approprié. Aujourd'hui encore, HP propose HP-UX, IBM propose sa version d'Unix appelée AIX et Sun propose Solaris.
Quatrième génération (1980-aujourd’hui) : les micro-ordinateurs
[modifier | modifier le wikicode]En 1979, Microsoft prend une licence Unix et développe le système d'exploitation XENIX, disponible jusqu'en 1984. Au moment où le PC fit son apparition, Unix était déjà un système mûr. En 1981, lorsque IBM lança le PC, il choisit le système d'exploitation MS-DOS de Microsoft. MS-DOS, inspiré d'Unix, comportait dès le départ des contraintes liées à son architecture : insuffisance de la mémoire adressable, pas de gestion multi-tâches ou multi-utilisateurs, pas de protection de la mémoire.
Des particuliers eux aussi se sont attelés aux développements d'une version d'Unix : Andrew Tanenbaum, professeur à l'Université d'Amsterdam, développa avec ses élèves une version d'Unix pour PC, appelée Minix, qui vit le jour en 1987. Partant de Minix, Linus Torvalds développa Linux, un Unix pour PC dont la première version, appelée version 0.99, sortit en 1991. Aujourd'hui, Linux est devenu un système d'exploitation stable pour PC. Ce système constitue un logiciel libre, dont chaque utilisateur a le droit de modifier le code source.
Unix et Linux
Unix/Linux
[modifier | modifier le wikicode]Unix est un système d'exploitation très populaire parce qu'il est présent sur un grand nombre de plates-formes, du micro-ordinateur à l’ordinateur central (mainframe). L'avantage de cela, c'est que les programmes développés sous Unix peuvent être transférés d'une plate-forme à une autre avec un minimum de modifications.
Ce système est multitâche, c'est-à-dire qu'il est capable de gérer et d'exécuter plusieurs programmes simultanément. De plus, il est multi-utilisateurs, c'est-à-dire que plusieurs personnes peuvent s'y connecter en même temps et travailler ; le système partage alors toutes les ressources logicielles et matérielles de l'ordinateur entre les différents usagers.
L'histoire d'Unix est unique dans le monde des systèmes d'exploitation. En effet, alors que la plupart des systèmes d'exploitation ont été conçus par des fabricants d'ordinateurs pour vendre leurs machines, Unix n'a pas été conçu dans un but commercial. Il l'est devenu parce qu'il constitue une norme en matière de système d'exploitation.
Contrairement à un système d'exploitation commercial complètement contrôlé par son fabricant, le système Unix est aujourd'hui distribué par plusieurs intervenants dont voici les principaux :
- AT&T, à qui on attribue la paternité de Unix ;
- l'université de Berkeley, qui a fait évoluer Unix dans plusieurs domaines ;
- SUN Microsystems, à qui l’on doit les améliorations importantes de l'interface graphique ;
- Santa Cruz Operation et Microsoft, le XENIX/UNIX fut la première version pour PC de Unix.
À cause de cette situation de développement, le système d'exploitation Unix a mis plusieurs années à être standardisé. Actuellement, il en existe deux principales variantes, incompatibles entre elles :
- Unix SYSTEM V,
- Unix BSD.
Il existe aussi une multitude de variations mineures dérivées d'une des deux ou des deux principales variantes ; on a ainsi, en les regroupant :
- les systèmes Unix-Based ;
- les systèmes Unix-Like.
Systèmes Unix-Based
[modifier | modifier le wikicode]Les systèmes étant "descendants" du système Unix original.
- XENIX/UNIX provenant de SCOMicrosoft ;
- AIX provenant d'IBM ;
- Mac OS X provenant d'APPLE ;
- SunOS/Solaris provenant de SUN MicroSystems ;
- IRIX provenant de Silicon Graphics ;
- ULTRIX provenant de DIGITAL ;
- HP-UX (Hewlett Packard UniX) provenant Hewlett-Packard.
- FreeBSD ;
- OpenBSD ;
- NetBSD ;
Systèmes Unix-Like
[modifier | modifier le wikicode]Les systèmes Unix-Like reproduisent les mêmes fonctionnalités que la version AT&T, mais le noyau du système est incompatible parce qu'il a été réécrit pour éviter le versement de droit d'auteurs à AT&T. On retrouve dans cette catégorie :
- Minix ;
- GNU/Linux ;
- QNX.
Cette prolifération de produits a fait apparaître un certain nombre de différences entre les systèmes, dont les principales sont :
- les communications inter-programmes ;
- la gestion de la mémoire (segmentation ou pagination) ;
- divers paramètres du système ;
- divers outils qui peuvent être intégrés dans un produit et absents dans un autre.
Principales distributions de Linux
[modifier | modifier le wikicode]Celui qui s'intéresse aux différentes versions de Linux doit faire la différence entre le noyau du système d'exploitation proprement dit (le kernel, en anglais) et la combinaison d'utilitaires qui l'accompagnent. Les distributions se différencient par le choix du noyau et le choix des différents utilitaires disponibles.
Au moment de la rédaction de ce texte, la version actuelle du noyau de Linux porte le numéro 4.2.x, mais les versions suivantes sont probablement prêtes. Vérifiez donc la version du noyau que vous vous procurez. Cette version figure dans de nombreuses distributions et constitue un élément commun.
De nombreux utilitaires sont également communs à toutes les distributions. (Exemples : Bourne Again Shell ou l'interface graphique Xfree86).
Voici une liste non exhaustive des distributions disponibles :
- CentOS
- RedHat (nom complet : Red Hat Enterprise Linux)
- Manjaro
- Fedora
- Mandriva
- Debian
- Ubuntu
- OpenSUSE
Voir aussi
[modifier | modifier le wikicode]
Partitionnement du disque
Objectifs
[modifier | modifier le wikicode]À la fin de ce chapitre, le lecteur sera en mesure :
- d’expliquer le rôle des partitions,
- d’utiliser un outil de partitionnement,
- de créer un système de fichiers.
Introduction
[modifier | modifier le wikicode]L’utilisation d’une unité de stockage (par exemple un disque dur) soit pour l’installation d’un système d’exploitation ou le stockage de données nécessite que celle-ci soit préalablement préparée d’abord par le partitionnement puis par le formatage logique. Dans ce chapitre, le concept de partition est expliqué avant de présenter un outil de partitionnement. Finalement, le formatage logique est présenté.
Qu'est-ce qu'une partition?
[modifier | modifier le wikicode]Le partitionnement consiste à créer des zones sur le disque dont les données ne seront pas mélangées. Cela sert donc si l'on veut, par exemple, installer des systèmes d'exploitation différents n'utilisant pas le même système de fichiers. Il y aura donc au minimum autant de partitions que de systèmes d'exploitation utilisant des systèmes de fichiers différents. Dans le cas d'un utilisateur d'un système d'exploitation unique, il y aura une seule partition recouvrant tout le disque, sauf si l'utilisateur désire en créer plusieurs pour, par exemple, séparer les données et les programmes.
Il y a trois sortes de partitions: les partitions principales, la partition étendue et les partitions logiques. Un disque peut contenir jusqu'à quatre partitions principales (dont une seule peut être active), ou trois partitions principales et une partition étendue. Dans la partition étendue, l'utilisateur peut créer des partitions logiques (c'est-à-dire faire en sorte que l'on ait l'impression qu'il y a plusieurs disques durs de taille moindre).
Voyons voir un exemple dans lequel le disque contient une partition principale et une partition étendue composée de trois partitions logiques (nous verrons par la suite les partitions principales multiples):
Pour les systèmes Windows, seule la partition principale est amorçable, c'est donc la seule sur laquelle on peut démarrer le système d'exploitation. Sous Linux, toutes les partitions peuvent être amorçables.
On appelle partitionnement le processus qui consiste à écrire les secteurs qui constitueront la table de partitions. La table de partitions est une base de données contenant les informations sur les partitions: taille de celle-ci en terme de nombre de secteurs, position par rapport à la partition principale, types de partitions présentes, systèmes d'exploitation installés, ...
Partition principale
[modifier | modifier le wikicode]Une partition principale doit être formatée logiquement, puis contenir un système de fichiers correspondant au système d'exploitation installé sur celle-ci. Si jamais vous avez plusieurs partitions principales sur votre disque, une seule sera active et visible à la fois; cela dépendra du système d'exploitation sur lequel vous avez démarré l'ordinateur. En choisissant le système d'exploitation que vous lancez au démarrage, vous déterminez la partition qui sera visible. La partition active est la partition sur laquelle un des systèmes d'exploitation est démarré au lancement de l'ordinateur. Sous Windows, les partitions autres que celle sur laquelle vous démarrez seront alors cachées, ce qui empêchera d'accéder à leurs données. Sous Linux, toutes les partitions sont accessibles.
Partition étendue
[modifier | modifier le wikicode]La partition étendue a été mise au point pour outrepasser la limite des quatre partitions principales, en ayant la possibilité de créer autant de partitions logiques que vous désirez dans celle-ci. Au moins une partition logique est nécessaire dans une partition étendue, car vous ne pouvez pas y stocker de données directement.
Beaucoup de disques durs d’ordinateur sont formatés en une seule grande partition utilisant l'intégralité de l'espace disponible. Ce n'est pourtant pas la solution la plus avantageuse en terme de performances et de capacité. La solution est de créer plusieurs partitions, ce qui va vous permettre:
- d'installer plusieurs systèmes d'exploitation sur votre disque,
- d'économiser de l'espace disque,
- d'augmenter la sécurité de vos fichiers,
- d'organiser vos données plus facilement.
Secteur de démarrage
[modifier | modifier le wikicode]Le secteur de démarrage (appelé Master Boot Record ou MBR en anglais) est le premier secteur d'un disque dur (cylindre 0, tête 0 et secteur 1). Il contient la table de partition principale et le code qui, une fois chargé en mémoire, va permettre d'amorcer le système d’exploitation.
Ce programme, une fois en mémoire, va déterminer sur quelle partition le système va s'amorcer, et il va démarrer le programme (appelé « bootstrap ») qui va amorcer le système d'exploitation présent sur cette partition.
D'autre part, c'est ce secteur du disque qui contient toutes les informations relatives au disque dur (fabricant, numéro de série, nombre d'octets par secteur, nombre de secteurs par « cluster », nombre de secteurs,...). Ce secteur est donc le secteur le plus important du disque dur. Il permet aussi au BIOS de reconnaître le disque dur. Ainsi, sans celui-ci, votre disque dur est inutilisable, c'est donc une des cibles préférées des virus.
Outil de partitionnement
[modifier | modifier le wikicode]Sous Linux, il existe de nombreux outils de partitionnement. L'utilitaire fdisk est disponible sur la majorité des distributions de Linux. Il permet de créer, d’éditer et de détruire des partitions sur un disque. Le partitionnement avec fdisk entraînera la perte de toutes les données présentes sur le disque sur lequel vous effectuez les opérations.
Syntaxe :
fdisk [périphérique]
Sans argument fdisk utilisera le premier disque dur qu'il trouve. Il est possible de préciser à fdisk le disque à partitionner, en lui donnant comme paramètre le nom du périphérique.
Exemple :
Partitionner le second disque dur IDE.
fdisk /dev/hdb
Une fois lancé, le menu suivant apparaît :
# fdisk /dev/hda Commande (m pour aide):
Le tableau suivant présente la liste des principales options de la commande fdisk:
Commande | Description |
---|---|
d | Destruction d'une partition |
l | Liste des types de partitions |
m | impression du Menu en cours |
n | création d'une Nouvelle partition |
p | affichage des Partitions |
q | Sortie de fdisk sans sauvegarde des paramètres (Quitter) |
t | Modification du Type de partition |
v | Vérification de la table des partitions |
w | sauvegarde des modifications et sortie de fdisk (Write & exit) |
Création des partitions
[modifier | modifier le wikicode]Voici les étapes pour créer une partition :
- Démarrer fdisk
- Taper
n
pour créer une nouvelle partition. - Choisir le type de partition (primaire ou étendu).
- Choisir le numéro de la partition
- Ensuite fdisk vous demande l'emplacement du premier cylindre. Par défaut, fdisk affichera toujours le premier cylindre libre trouvé.
- fdisk vous demande alors l'espace à attribuer à cette partition. Cette taille peut être indiquée en nombre de cylindres, en Octets, en Kilo-octets ou en Mégaoctets.
Afficher les partitions
[modifier | modifier le wikicode]La commande p du menu principal permet d’afficher les partitions du disque dur sélectionné.
Disk /dev/hda : 128 heads, 63 sectors, 623 cylinders Units = cylinders of 8064 * 512 bytes Device Boot Start End Blocks Id System /dev/hda1 1 254 102400+ 83 Linux native /dev/hda2 255 309 221760 83 Linux native /dev/hda3 310 253 862848 83 Linux native
Formatage logique
[modifier | modifier le wikicode]Le formatage logique crée un système de fichiers sur le disque, qui va permettre à un système d'exploitation (DOS, Windows 11, Linux, OS X, Windows 10 ...) d'utiliser l'espace disque pour stocker et utiliser des fichiers. Les systèmes d'exploitation utilisent des systèmes de fichiers différents, ainsi le type de formatage logique dépend du système d'exploitation que vous utilisez.
mkfs, création d’un système de fichiers
[modifier | modifier le wikicode]Syntaxe :
mkfs [-t type] partition
Description :
L’utilitaire mkfs permet de créer un système de fichiers sur un disque ou une partition. Ce système de fichiers est de type ext2, ext3 ou msdos.
Exemple 1:
Formater une disquette dos.
mkfs –t msdos /dev/fd0
Exemple 2:
Formater une disquette Linux.
mkfs –t ext2 /dev/fd0
Exemple 3 :
Formater la partition /dev/hda3 en ext3.
mkfs –t ext3 /dev/hda3
e2label, étiquetage d’une partition
[modifier | modifier le wikicode]Syntaxe :
e2label [partition]
Description :
La commande e2label affiche ou modifie le nom du système de fichiers spécifié.
Exemple :
Afficher l’étiquette de la partition /dev/hda2
e2label /dev/hda2
Exercices
[modifier | modifier le wikicode]- Nommez trois sortes de partitions?
- Qu’est-ce qu’une partition?
- Combien, au maximum, peut-il y avoir de partitions principales?
- Qu’est-ce qu’un secteur de démarrage?
- Qu’est-ce que le formatage logique?
- Formatez une disquette Linux. Écrivez au complet la commande utilisé.
Installation
Installer une distribution Debian
[modifier | modifier le wikicode]Cette installation a été effectuée à partir du CD-ROM d'installation via le réseau (Net install) Debian - branche stable.
La première étape a été de vérifier via les paramètres du BIOS que l'ordinateur démarrait par défaut sur la clef USB. Si tel est le cas, on doit voir le logo Debian apparaître à l'écran avec un invite "boot :
".
En appuyant sur les touches de fonction (de F1 à F10), on peut consulter des paramètres optionnels à indiquer au noyau. Ces paramètres sont utiles dans certains cas pour la détection de matériel particulier.
Dans le cas d'une installation normale, on appuie juste sur la touche Entrée pour démarrer l'installation.
Le noyau d'installation se charge et détecte le matériel intégré à l'ordinateur.
La première étape du configurateur nous demande de choisir notre langue, notre localisation géographique et la disposition du clavier.
L'étape suivante concerne la détection des paramètres réseaux. Utilisant le protocole DHCP, cette étape s'est déroulée automatiquement. À noter que si cela n'avait pas été le cas, nous aurions du renseigner les paramètres réseaux manuellement : adresse IP, masque de réseau, adresse réseau, passerelle et serveur de noms.
Le processus d'installation détecte automatiquement les périphériques de stockage.
Vient ensuite le partitionnement du disque dur. Nous avons choisi le partitionnement manuel afin de configurer précisément les partitions désirées et leur taille.
Notre disque dur fait 80 Go. Nous avons créé 6 partitions :
- /boot (100Mo) : contient le(s) noyau(x) Linux
- / (20 Go) : la racine du système de fichiers
- /var (20 Go) : les données variables (dont notamment les logs)
- SWAP (2 Go) : la mémoire virtuelle
- /tmp (2 Go) : les fichiers temporaires
- /home (le reste, soit environ 36 Go) : les répertoires utilisateurs
Il est conseillé de créer plusieurs partitions pour des raisons de sécurité. Effectivement, les systèmes d'exploitation ne fonctionnent pas correctement si la partition système est pleine (la racine / sous Unix, ou C: dans le monde Microsoft). Étant donné que l'on fonctionne sur un système multi-utilisateurs, il est donc préférable de créer des partitions dédiées pour /home, /tmp et /var. Effectivement, les utilisateurs peuvent écrire des fichiers dans ces répertoires, et de ce fait les remplir. Si on a prévu une partition dédiée pour ces répertoires, le système va continuer à fonctionner même si ces partitions sont pleines.
L'installateur Debian a ensuite formaté les partitions et installé les paquets essentiels.
Le système nous a ensuite demandé de renseigner les paramètres du compte utilisateur (nom complet, login et mot de passe) et le mot de passe du compte root.
Le système nous a demandé ensuite de choisir un miroir Debian afin d'aller télécharger des paquets supplémentaires. Nous avons choisi un miroir en France.
Nous avons eu ensuite la possibilité de configurer un serveur mandataire (un proxy). Nous ne l'avons pas renseigné car notre réseau dispose d'un proxy transparent.
L'installateur Debian a ensuite téléchargé un très grand nombre de paquets supplémentaires.
Une fois le téléchargement terminé (prévoir un certain temps selon le type de connexion à Internet), le système a installé les paquets et nous a demandé de spécifier la résolution d'affichage de l'environnement graphique. Nous avons laissé les paramètres par défaut : 1024x768, 800x600 et 640x480. Il faudra bien entendu choisir la résolution en fonction de l'écran.
Le système nous demande ensuite si on désire installer le programme de boot GRUB. Ce programme est effectivement indispensable au bon démarrage du PC. Si GRUB détecte une partition Windows, il va automatiquement la rajouter au multi-boot.
À la suite de ces étapes, l'installation est terminée. Le système nous propose ensuite de redémarrer. Si tout s'est bien passé, l'ordinateur va redémarrer sur le nouveau système fraîchement installé.
-
Partitionnement
-
Taille
-
Caractéristiques
Procédure de récupération du boot
[modifier | modifier le wikicode]Dans certaines circonstances le boot de Linux peut avoir été supprimé par Windows, il devient alors impossible de démarrer Linux, il est néanmoins possible de le restituer en utilisant la procédure suivante:
En premier lieu il faut démarrer à partir du support d'installation de Linux (CD-ROM ou clef USB, assurez-vous que le CD-ROM soit bien en premier dans l'ordre de démarrage des périphériques dans le Bios)
À l'étape ou vous devez donner un nom à la machine, passez en mode console (ALT + F2 )
Faites un fdisk -l /dev/sda puis fdisk -l /dev/sdb pour examiner le contenu de vos partitions et vous assurer de l'emplacement de vos deux systèmes.
Si vous changez le disque dur de place Il faut monter la partition racine contenant le fichier /etc/fstab de façon à pouvoir le modifier ;
# mkdir /target # mount /dev/sdb2 /target # nano /target/etc/fstab > remplacer sda par sdb
Restitution du boot GRUB
# mount /dev/sbd1 /target/boot
Faire ensuite :
- Alt+F1 : retour au menu Debian - revenir en arrière (2 fois) - dans le menu choisir installation Grub - revenir en arrière (2 fois) - et continuer: OUI (2 fois)
Redémarrer et normalement c'est OK, le boot GRUB est de nouveau opérationnel !
Installer une distribution Red Hat
[modifier | modifier le wikicode]Les sources sont sur https://access.redhat.com/downloads/.
Installer une distribution Manjaro
[modifier | modifier le wikicode]Les sources sont sur https://manjaro.org/products.
Installer Debian via le réseau
Installation de Debian par le réseau
[modifier | modifier le wikicode]packets nécessaire
- dhcp
- tftp
- pxe
#apt-get install dhcp-server atftpd pxe syslinux
Copiez ensuite le fichier /usr/lib/syslinux/pxelinux.0 dans /tftpboot
Configuration du dhcp
/etc/dhcp3/dhcpd.conf
ddns-update-style none;
option domain-name "diskless.net";
'#'option domain-name-servers gw.diskless.net;
default-lease-time 600; max-lease-time 7200;
log-facility local7;
subnet 192.168.30.0 netmask 255.255.255.0 { range 192.168.30.100 192.168.30.110; '#'option routers rtr-239-0-2.example.org; } next-server 192.168.30.224; option root-path "192.168.30.224:/tftpboot/pxelinux.0";
filename "/tftpboot/pxelinux.0";
#redémarer le service /etc/init.d/dchp3-serveur restart
tftp
/etc/inetd.conf
tftp dgram udp nowait root /usr/sbin/tcpd /usr/sbin/in.tftpd /tftpboot
configuration pxe
/etc/pxe.conf
.# which interface to use
interface=eth0
default_address=192.168.30.210
.# the multicast ip address to listen on
multicast_address=224.0.1.2
.# mtftp info
mtftp_address=192.168.30.210
mtftp_client_port=1758 mtftp_server_port=1759
.# the port to listen on
listen_port=4011
.# enable multicast?
use_multicast=1
.# enable broadcast? use_broadcast=1
.# user prompt
prompt=Press F8 to view menu ... prompt_timeout=10
.# what services to provide, priority in ordering .# CSA = Client System Architecture .# service=<CSA>,<min layer>,<max layer>,<basename>,<menu entry>
service=X86PC,0,0,local,Local boot service=X86PC,0,0,pxelinux,PXELinux
.# tftpd base dir
tftpdbase=/tftpboot
.# domain name .# domain=bla.com
redemarer le service
#/etc/init.d/pxe restart
Mettre la machine que vous voulez installer en boot pxe et vous devriez avoir l'interface d'installation de debian
Le login
Login
[modifier | modifier le wikicode]Les systèmes compatibles Unix sont par définition multi-tâches et multi-utilisateurs, c'est à dire que plusieurs personnes peuvent travailler simultanément sur le même système.
Chaque utilisateur est identifié par un nom d'utilisateur (login) et un mot de passe (password).
Le login est associé à un numéro unique (le UID : User IDentifiant) et permet d'identifier chaque utilisateur. Il ne contient ni espace, ni caractères spéciaux.
Le mot de passe doit être choisi judicieusement : il doit mélanger des caractères en minuscule et majuscule, des chiffres et des caractères spéciaux.
Chaque utilisateur dispose d'un répertoire de travail (le Home Directory) dans lequel il a le droit de créer ses propres fichiers et répertoires. Ce répertoire de travail se situe généralement dans le répertoire home et porte le nom du login. Exemple : le répertoire de travail de l'utilisateur alex est /home/alex.
Il existe un utilisateur particulier : le root. Le root est l'administrateur du système, il dispose de tous les droits et s'occupe de la gestion du système : ajout et suppression des utilisateurs, installation et configuration du système et des logiciels ...
Le root a tous les pouvoirs sur le système, il peut tout faire, y compris tout casser. De ce fait, il faut donc choisir un mot de passe très sécurisé, et toujours bien vérifier à deux fois avant d'exécuter une opération avec l'utilisateur root.
Le root n'est pas une personne à proprement parler, il s'agit d'une fonction. Ainsi, il ne faut jamais travailler en permanence avec le compte root, mais utiliser son compte habituel, et ne passer root (via les commandes su ou sudo) que si l'on a besoin de réaliser une opération d'administration.
Contrairement aux autres utilisateurs, le répertoire de travail du root se situe à la racine du système (/root). L'explication est simple : en cas de problème avec la partition /home, l'utilisateur root pourra quand même accéder à son répertoire de travail.
Session
[modifier | modifier le wikicode]Pour voir les sessions ouvertes sur la machine :
w
Pour en tuer une :
sudo pkill -9 -u nom_du_login
MOTD
[modifier | modifier le wikicode]À chaque connexion, l'en-tête situé dans /etc/motd
s'affiche automatiquement. Ce nom correspond aux initiales de Message of the Day. Par exemple sur Ubuntu, il contient des informations sur la version, mais on peut aussi l'éditer pour y placer des instructions.
Variables d'environnement
La liste des variables d'environnement est accessible par la commande printenv
. Elles sont toutes nommées en capitales.
Pour en afficher une seule : echo $variable
.
Pour en modifier une : export variable="valeur"
.
Pour la supprimer : unset variable
.
$HOME
[modifier | modifier le wikicode]Chemin du répertoire personnel de l'utilisateur courant.
Il s'agit d'un répertoire associé à l'utilisateur lors de la création du compte, qui lui est réservé pour mettre ses documents personnels, ses scripts de personnalisation et ses fichiers de configuration.
Cependant, l'exception est celui de l'utilisateur root où il correspond en général à la racine du système de fichiers (/
).
Souvent, il s'agit du répertoire courant initial à l'ouverture d'une fenêtre de terminal (shell).
$LANG
[modifier | modifier le wikicode]Langue du système.
$PATH
[modifier | modifier le wikicode]Liste de chemins contenant les binaires accessibles globalement séparés par des caractères deux-points ":". Cette liste est utilisée quand le chemin complet d'un programme exécutable n'est pas spécifié.
$PWD
[modifier | modifier le wikicode]Chemin absolu du répertoire courant permettant de résoudre les chemins relatifs (incluant les nom de fichiers sans chemin). La commande cd ou chdir (change directory) depuis un terminal permet de changer de répertoire courant.
$SHELL
[modifier | modifier le wikicode]Version du shell. Ex :
$SHELL --version
$TZ
[modifier | modifier le wikicode]Time zone : fuseau horaire.
Commandes de base
Éléments de syntaxe
[modifier | modifier le wikicode]Les commandes présentées dans les sections qui suivent sont introduites juste après un message d'invite qui dépend de la configuration du shell utilisé. Celui-ci est représenté par un signe dollar $. Il ne doit donc pas être tapé.
Le caractère dièse # marque le début d'un commentaire qui se termine en fin de ligne. Il n'est pas nécessaire de le recopier pour exécuter la commande.
Exemple :
$ pwd # affiche le répertoire courant
Pour tester cette commande, il suffit d'entrer p w d ↵.
Les lignes qui ne sont pas marquées du signe dollar indiquent ce que la commande précédente doit/peut afficher.
Par ailleurs, il existe deux opérateurs de concaténation des commandes :
- ";" : qui enchaine les commandes quelques soient leurs résultats. Exemple :
pwd ; pwd
. - "&" : qui stoppe l'enchainement si une commande renvoie une erreur. Exemple :
pwd & pwd
. De plus, si aucune commande ne figure après le "&", le terminal redonne le focus avant la fin de la première commande, de sorte que l'on peut en taper d'autres si elle est longue (en asynchrone).- "&&" : idem sans les informations sur les processus.
pwd (print working directory)
[modifier | modifier le wikicode]Affiche le répertoire courant.
$ pwd /home/alex
id
[modifier | modifier le wikicode]Affiche les informations relatives à l'utilisateur connecté.
$ id uid=1000(alex) gid=1000(alex) groupes=20(dialout), 24(cdrom), 25(floppy), 29(audio), 44(video), 46(plugdev), 106(netdev), 109(powerdev), 1000(alex)
passwd
[modifier | modifier le wikicode]Permet de changer son mot de passe
$ passwd
Changing password for alex
(current) UNIX password:
Enter new UNIX password:
Retype new UNIX password:
passwd : le mot de passe a été mis à jour avec succès
Ne pas utiliser le symbole euros (€
) dans les mots de passe, car il est potentiellement mal géré par Linux et pourrait se voir systématiquement refusé.
cd (change directory)
[modifier | modifier le wikicode]Pour se placer dans un répertoire
$ cd . # . désigne le répertoire courant $ cd .. # .. désigne le répertoire parent $ cd / # / désigne le répertoire racine
$ cd /tmp # désigne le répertoire tmp appartenant à la racine $ cd tmp # désigne le répertoire tmp du répertoire courant $ cd ../tmp # désigne le répertoire tmp du répertoire parent du répertoire courant
$ cd ~ # permet de revenir dans son répertoire de travail (home directory) $ cd # idem
Connecté en root, la commande cd m'amène au répertoire /root qui est le répertoire de travail de l'utilisateur root.
Connecté avec l'utilisateur alex, cd m'amène au répertoire de travail de l'utilisateur alex, à savoir /home/alex.
ls (list sorting)
[modifier | modifier le wikicode]Liste les fichiers d'un répertoire
$ ls # liste les fichiers non cachés du répertoire courant $ ls -l # (l : long) : liste détaillée des fichiers du répertoire courant $ ls -a # (a : all) : liste tous les fichiers, y compris les fichiers cachés
On peut combiner plusieurs options, l'ordre n'est pas important. Les quatre commandes suivantes sont identiques :
$ ls -a -l $ ls -l -a $ ls -la $ ls -al
Lister de façon détaillée (-l) tous les fichiers, même cachés (-a), les plus récents (-t) en derniers (-r), avec leur taille en kilo-octets (-k) lisible facilement avec les unités K pour Kilo, M pour Mega, G pour Giga(-h).
$ ls -lartkh
Pour ne lister que les sous-dossiers :
ls -d */
Pour compter les éléments de la liste :
ls |wc -l
cat (concatenate)
[modifier | modifier le wikicode]Affiche le contenu d'un fichier ou de plusieurs fichiers concaténés sur la sortie standard (l'écran)
$ cat /etc/crontab # affiche le contenu du fichier /etc/crontab $ cat /etc/cron.daily /etc/cron.weekly # concatène les deux fichiers et affiche leur contenu
Pour que les modifications de fichiers s'ajoutent en temps réel sur la sortie standard, utiliser :
tail -f /etc/crontab
mkdir (make directory)
[modifier | modifier le wikicode]Permet de créer un répertoire
$ mkdir rep1 # crée un répertoire rep1 dans le répertoire courant $ mkdir /rep1 # tente de créer un répertoire rep1 à la racine, # le système refuse car je ne suis pas connecté en root
Exercice : je suis dans le répertoire /var/log, je souhaite créer un répertoire rep2 dans le répertoire /home/alex, comment faire ?
J'ai trois possibilités :
$ mkdir ../../home/alex/rep2 # on utilise un adressage relatif à la position où je suis : # on remonte dans l'arborescence jusqu'à la racine puis # on redescend jusqu'au répertoire alex)
$ mkdir /home/alex/rep2 # on utilise un adressage absolu en partant de la racine
$ mkdir ~/rep2 # on utilise ~ pour désigner le répertoire de travail
l'option -p permet de créer le(s) répertoire(s) parent(s).
$ mkdir -p rep1/rep2 # crée un répertoire parent rep1 si il n'existe pas, # et crée dans rep1 un répertoire rep2
rmdir (remove directory)
[modifier | modifier le wikicode]Supprimer un répertoire vide
$ rmdir rep1
cp (copy)
[modifier | modifier le wikicode]Copier un fichier
$ cp /etc/passwd /tmp # copie le fichier /etc/passwd dans le répertoire /tmp
$ cp /etc/passwd /tmp/nouveaunom # copie le fichier /etc/passwd dans le répertoire /tmp # et le renomme en nouveaunom
Attention, si le fichier destination existe déjà, il sera remplacé sans demande de confirmation !
Options courantes :
-i : si le fichier destination existe, demande confirmation avant de remplacer le fichier
Copier un dossier (avec son contenu)
[modifier | modifier le wikicode]cp -Rf mondossier /tmp
rm (remove)
[modifier | modifier le wikicode]Effacer un fichier
$ rm lefichier # efface le fichier lefichier
Attention, le fichier est effacé et sans demander confirmation !
Options courantes :
-i : demande confirmation avant d'effacer le fichier -f : ne demande pas de confirmation (annule -i) -r : supprime les répertoires récursivement
Exemples
[modifier | modifier le wikicode]- Pour supprimer le répertoire "tmp" et son contenu :
rm -rf tmp
- Pour supprimer les fichiers de log de plus de deux jours :
find /var/log* -mtime +2 -exec rm {} \;
mv (move)
[modifier | modifier le wikicode]Déplacer ou renommer des fichiers
$ mv [Option] Source Destination(répertoire)
$ mv [Option] Répertoire Source
$ mv fichier_source fichier_cible # déplacer fichier_source dans fichier_cible
$ mv fichier1 fichier2 # renomme le fichier fichier1 en fichier2
# Attention si fichier2 existe, son contenu sera écrasé et
# remplacé par celui de fichier1
Par précaution, on utilise l'option -i qui permet d'être averti par le système avant l'écrasement du fichier destination si celui-ci existe.
$ mv -i fichier1 fichier2 # demande la confirmation avant d'effacer la destination
$ mv rep1/fic1 rep2/fic2 # déplace le fichier fic1 situé dans le répertoire ''rep1''
# sous le nouveau nom fic2 situé dans le répertoire rep2
$ mv rep1 rep2 # déplace le répertoire rep1 dans le répertoire rep2
# si rep2 n'existe pas, renomme rep1 en rep2
Si le dossier n'est pas vide, utiliser "-f" pour forcer l'écrasement.
Pour inclure les fichiers cachés dans les déplacements *, exécuter avant shopt -s dotglob
.
ln (link)
[modifier | modifier le wikicode]La commande ln permet de créer des liens, c'est à dire des raccourcis vers des fichiers ou des répertoires.
ln -s destination nom_du_lien
Exemple
$ ln -s prog1.0 monprogramme
Cette commande crée le lien suivant :
lrwxrwxrwx 1 alex alex 7 2007-10-26 14:25 monprogramme -> prog1.0
find : recherche par nom de fichier
[modifier | modifier le wikicode]Par exemple pour trouver tous les fichiers .log dans le dossier courant récursivement :
find . -name "*.log"
grep : recherche par contenu de fichier
[modifier | modifier le wikicode]Par exemple pour trouver tous les fichiers qui contiennent "mon texte" dans le dossier courant récursivement :
grep -r "mon texte" .
En regex en ignorant la casse :
grep -rPi "[a-z_]+" .
clear et reset
[modifier | modifier le wikicode]clear
masque les données affichées en console, et on peut les retrouver en remontant l'ascenseur.reset
efface complètement les données affichées en console.
L'aide en ligne man
Chaque commande dispose d'une page de manuel en ligne (appelée manpages).
Cette aide en ligne est très utile pour savoir comment utiliser les commandes et connaître la liste exhaustive de toutes les options disponibles.
Ligne de commande
[modifier | modifier le wikicode]Pour accéder à cette aide en ligne, il suffit de taper man <le_sujet>. Le sujet peut être le nom d'une commande (section 1) :
$ man ls
Il peut être un nom de fonction C (section 2 ou section 3) :
$ man 3 printf
L'exemple précédent donne explicitement le numéro de section où chercher le sujet pour éviter la confusion avec la commande shell printf (section 1).
Les pages de manuel sont réparties en section. Pour connaître l'ensemble des sections, il suffit de consulter la page de manuel de la commande man :
$ man man ... 1 Programmes exécutables ou commandes de l’interpréteur de commandes (shell) 2 Appels système (Fonctions fournies par le noyau) 3 Appels de bibliothèque (fonctions fournies par les bibliothèques des programmes) 4 Fichiers spéciaux (situés généralement dans /dev) 5 Formats des fichiers et conventions. Par exemple /etc/passwd 6 Jeux 7 Divers (y compris les macro-paquets et les conventions). Par exemple, man(7), groff(7) 8 Commandes de gestion du système (généralement réservées au super utilisateur) 9 Sous-programmes du noyau [hors standard]
Certaines commandes sont à la fois des commandes systèmes, des appels systèmes ou des fichiers de configuration (exemple : passwd). Il est possible d'indiquer la section que l'on désire consulter :
$ man passwd # la page de man de la commande passwd $ man 5 passwd # la page de man du fichier de configuration /etc/passwd
Les pages de man sont découpées en différents chapitres (extrait de man 7 man) :
Chapitre | Descriptif |
---|---|
SYNOPSIS | Indique brièvement l'interface de la commande ou de la fonction. Pour les commandes, ce paragraphe montre sa syntaxe et ses arguments. Les caractères gras marquent le texte invariable et l'italique indique les arguments remplaçables. Les crochets encadrent les arguments optionnels, les barres verticales (caractère pipe) séparent les alternatives, et les ellipses ... signalent les répétitions. Pour les fonctions, on trouve toutes les déclarations et directives #include , suivies de la déclaration de fonction.
|
DESCRIPTION | Fournit une explication sur ce que la commande, la fonction ou le format représente. Décrit les interactions avec les fichiers et l'entrée standard, ou ce qui est produit sur la sortie standard ou d'erreur. Ne contient pas les détails d'implémentation internes, sauf s'ils sont critique pour comprendre l'interface. Décrit le cas principal, pour les détails sur les options, on utilise le paragraphe OPTIONS. S'il y a une sorte de grammaire d'entrée, ou un jeu de sous-commandes, on peut les placer dans une section UTILISATION supplémentaire (et placer un bref aperçu dans la section DESCRIPTION). |
RETURN VALUE (VALEUR RENVOYÉE) | Donne une liste des valeurs qu'une routine de bibliothèque renverra à l'appelant et les conditions qui provoquent ces retours. |
EXIT STATUS (CODE DE RETOUR) | Indique les codes de retour d'un programme et les conditions associées. |
OPTIONS | Décrit les options acceptées par le programme et leur influence sur son son comportement. |
USAGE (UTILISATION) | Décrit la grammaire de tout sous-langage implémenté. |
EXAMPLES (EXEMPLES) | Donne un ou plusieurs exemples d'utilisation de la fonction, du fichier ou de la commande. |
FILES (FICHIERS) | Liste les fichiers utilisés par le programme ou la fonction, tels que fichiers de configuration, de démarrage, et les fichiers manipulés directement par le programme. Il faut donner le chemin d'accès complet des fichiers et utiliser le mécanisme d'installation pour modifier le préfixe. Pour la plupart des programmes, l'installation par défaut se fait dans /usr/local, aussi, votre page de manuel de base devrait utiliser /usr/local comme base. |
ENVIRONMENT (ENVIRONNEMENT) | Décrit toutes les variables d'environnement qui affectent le programme ou la fonction, ainsi que leurs effets. |
DIAGNOSTICS (DIAGNOSTIQUE) | Fournit un survol des messages d'erreurs usuels et comment les considérer. Il n'est pas nécessaire d'indiquer les messages d'erreur système ou les signaux fatals qui peuvent apparaître durant l'exécution du programme, sauf s'ils sont traités spécialement. |
SECURITY (SÉCURITÉ) | Décrit les problèmes de sécurité et leurs implications. Doit contenir les avertissements à propos des configurations ou des environnements à éviter, les commandes ayant des répercussions au niveau sécurité, etc. surtout s'ils ne sont pas évidents. Il n'est pas obligatoire de faire un paragraphe spécifique sur la sécurité. Si l'intelligibilité est améliorée, on peut placer ces informations dans les autres sections (telles que DESCRIPTION ou USAGE (UTILISATION)). Néanmoins, il est important de placer les informations de sécurité quelque part. |
CONFORMING TO (CONFORMITÉ) | Décrit les standards ou les conventions suivis par l'implémentation. |
NOTES | Contient des notes diverses. |
BUGS (BOGUES) | Liste les limitations ou les défauts recensés, ainsi que les sujets à débat. |
AUTHOR (AUTEUR) | Liste les auteurs de la documentation ou du programme afin de pouvoir leur envoyer les rapports de bogue. |
SEE ALSO (VOIR AUSSI) | Fournit une liste des pages de manuel ayant un rapport, dans l'ordre alphabétique, suivies des autres documents éventuels. Il s'agit d'habitude de la dernière section. |
Recherche par mot-clé
[modifier | modifier le wikicode]Si le sujet exact n'est pas déterminé, l'option -k
permet une recherche par mot-clé :
man -k <mot_cle>
Commandes interactives
[modifier | modifier le wikicode]Une fois la commande man entrée, si le sujet est trouvé, la console présente la documentation page par page avec une interface similaire à la commande less ou more : l'appui d'une touche déclenche une commande immédiate.
Navigation
[modifier | modifier le wikicode]Les terminaux récents permettent l'utilisation des touches de navigation : flèches, page suivante, page précédente...
- Défilement par lignes :
- Ligne suivante : ↵ ou ↓
- Ligne précédente : ↑
- Défilement par pages :
- Page suivante : ou ⇟
- Page précédente : B (back) ou ⇞
- Début / fin du document :
- Début du document ⇑ G
- Fin du document g
Recherche dans le texte
[modifier | modifier le wikicode]/ puis entrez le terme rechercher ↵
L'écran défile directement sur la première occurrence trouvée ou bien affiche un message d'erreur. La commande met en valeur toutes les occurrences du terme.
Pour passer à l'occurrence suivante, il s'agit de la même commande mais sans entrer de terme à chercher : / ↵
La touche n permet de se placer sur l'occurrence suivante, la touche N sur la précédente.
Quitter
[modifier | modifier le wikicode]Pour quitter, appuyez la touche Q (quit). Le contenu de l'écran du terminal est restauré.
L'éditeur de texte vi
L'éditeur de textes vi
vi' (connu sous ses abréviations anglaises, prononcer vie-ail) est un éditeur de texte présent d'office sur la majorité des systèmes Unix actuels depuis 1976, souvent sous la forme d'un clone du logiciel vi originel.
vi est un éditeur modal, c'est-à-dire que la signification des boutons et des touches change selon le mode dans lequel il se trouve. L'un de ses intérêts a longtemps été de ne pas nécessiter de souris et de fonctionner avec un nombre réduit de touches. En effet, la présence de deux modes permet d'avoir un mode où les touches lettres servent à la saisie des caractères, en mode commande aux déplacements et autres commandes. De ce fait l'ensemble des nouvelles touches (flèches, clavier numérique et touches de fonction notamment) est totalement superflus. L'interface est donc la même pour tout ordinateur qu'il soit équipé d'un clavier de minitel ou d'un clavier avec d'innombrables touches.
Vi fut écrit par Bill Joy en 1976, « et ben ça ne nous rajeunit pas les enfants.»
« Tu connais Notepad ? Ben Vi c'est bien mieux, c'est même super ! » « Avec vi, tu vas frimer devant tes potes, et te la jouer hackeur. »
Derrière un aspect rustique qui nécessites une familiarisation, se cache des fonctionnalités d'édition qui ne sont pas présentes dans d'autres éditeurs de texte. Le minimum à savoir pour utiliser vi est de connaître les deux touches permettant de basculer entre ces deux modes principaux.
Alors tape dans un Shell avec tes doigts musclés vi et Entrée. Là t'as une page blanche, comme pour un nouveau roman d'amitié qui commence entre toi et Linux.
Tu peux faire plusieurs commandes : - Tape i : là par miracle tu peux taper des bêtises dans ta page. - Tape < ESC > : là tu ne peux plus rien écrire, mais ... tu peux exécuter des commandes. Et vice versa
Il y a donc 2 modes : insertion et commande.
En mode insertion ----> "tu peux écrire tout ce que tu veux." En mode commande ----> "tu peux enregistrer, effacer, quitter, etc."
- Pour passer du mode insertion au mode commande : touche < ESC >
- Pour passer du mode commande au mode insertion : touche i. (insert)
- En mode commande, on peut passer en un 3ème mode "mode Execution" en tapant ":'"(la ligne de commande est en bas de l'écran)
Commande | Fonction de la commande |
---|---|
x | effacer une lettre (xterminator) |
dd | effacer la ligne courante (delete) |
yy | copier la ligne courante (yank) |
p | coller la ligne copiée précédement lors de la commande yy ou de la commande dd |
:x | aller à la ligne x (go to line) - Ex. :152 met le curseur à la ligne 152 |
r | remplace un caractère (replace) |
u | annule la dernière commande (undo) |
:w | sauvegarder le fichier (write) |
:q! | quitter vi sans sauvegarder (quit) |
:wq | sauvegarder et quitter (write quit) |
:help | pour afficher l'aide dans vi |
:q | pour quitter la fenêtre d'aide si elle est ouverte ou l'éditeur |
:w nom_fichier | enregistre ce qui est saisi dans le fichier nom_fichier |
/toto | chercher la chaîne toto en avant |
?toto | chercher la chaîne toto en arrière |
n | permet de chercher l'occurrence suivante de la chaîne |
:s/alex/toto | remplace l'occurrence suivante de la chaîne alex par toto |
:%s/alex/toto/gic | remplace la chaîne alex par toto dans tout le fichier
"%" pour tout le fichier, "s" search, "g" global, "i" ignore la casse, "c" confirmation |
Il est difficile de savoir si on est en mode insertion ou en mode commande, le plus simple est d'appuyer plusieurs fois sur <ESC> pour être sûr d'être en mode commande.
vi est rustique, on le trouve sur tous les systèmes UNIX, même les plus vieux. Il est préférable d'utiliser vim (VI iMproved) quand c'est possible, c'est un éditeur vi amélioré
Après l'installation de vim, lancez le programme en tapant indifféremment vi ou vim
Vim est plus convivial, il prend en compte les flèches et d'autres fonctions du clavier récent.
Il existe bien entendu d'autres éditeurs de texte dans Linux, du plus perfectionné au plus basique, mais vi est celui qu'on trouve partout (même sur notre vieux minitel). Il est donc impératif d'en connaître les commandes de base.
Quelques autres éditeurs :
1. Ed 2. Nano 3. Emacs (editor macro) 4. Joe 5. Pico 6. XEmacs (anciennement Lucid Emacs) est un éditeur de texte pour X-Window, basé sur GNU Emacs.
Les shells
Shell veut dire Coquille, qui entoure le noyau. C'est un interpréteur de commandes qu'on utilise pour lancer des commandes ou programmer une suite de commandes. L'utilisateur discute avec le Shell, qui discute avec le noyau, qui à son tour discute avec le matériel. Originellement le shell est utilisé sous Unix, il s'est répandu depuis avec différentes versions, la forme la plus simple est sh.
Les versions connues :
- sh : shell Bourne
- ksh : korn shell
- Csh : Shell syntaxe du C
- Tcsh : Csh amélioré
- Bash : Bourne Again Shell
- Zsh : le petit dernier
Le shell est constitué de petits shells spécifiques à chaque travail, chacun ayant un fichier de configuration stocké dans le répertoire /home de chaque utilisateur, lequel peut les modifier à sa convenance :
.profile
: exécuté automatiquement lors d'un shell de connexion (à chaque login), quel que soit le shell
Fichiers de configuration spécifiques au shell Bash :
.bash_profile
: exécuté automatiquement lors d'un shell de connexion (à chaque login).bashrc
: chargé automatiquement lors d'un shell interactif.bash_logout
: chargé lors de la fermeture du shell (à la déconnexion)
Autres fichiers liés au Bash
.bash_history
: c'est un fichier texte contenant l'historique des commandes tapées.
La complétion
« L'art de la saisie des commandes ultra rapide ».
À chaque fois que vous tapez une commande, Linux vous aide à compléter votre commande en appuyant sur la touche TAB ↹.
Tapez le début de votre commande et en appuyant sur la touche TAB ↹, Linux vous la complète ou vous propose les différentes possibilités pour la compléter, à défaut vous aurez droit à un petit bip, s'il existe un trop grand nombre de propositions, Linux vous affiche ce nombre.
exemple :
$ cd /h
en tapant TAB ↹ Linux complète la commande encd /home
$ cd /
en tapant TAB ↹ Linux me donne la liste de tous les répertoires de la racine afin que j'en choisisse un en tapant ses premiers caractères et que je complète encore par TAB ↹ si besoin est.
Les jokers
Dans une commande sur les fichiers, on peut remplacer une partie d'un nom (un ou plusieurs caractères) de fichier par * ou un seul caractère par ?
Exemple
$ ls *.c # liste tous les fichiers du répertoire courant dont
# l'extension est .c
$ ls fic*.c # liste tous les fichiers du répertoire commençant par fic
# et dont l'extension est .c
# ex : fichier1.c fichier2.c fichierprojet.c ...
$ ls fichier?.c # liste tous les fichiers dont le nom est "fichier"
# + un caractère quelconque
# et dont l'extension est .c
# fichier1.c fichier2.c fichier3.c fichier4.c ...
$ ls fichier.[ch] # liste tous les fichiers commençant par fichier
# et dont l'extension est "." et est suivie de c ou h
# liste : fichier.c fichier.h
La commande zenity : man zenity
Les répertoires importants
Une des premières difficultés pour les débutants Unix est de se repérer dans l'arborescence. Contrairement à un environnement Windows qui regroupe toutes les ressources nécessaires à un programme dans un même répertoire, les ressources dans un système unix (et dans une moindre mesure MacOS) sont réparties dans une hiérarchie générale. Ainsi si le code exécutable d'un programme se trouve dans le répertoire /bin
, ses libraries se trouveront dans le répertoire /lib
et ses fichiers de configuration dans le répertoire /etc
.
La hiérarchie des systèmes unix est normalisée, la spécification étant accessible sur http://www.pathname.com/fhs/
Voici une liste des répertoires à connaître.
Les programmes exécutables
[modifier | modifier le wikicode]- /bin : les commandes indispensables
- /usr/bin : les autres commandes
- /usr/local/bin : les commandes installées à la main
Les programmes exécutables du super-utilisateur root
[modifier | modifier le wikicode]- /sbin : les programmes indispensables d'administration
- /usr/sbin : les autres programmes d'administration
- /usr/local/sbin : les programmes d'administration installées à la main
Les fichiers de configuration
[modifier | modifier le wikicode]- /etc
En particulier, /etc contient les fichiers:
/etc/passwd liste des comptes utilisateurs et leurs répertoires associés. /etc/shadow liste des comptes utilisateurs et leurs mots de passe chiffrés. /etc/X11/xorg.conf fichier de configuration du serveur graphique.
Le(s) noyau(x) Linux
[modifier | modifier le wikicode]- /boot
Les répertoires de travail des utilisateurs
[modifier | modifier le wikicode]- /home
Chaque utilisateur du système aura un répertoire dans /home portant son nom.
Par exemple le bureau de l'utilisateur "wiki" se trouve dans :
/home/wiki/Bureau
NB : si le bureau montre des icônes qui ne figure pas dans "/home/wiki/Bureau", on peut les retirer par exemple sur Gnome avec :
gsettings set org.gnome.shell.extensions.ding show-home false gsettings set org.gnome.shell.extensions.ding show-trash false
Le répertoire de travail du super-utilisateur root
[modifier | modifier le wikicode]- /root
Les librairies partagées
[modifier | modifier le wikicode]- /lib : les librairies indispensables
- /usr/lib : les autres librairies
- /usr/local/lib : les librairies des programmes installés à la main
Les points de montage
[modifier | modifier le wikicode]- /mnt : Répertoire dans lequel on pourra créer des points de montage pour des systèmes de fichiers temporaires, destiné à un usage d'appoint. Les composants vitaux du système ne doivent pas dépendre de ce répertoire.
- /media : Répertoire dans lequel des points de montage seront créés automatiquement pour accéder aux supports de stockage amovibles (cdrom, clé usb...)
Les périphériques
[modifier | modifier le wikicode]- /dev
En particulier, on trouve les fichiers :
/dev/hda ou hdb ou sda etc. qui correspondent aux disques dur. Les disques durs IDE sont notés hd et les SATA ou SCSI sont notés sd /dev/hda1 ou hda2 etc. qui correspondent aux partitions des disques. hda1 est la 1ere partition du premier disque IDE (hda).
/dev/eth0 qui correspond à la première carte réseau. Pour plus d'une carte réseau, on verra apparaître d'autres fichiers /dev/eth.
/dev/audio qui correspond au périphérique son.
Les autres programmes et leurs fichiers annexes
[modifier | modifier le wikicode]- /usr
Ce répertoire est en lecture-seule et est destiné à être partagé. Les programmes installés par le système d'exploitation se trouvent dans /usr/bin. Les programmes installés manuellement par les utilisateurs se trouvent dans /usr/local.
« usr » veut dire Unix System Ressources et non pas user. Les fichiers relatifs aux utilisateurs du système se trouvent dans le répertoire « /home ».
Le système de fichier virtuel
[modifier | modifier le wikicode]Donne les infos de la machine
- /proc
sur le processeur
[modifier | modifier le wikicode]Ex:/proc/cpuinfo
sur la mémoire
[modifier | modifier le wikicode]Ex:/proc/meminfo
sur les modules
[modifier | modifier le wikicode]Ex:/proc/modules
sur les montages du systeme
[modifier | modifier le wikicode]Ex:/proc/mount
sur la swaps
[modifier | modifier le wikicode]Ex:/proc/swaps
Les fichiers temporaires
[modifier | modifier le wikicode]- /tmp
- /var/tmp
Les données variables
[modifier | modifier le wikicode]- /var
Ce répertoire contient les données variables. En particulier:
les logs sont stockés dans /var/log les mails en attente de livraison sont stockées dans /var/mail les travaux d'impression seront dans /var/spool ou /var/mail selon le serveur d'impression utilisé.
- /var/log, ce répertoire contient les journaux (fichiers détaillant les historiques de programmes).
- /var/mail, ce répertoire contient les emails des utilisateurs du système. Un utilisateur du système peut voir ses emails via la commande « mail ».
- /var/spool, ce répertoire contient les données en attente de traitement (par un programme), et sont en générale supprimé après avoir été traité.
- /var/lib, ce répertoire contient les données des bases de données (Mysql, Postgresql) et les bases de données dpkg (rpm sur RedHat)
- /var/www : les sites Web
Les programmes et ressources installés à la main
[modifier | modifier le wikicode]- /usr/local
Ce répertoire contient des données mis en place par l'administrateur du système, comme « /usr » mais dans un contexte plus « isolé » car ces ressources sont géré par ce même administrateur système, et contient des sous-répertoire tel que:
/usr/local ├── bin/ : où se trouvent les programmes. │ ├── monprogramme : exemple de programme nommé « monprogramme ». ├── etc/ : où se trouvent les fichiers de configurations des programmes, comme « /etc ». │ ├── monprogramme.conf : exemple de configuration de « monprogramme ». ├── lib/ : où se trouvent les bibliothèques logiciel. ├── lib64/ : où se trouvent les bibliothèques logiciel, compilé pour les processeurs à architecture 64 bits. ├── sbin/ : où se trouvent les programmes utilisable par "root".
Redirection des entrées/sorties
Les entrées/sorties des processus
[modifier | modifier le wikicode]Chaque processus possède 3 flux standards qu'il utilise pour communiquer en général avec l'utilisateur :
- l'entrée standard nommée
stdin
(identifiant 0) : il s'agit par défaut du clavier, - la sortie standard nommée
stdout
(identifiant 1) : il s'agit par défaut de l'écran, - la sortie d'erreur standard nommée
stderr
(identifiant 2) : il s'agit par défaut de l'écran.
Ces flux peuvent être redirigés afin que le processus interagisse avec un autre au lieu d'interagir avec l'utilisateur.
Redirection
[modifier | modifier le wikicode]Rediriger la sortie standard
[modifier | modifier le wikicode]Quand on exécute une commande, le shell affiche le résultat sur la console de sortie (l'écran par défaut). On peut rediriger cette sortie vers un fichier en utilisant le signe >.
Exemple
~$ ls > resultat_ls
Si le fichier existe déjà, il est écrasé.
Concaténation
[modifier | modifier le wikicode]Au lieu de créer un fichier, il est possible d'ajouter les sorties d'un processus à un fichier existant en utilisant le double signe >>.
Exemple
~$ ls >> resultat
Si le fichier résultat existe déjà, les affichages sont concaténés.
Syntaxe complète
[modifier | modifier le wikicode]En fait, les signes > peuvent être précédés de l'identifiant du flux à rediriger. Pour la sortie standard, on peut donc utiliser les syntaxes suivantes :
~$ ls 1> resultat ~$ ls 1>> resultat
Ce qui revient au même que les deux premiers exemples ci-dessus (redirection et concaténation).
Rediriger la sortie d'erreur standard
[modifier | modifier le wikicode]La redirection du flux de sortie d'erreur standard utilise les mêmes signes, mais précédés de l'identifiant du flux : 2.
Exemples
~$ ls 2> erreurs_ls ~$ ls 2>> erreurs_ls
Rediriger l'entrée standard
[modifier | modifier le wikicode]Rediriger l'entrée standard permet d'entrer des données provenant d'un fichier au lieu du clavier.
Exemple
~$ cat < mon_fichier.txt
Rediriger un flux vers un autre
[modifier | modifier le wikicode]Il est possible de rediriger un flux vers la sortie standard ou la sortie d'erreur en donnant l'identifiant du flux précédé du caractère & à la place du nom de fichier.
Exemple
~$ ls 1> stdout_stderr.txt 2>&1
Le fichier stdout_stderr.txt
contient ce qui a été affiché à la fois sur le flux de sortie standard et le flux de sortie d'erreur.
Échange des deux flux de sortie
[modifier | modifier le wikicode]L'échange des deux flux de sortie s'effectue en utilisant la syntaxe pour rediriger un flux vers un autre à trois reprises, en utilisant un identifiant de flux fictif comme intermédiaire (3).
Exemple
~$ ls 2>&3 1>&2 3>&1
Le pipe (un tube)
[modifier | modifier le wikicode]Redirige la sortie d'une commande vers l'entrée d'une autre commande. Il s'agit donc d'une chaîne de redirection entre deux processus qui ne passe pas par un fichier, mais par une zone mémoire du système.
Exemples
- Afficher la taille des fichiers et répertoires, et les trier du plus grand au plus petit :
$ du | sort -rn
- Même résultat, mais affiché page par page :
$ du | sort -rn | more
- Connaître le nombre de fichiers du répertoire /usr/bin :
$ ls -1 /usr/bin | wc -l
Explications : L'option -1 de la commande ls affiche un fichier ou répertoire par ligne. La commande wc (word count) avec l'option -l (line) compte le nombre de lignes.
- Connaître tous les périphériques IDE détectés par le noyau Linux et les afficher page par page :
$ dmesg | grep hd | more
Explications : la commande dmesg affiche les messages du noyau Linux détectés durant le boot. La commande grep n'affiche que les lignes contenant le mot hd. La commande more affiche ces résultats page par page.
Autre exemple : extraire l'adresse IP de la carte réseau eth0 :
$ ifconfig eth0 | grep 'inet adr' | cut -f2 -d':' | cut -f1 -d' ' 192.168.30.50
Invoquer un programme en tâche de fond
Invoquer un programme en tâche de fond
[modifier | modifier le wikicode]Certains programmes ne rendent pas la main immédiatement (exemple : la compilation d'un gros programme).
Pour récupérer la main, il suffit de rajouter un & (ET commercial ou Esperluette) à la fin de la commande :
$ xeyes &
Si on a lancé une commande qui ne rend pas la main et que l'on a oublié de rajouter le &, on peut utiliser la méthode suivante :
$ xeyes <CTRL Z> [1]+ Stopped xeyes
Le programme est alors stoppé. Il suffit de taper ensuite la commande bg (background) pour qu'il s'exécute en tâche de fond :
$ xeyes <CTRL Z> [1]+ Stopped xeyes $ bg [1]+ xeyes & $
La commande fg (foreground) permet de refaire passer le programme en premier plan :
$ xeyes <CTRL Z> [1]+ Stopped xeyes $ bg [1]+ xeyes & $ fg xeyes
La commande jobs affiche les tâches en cours.
$ jobs [1]+ Running xeyes &
Propriétaires et droits d'accès
Les droits d'accès
[modifier | modifier le wikicode]Fonctionnement
[modifier | modifier le wikicode]Chaque fichier du système est associé à des droits d'accès.
Ceux-ci sont affichés par la commande ls
en utilisant le format long : ls -l
.
Ces droits d'accès sont résumés en 10 caractères de la forme suivante :
type u_read u_write u_exec g_read g_write g_exec o_read o_write o_exec
Exemple :
drwxr-xr-x
Le premier caractère représente le type de fichier :
Type | Description |
---|---|
- | Regular file : fichier normal |
d | Directory : répertoire |
l | Link : lien |
b | Block device : périphérique bloc (périphérique à accès direct) |
c | Character device : périphérique caractère (périphérique à accès séquentiel) |
s | Socket |
p | Pipe (tube nommé) |
Le reste de la chaîne est scindé en 3 blocs de 3 caractères qui représentent les différents niveaux de droit :
- user(u) : droits concernant le propriétaire du fichier,
- group(g) : droits concernant les autres membres du même groupe que le propriétaire du fichier,
- other(o) : droits concernant tous les autres utilisateurs.
Les trois caractères d'un bloc sont les suivants, dans l'ordre :
r
(read) : droit de lire le fichier / lister le contenu du répertoirew
(write) : droit d'écrire dans le fichier / modifier le répertoire (créer/supprimer des fichiers)x
(execute) : droit d'exécuter le fichier (programme ou script) / ou de traverser le répertoire (changer le répertoire courant).
Si l'un des droits n'est pas accordé, un tiret est affiché à sa place.
Exemple :
-rwxrw-r-- ... script.sh
Le fichier script.sh
est un fichier normal (-
) et est associé aux droits suivants :
- Le propriétaire peut lire, écrire et exécuter ce fichier (
rwx
), - Les membres du même groupe que le propriétaire peuvent lire et écrire, mais pas exécuter ce fichier (
rw-
), - Les autres utilisateurs peuvent seulement lire ce fichier (
r--
).
- Pour plus de détails voir : w:Permissions_Unix#Droits étendus.
Modifier les droits d'accès
[modifier | modifier le wikicode]La commande chmod
permet de modifier les droits associés à un fichier.
Enlever le droit de lecture (r) aux autres (o)
~$ chmod o-r nom_de_fichier
Ajouter un droit d'écriture (w) au groupe (g)
~$ chmod g+w nom_de_fichier
Combinaison des deux commandes :
~$ chmod o-r,g+w nom_de_fichier
Spécifier tous les droits avec une valeur numérique :
~$ chmod 0754 nom_de_fichier
Les droits par défaut et la commande umask
[modifier | modifier le wikicode]Les droits par défaut d'un nouveau fichier sont définis par rapport à un masque des droits défini pour chaque utilisateur avec la commande umask
.
Afficher le masque courant :
~$ umask 0022
Exemples :
- Un fichier est créé avec les droits par défaut 666 (rw-rw-rw-) filtré par le masque 022 :
666 & ~022 = 644 rw- r-- r--
- Un >répertoire est créé avec les droits par défaut 777 (rwxrwxrwx) filtré par le masque 022 :
777 & ~022 = 755 rwx r-x r-x
Les propriétaires et les groupes
[modifier | modifier le wikicode]La commande chown
[modifier | modifier le wikicode]La commande chown permet de changer le propriétaire d'un fichier ou d'un répertoire. Il faut être propriétaire du fichier ou répertoire, ou root selon la ressource que l'on souhaite modifier.
La commande chown est suivie du nouveau propriétaire puis du nom du fichier ou du répertoire: $ chown alex toto => donne la propriété du fichier toto à alex.
La commande chgrp
[modifier | modifier le wikicode]Comme la commande chown, la commande chgrp change le groupe propriétaire d'un fichier ou d'un répertoire.
La commande chgrp est suivie du nom du groupe puis du nom du fichier ou du répertoire : $ chgrp etudiant toto => donne la propriété du fichier toto au groupe etudiant.
On peut aussi changer le propriétaire et le groupe en une seule commande :
$ chown suivit du nom du propriétaire.nom du groupe suivit du nom du fichier $ chown alex.prof toto => donne la propriété du fichier toto à alex et au groupe prof.
Le raccourci suivant existe également :
$ chown alex. toto => donne la propriété du fichier toto à alex et au groupe alex.
Les Access Control List (ACL)
[modifier | modifier le wikicode]Afficher les ACL
[modifier | modifier le wikicode]afficher tous les droits, y compris dans les sous-répertoires : $ getfacl -R *
afficher tous les droits sauf les droits de base : $ getfacl --skip-base -R *
Ajouter une ACL
[modifier | modifier le wikicode]Modifier une ACL
[modifier | modifier le wikicode]Supprimer une ACL
[modifier | modifier le wikicode]Sauvegarder les ACL
[modifier | modifier le wikicode]Pour les systèmes de fichier XFS, il convient également de sauvegarde les ACLs. La sauvegarde des ACLs doit être effectuée dans un fichier avant la sauvegarde sur bande.
$ getfacl --skip-base -R /home/acl.sauv
ou
$ getfacl --skip-base -absolute_name -R /home > /home/acl.sauv
si la sauvegarde se fait en chemin absolu.
Le fichier /home/acl.sauv sera également sauvegardé sur bande.
Processus
Définition d'un processus
[modifier | modifier le wikicode]Un processus est un programme en cours d'exécution. Par exemple, chaque fois que l'on lance la commande ls, un processus est créé durant l'exécution de la commande.
Un processus est identifié par un numéro unique que l'on appelle le PID (Process IDentifiant).
Un processus dispose d'un processus père que l'on appelle le PPID (Parent PID).
La particularité d'un processus est de s'exécuter avec les droits accordés à l'utilisateur qui a lancé la commande. Ceci participe fortement à la sécurité du système. Ainsi, si un utilisateur contracte un programme malveillant (un virus par exemple), le processus sera soumis au droit d'accès de cet utilisateur, et ne pourra pas effectuer des opérations non autorisées (comme par exemple modifier le fichier de mots de passe).
Au démarrage de l'ordinateur, le système charge le noyau Linux qui se charge de l'initialisation du matériel et de la détection des périphériques. Ceci fait, il démarre ensuite le processus init qui a comme particularité d'être le premier processus et de toujours utiliser le PID 1. Ce processus démarre ensuite des processus noyaux (dont le nom est noté entre crochets), et les premiers processus systèmes.
Chaque processus a ainsi un père (sauf init), et peut être à son tour le père d'autres processus, etc.
La commande pstree permet de visualiser l'arbre des processus. L'option -p permet de visualiser les PID de chaque processus.
Exemple :
$ pstree -p init(1)─┬─atd(2861) ├─avahi-daemon(2647)───avahi-daemon(2648) ├─cron(2873) ├─cupsd(2571) ├─dbus-daemon(2579) ├─dbus-daemon(3023) ├─dbus-launch(3022) ├─dcopserver(3054) ├─dhcdbd(2628) ├─dirmngr(3221) ├─events/0(4) ├─exim4(2739) ├─gconfd-2(3576) ├─gdm(2796)───gdm(2802)─┬─Xorg(2805) │ └─startkde(2971)─┬─kwrapper(3063) │ └─ssh-agent(3019) ├─getty(2902) ├─getty(2903) ├─getty(2904) ├─getty(2905) ├─getty(2906) ├─getty(2907) ├─hald(2587)───hald-runner(2588)─┬─hald-addon-keyb(2594) │ └─hald-addon-stor(2621) ├─hpiod(2464) ├─inetd(2756) ├─kaccess(3073) ├─kded(3058) ├─kdeinit(3051)─┬─artsd(3077) │ ├─firefox-bin(3572)─┬─{firefox-bin}(3573) │ │ ├─{firefox-bin}(3574) │ │ ├─{firefox-bin}(3581) │ │ ├─{firefox-bin}(3586) │ │ ├─{firefox-bin}(3587) │ │ └─{firefox-bin}(3588) │ ├─kio_file(3071) │ ├─klauncher(3056) │ ├─konsole(3308)───bash(3309)───pstree(4518) │ ├─konsole(3907)───bash(3908)───su(3925)───bash(3926) │ └─kwin(3066) ├─kdesktop(3068) ├─kdesud(3357) ├─khelper(5) ├─kicker(3070) ├─klipper(3085) ├─klogd(2446) ├─knotify(3082) ├─korgac(3086) ├─ksmserver(3065) ├─ksoftirqd/0(3) ├─kthread(6)─┬─aio/0(76) │ ├─ata/0(594) │ ├─ata_aux(595) │ ├─hda_codec(1575) │ ├─kblockd/0(9) │ ├─khubd(529) │ ├─kjournald(1012) │ ├─kjournald(1916) │ ├─kjournald(1918) │ ├─kjournald(1920) │ ├─kjournald(1922) │ ├─kmirrord(1874) │ ├─kpsmoused(1551) │ ├─kseriod(12) │ ├─kswapd0(75) │ ├─pdflush(73) │ ├─pdflush(74) │ ├─scsi_eh_0(653) │ └─scsi_eh_1(655) ├─migration/0(2) ├─portmap(2192) ├─python(2491) ├─rpc.statd(2810) ├─soffice(4472)───soffice.bin(4492)─┬─{soffice.bin}(4493) │ ├─{soffice.bin}(4494) │ ├─{soffice.bin}(4495) │ ├─{soffice.bin}(4496) │ └─{soffice.bin}(4497) ├─start_kdeinit(3050) ├─syslogd(2440) └─udevd(1192)
Dans cette arborescence, on constate que le processus init est bien le père de tous les processus.
Afficher la liste des processus
[modifier | modifier le wikicode]La commande ps permet d'afficher les processus. Utilisée sans option, la commande ps affiche les processus de l'utilisateur courant associé au terminal courant.
Pour connaître tous les processus, y compris ceux qui ne sont pas associés au terminal courant, on utilise les options aux (notation BSD) et -ef (notation Unix). Pour connaître la totalité des options, consulter la page de manuel de la commande ps (man ps).
Exemples :
$ ps aux pixl@nitroglycerine:~$ ps aux USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND root 1 0.0 0.0 1944 644 ? Ss 11:36 0:00 init [2] root 2 0.0 0.0 0 0 ? S 11:36 0:00 [migration/0] root 3 0.0 0.0 0 0 ? SN 11:36 0:00 [ksoftirqd/0] root 4 0.0 0.0 0 0 ? S< 11:36 0:00 [events/0] root 5 0.0 0.0 0 0 ? S< 11:36 0:00 [khelper] ... daemon 2192 0.0 0.0 1684 376 ? Ss 11:36 0:00 /sbin/portmap root 2440 0.0 0.0 1628 640 ? Ss 11:36 0:00 /sbin/syslogd root 2446 0.0 0.0 1576 376 ? Ss 11:36 0:00 /sbin/klogd -x root 2464 0.0 0.0 4884 916 ? Ss 11:36 0:00 /usr/sbin/hpiod ...
$ ps -ef UID PID PPID C STIME TTY TIME CMD root 1 0 0 11:36 ? 00:00:00 init [2] root 2 1 0 11:36 ? 00:00:00 [migration/0] root 3 1 0 11:36 ? 00:00:00 [ksoftirqd/0] root 4 1 0 11:36 ? 00:00:00 [events/0] root 5 1 0 11:36 ? 00:00:00 [khelper] ... daemon 2192 1 0 11:36 ? 00:00:00 /sbin/portmap root 2440 1 0 11:36 ? 00:00:00 /sbin/syslogd root 2446 1 0 11:36 ? 00:00:00 /sbin/klogd -x root 2464 1 0 11:36 ? 00:00:00 /usr/sbin/hpiod ...
Au final, on obtient les mêmes résultats.
Les signaux
[modifier | modifier le wikicode]Définition
[modifier | modifier le wikicode]Les signaux offrent un mécanisme permettant d'envoyer un message à un processus en cours d'exécution. On se sert généralement des signaux pour terminer un processus, lui indiquer de relire sa configuration, etc.
Les différents signaux
[modifier | modifier le wikicode]Pour connaître la liste des signaux, il suffit de consulter la page de manuel de signal (section 7) :
$ man 7 signal ... Signal Valeur Action Commentaire --------------------------------------------------------------------- SIGHUP 1 Term Déconnexion détectée sur le terminal de contrôle ou mort du processus de contrôle. SIGINT 2 Term Interruption depuis le clavier. SIGQUIT 3 Core Demande « Quitter » depuis le clavier. SIGILL 4 Core Instruction illégale. SIGABRT 6 Core Signal d’arrêt depuis abort(3). SIGFPE 8 Core Erreur mathématique virgule flottante. SIGKILL 9 Term Signal « KILL ». SIGSEGV 11 Core Référence mémoire invalide. SIGPIPE 13 Term Écriture dans un tube sans lecteur. SIGALRM 14 Term Temporisation alarm(2) écoulée. SIGTERM 15 Term Signal de fin. SIGUSR1 30,10,16 Term Signal utilisateur 1. SIGUSR2 31,12,17 Term Signal utilisateur 2. SIGCHLD 20,17,18 Ign Fils arrêté ou terminé. SIGCONT 19,18,25 Cont Continuer si arrêté. SIGSTOP 17,19,23 Stop Arrêt du processus. SIGTSTP 18,20,24 Stop Stop invoqué depuis tty. SIGTTIN 21,21,26 Stop Lecture sur tty en arrière-plan. SIGTTOU 22,22,27 Stop Écriture sur tty en arrière-plan.
Les signaux les plus connus sont les trois suivants :
- SIGHUP (signal n°1) : pour beaucoup de services réseaux, la réception du signal n°1 lui indique de lire sa configuration. Par exemple, cela permet d'indiquer au processus apache (serveur web) de relire sa configuration, sans avoir a arrêter et redémarrer le processus.
- SIGKILL (signal n°9) : termine un processus (arrêt brutal). Utile lorsque le SIGTERM ne marche pas (processus planté).
- SIGTERM (signal n°15) : demande au processus de s'arrêter (arrêt propre).
Envoyer un signal à un processus
[modifier | modifier le wikicode]kill
[modifier | modifier le wikicode]La commande kill permet d'envoyer un signal au processus. Syntaxe :
$ kill -<numéro du signal ou nom du signal> <PID du processus>
Exemples :
$ kill -1 12345
$ kill -SIGTERM 12345
Exemple :
$ pidof cupsd
2571
$ kill -15 2571
ou directement :
$ kill `pidof java`
(ce qui fonctionne aussi s'il y a plusieurs processus du même nom)
killall
[modifier | modifier le wikicode]La commande killall permet d'indiquer le nom du processus plutôt que son PID, et va envoyer le signal à tous les processus possédant ce nom. Exemple :
$ xeyes & ; xeyes & ; xeyes & $ killall xeyes
Utilisé sans option, les commandes kill et killall envoient le signal n°15 (arrêt propre).
pkill
[modifier | modifier le wikicode]Pour tuer un processus par son nom.
Par exemple pour killer une session bloquée :
$ w USER TTY my_user pts/0 my_user pts/1 $ pkill -9 -t pts/0
Autres commandes affichant les processus
[modifier | modifier le wikicode]La commande top permet d'afficher (entre autres) la liste des processus de manière dynamique (rafraîchit la liste toutes les 3 secondes).
Lorsque la commande top fonctionne, les lettres suivantes permettent de changer son fonctionnement :
- h : affiche l'aide
- q : quitte la commande top
- M : tri les processus par utilisation de la mémoire (du plus gourmand au plus sobre)
- P : tri les processus par utilisation du processeur (du plus gourmand au plus sobre)
- s : permet de changer la durée de rafraîchissement de top
- k : permet d'envoyer un signal à un processus
Les processus légers
[modifier | modifier le wikicode]Les Thread ID (TID ou SPID)
[modifier | modifier le wikicode]Les processus légers SPID connus aussi sous le nom de TID (Threads ID) sont les numéros des threads. Explication par l'exemple :
Voir aussi : Processus léger sur Wikipédia
Limiter un processus
[modifier | modifier le wikicode]CPULimit est un utilitaire qui permet de limiter la ressource CPU utilisée par un processus
apt-get install cpulimit
La syntaxe est la suivante : cpulimit --pid <pid> --limit <limit>
<pid> est le pid du processus cible, et <limit> la limitation effective en pourcentage (maximum 100% sur un simple cœur, 200 pour un double ...)
Exemple :
cpulimit --pid 2960 --limit 55
Exemple avec le nom de processus (au lieu du pid) :
cpulimit --exe bigloop --limit 40
Conserver un processus en activité
[modifier | modifier le wikicode]Il est possible de laisser tourner un processus lancé depuis la console même sans être connecté. On utilise la fonction nohup qui permet d'ignorer le signal SIGHUP lors de la déconnexion.
$ nohup application &
La sortie standard est automatiquement redirigée vers nohup.out dans le répertoire courant, sauf si une redirection est spécifiée.
$ nohup application & > application.log
Locale
Sous Linux, les locales sont des variables d'environnement qui ont un impact essentiel sur le bon fonctionnement des logiciels.
Une de ces variable permet notamment de configurer le codage de caractère utilisé par un logiciel. Aujourd'hui, les systèmes utilisent massivement utf-8 depuis le début du XXIe siècle. Ceci permet de manipuler des textes ou des fichiers comportant les caractères Unicode[1].
Exemples
[modifier | modifier le wikicode]La commande locale
permet d'accéder à la configuration du système.
Par exemple sur un Ubuntu en français de France, on a :
$ locale LANG=fr_FR.UTF-8 LANGUAGE= LC_CTYPE="fr_FR.UTF-8" LC_NUMERIC="fr_FR.UTF-8" LC_TIME="fr_FR.UTF-8" LC_COLLATE="fr_FR.UTF-8" LC_MONETARY="fr_FR.UTF-8" LC_MESSAGES="fr_FR.UTF-8" LC_PAPER="fr_FR.UTF-8" LC_NAME="fr_FR.UTF-8" LC_ADDRESS="fr_FR.UTF-8" LC_TELEPHONE="fr_FR.UTF-8" LC_MEASUREMENT="fr_FR.UTF-8" LC_IDENTIFICATION="fr_FR.UTF-8" LC_ALL=
$ locale -k LC_MONETARY int_curr_symbol="EUR " currency_symbol="€" mon_decimal_point="," mon_thousands_sep=" " mon_grouping=3 positive_sign="" negative_sign="-" int_frac_digits=2 frac_digits=2 p_cs_precedes=0 p_sep_by_space=1 n_cs_precedes=0 n_sep_by_space=1 p_sign_posn=1 n_sign_posn=1 crncystr="+€" int_p_cs_precedes=0 int_p_sep_by_space=1 int_n_cs_precedes=0 int_n_sep_by_space=1 int_p_sign_posn=1 int_n_sign_posn=1 duo_int_curr_symbol="EUR " duo_currency_symbol="€" duo_int_frac_digits=2 duo_frac_digits=2 duo_p_cs_precedes=0 duo_p_sep_by_space=1 duo_n_cs_precedes=0 duo_n_sep_by_space=1 duo_int_p_cs_precedes=0 duo_int_p_sep_by_space=1 duo_int_n_cs_precedes=0 duo_int_n_sep_by_space=1 duo_p_sign_posn=1 duo_n_sign_posn=1 duo_int_p_sign_posn=1 duo_int_n_sign_posn=1 uno_valid_from=10101 uno_valid_to=99991231 duo_valid_from=10101 duo_valid_to=99991231 conversion_rate=1;1 monetary-decimal-point-wc=44 monetary-thousands-sep-wc=8239 monetary-codeset="UTF-8"
Changer cela peut modifier les formats de date ou monétaires de toutes les applications du système (même web).
Références
[modifier | modifier le wikicode]- ↑ Consulter par exemple le wikilivre À la découverte d'Unicode
Configuration du réseau
Quelques définitions
[modifier | modifier le wikicode]Nous avons trois grands axes pour configurer un réseau.
L'adresse IP
[modifier | modifier le wikicode]Tout d'abord, une adresse IP est unique sur un réseau. C'est une suite de 4 nombres allant de 0 à 255 (inclus) séparés par des points (par exemple 192.168.1.32). Cette adresse IP appartient à une classe réseau. Il existe 5 classes d'IP :
- Classe A -> de 0.0.0.0 à 127.255.255.255
- Classe B -> de 128.0.0.0 à 191.255.255.255
- Classe C -> de 192.0.0.0 à 223.255.255.255
- Classe D -> Réservée à un usage multicast.
- Classe E -> Utilisée à titre expérimental.
De l'adresse IP et de sa classe, on peut déduire trois grandes adresses:
- Le masque réseau (netmask) qui serait dans notre cas 255.255.255.0 (classe C) sert à identifier le réseau associé à une adresse IP.
- L'adresse réseau (network address) : 192.168.1.0, cette adresse ne peut être attribuée à aucun ordinateur sur le réseau.
- L'adresse de diffusion (broadcast address) : permettant d'envoyer un message à toutes les machines situées sur le réseau (ici 192.168.1.255).
Il existe la notation CIDR(Classless Inter-Domain Routing) (/24). Sous Linux, on a l'outil ipcalc qui permet de voir cette notation.
Exemple :
ipcalc 192.168.30.0/24 ipcalc 192.168.30.0/16 (classe B) ipcalc 192.168.30.0/8 (Classe A)
La passerelle
[modifier | modifier le wikicode]La passerelle ou GATEWAY permet de relier deux réseaux informatiques différents. Dans notre cas, elle est du type : 192.168.1.1.
Le serveur DNS
[modifier | modifier le wikicode]Le serveur DNS ou Domain Name System établit la liaison entre un nom de domaine et une adresse IP. Grâce au serveur DNS nous pouvons retrouver une machine sur un réseau via son adresse IP ou bien sous sa forme canonique (par exemple www.domaine.fr).
Les fichiers de configuration
[modifier | modifier le wikicode]/etc/network/interfaces
[modifier | modifier le wikicode]Sur la distribution Debian, les paramètres réseaux vont être stockés à cet emplacement: /etc/network/interfaces. Éditons ce fichier avec vim. Nous retrouvons l'adresse Loopback (127.0.0.1) autrement appelé le localhost qui boucle sur notre propre machine.
Nous allons maintenant attribuer les adresses nécessaires au bon fonctionnement de notre serveur, car celles-ci avaient été attribuées automatiquement lors de l'installation. Nous allons donc enlever la configuration DHCP en nous attribuant une adresse spécifique pour notre serveur (192.168.30.219), ce qui nous donne :
AVANT :
allow-hotplug eth0 iface eth0 inet dhcp
APRES :
auto eth0 iface eth0 inet static address 192.168.30.219 netmask 255.255.255.0 network 192.168.30.0 broadcast 192.168.30.255 gateway 192.168.30.1
Il faut maintenant relancer le fichier et vérifier que la configuration a bien été prise en compte.
# /etc/init.d/networking restart # ifconfig
/etc/resolv.conf
[modifier | modifier le wikicode]Ce fichier contient les adresses IP des serveurs de noms :
$ cat /etc/resolv.conf search mondomaine.fr autredomaine.fr nameserver 192.168.30.1
Les options search et domain permettent de spécifier un nom de domaine à rajouter à toute requête portant sur un nom qui ne contient pas de point. Ce qui signifie ici qu'une recherche sur pc235 sera tentée en utilisant pc235.mondomaine.fr. Si aucune correspondance n'est trouvée, une autre recherche sera alors tentée avec pc235.autredomaine.fr, etc.
$ ping pc235 PING pc235.mondomaine.fr (192.168.30.235) 56(84) bytes of data. ...
L'option domain permet d'utiliser un nom (mais un seul) comprenant éventuellement un sous-domaine:
$ cat /etc/resolv.conf domain truc.mondomaine.fr nameserver 192.168.30.1
Dans ce cas, une recherche sera d'abord tentée avec pc235.truc.mondomaine.fr, puis, en cas d'échec, avec pc235.mondomaine.fr.
Ces deux options ne doivent pas figurer en même temps dans le fichier resolv.conf.
L'option nameserver permet d'indiquer l'adresse IP du serveur de noms. On peut mettre plusieurs lignes nameserver pour indiquer plusieurs serveurs de noms, mais attention, l'ordre à une importance : lors de la résolution d'un nom, le système va contacter le premier serveur DNS, et si il n'a pas obtenu de réponse au bout d'un certain temps (temps généralement limité à 30s), il contactera le deuxième.
/etc/hostname
[modifier | modifier le wikicode]Ce fichier contient le nom de la machine (hostname). Il est utilisé lors du démarrage de la machine pour positionner le nom de la machine.
/etc/hosts
[modifier | modifier le wikicode]Le fichier /etc/hosts est l'ancêtre du DNS. À la création de l'Internet, il y avait très peu d'ordinateurs connectés, et ce fichier contenait la liste de ces ordinateurs et de leurs adresses IP. Chaque fois que de nouveaux ordinateurs étaient connectés à Internet, il fallait mettre à jour ce fichier pour accéder à ces nouveaux ordinateurs. Vu le nombre croissant d'ordinateurs connectés à Internet, ce fonctionnement n'était plus adapté et a donné lieu à l'invention du DNS.
Désormais, ce fichier permet de connaître les adresses IP d'ordinateurs non présents dans le DNS.
Ce fichier contient une ligne pour l'entrée loopback :
127.0.0.1 localhost
Ce fichier doit aussi contenir une ligne indiquant le nom de l'ordinateur et son adresse IP; ceci est utile en cas de défaillance du serveur DNS :
192.168.30.230 pc230.mondomaine.fr pc230 pcalex
À la fin de ce fichier, on trouve désormais des entrées pour IPv6 :
::1 ip6-localhost ip6-loopback fe00::0 ip6-localnet ff00::0 ip6-mcastprefix ff02::1 ip6-allnodes ff02::2 ip6-allrouters ff02::3 ip6-allhosts
On peut y ajouter :
2620:0:862:ed1a::1 pc230.mondomaine.fr pc230 pcalex
Puis tester immédiatement en local :
$ host pc230.mondomaine.fr
pc230.mondomaine.fr has address 192.168.30.230
pc230.mondomaine.fr has IPv6 address 2620:0:862:ed1a::1
/etc/host.conf
[modifier | modifier le wikicode]Historiquement, ce fichier contenait l'ordre de recherche pour la résolution des noms : d'abord la consultation du fichier /etc/hosts, et ensuite l'interrogation du DNS :
order hosts,bind
Désormais, ces préférences d'ordre de recherche sont indiquées dans le fichier /etc/nsswitch.conf (voir ci-dessous).
/etc/nsswitch.conf
[modifier | modifier le wikicode]Ce fichier remplace désormais le fichier /etc/host.conf et permet d'indiquer au système l'ordre de recherche pour la résolution des noms :
more /etc/nsswitch.conf ... hosts: files dns networks: files ...
L'option files indique au système de consulter d'abord les fichiers (/etc/hosts pour les noms d’hôtes et /etc/networks pour les noms de domaines) avant d'aller interroger le DNS.
/etc/networks
[modifier | modifier le wikicode]Ce fichier contient le nom des réseaux et leur adresse réseau :
default 0.0.0.0 loopback 127.0.0.0 link-local 169.254.0.0 mondomaine.fr 192.168.30.0
Les commandes
[modifier | modifier le wikicode]hostname
[modifier | modifier le wikicode]La commande hostname permet de connaître le nom de l'ordinateur :
# hostname pc230
L'option -f (-f ou --fqdn) permet de connaître le nom de l'ordinateur avec son nom de domaine (Full Qualified Domain Name) :
# hostname -f pc230.mondomaine.fr
La commande hostname permet aussi de changer dynamiquement nom de machine, mais attention, cette modification est temporaire et ne sera plus active après un reboot. Pour changer de manière permanente le nom de la machine, il faut modifier le fichier /etc/hostname et le fichier /etc/hosts (voir ci-dessus) :
# hostname pc230 # hostname pcalex # hostname pcalex
ifconfig
[modifier | modifier le wikicode]Utilisé sans argument, la commande ifconfig affiche les interfaces réseau actives :
# ifconfig eth0 Lien encap:Ethernet HWaddr 00:05:5D:E1:F6:11 inet adr:192.168.30.230 Bcast:192.168.30.255 Masque:255.255.255.0 adr inet6: fe80::205:5dff:fee1:f611/64 Scope:Lien UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:16383 errors:0 dropped:0 overruns:0 frame:0 TX packets:5998 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 lg file transmission:1000 RX bytes:8467107 (8.0 MiB) TX bytes:810927 (791.9 KiB) Interruption:10 Adresse de base:0xc800
lo Lien encap:Boucle locale inet adr:127.0.0.1 Masque:255.0.0.0 adr inet6: ::1/128 Scope:Hôte UP LOOPBACK RUNNING MTU:16436 Metric:1 RX packets:24 errors:0 dropped:0 overruns:0 frame:0 TX packets:24 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 lg file transmission:0 RX bytes:2352 (2.2 KiB) TX bytes:2352 (2.2 KiB)
L'option -a permet d'afficher toutes les interfaces, y compris celles qui ne sont pas activées.
On peut aussi spécifier à ifconfig l'interface à afficher :
# ifconfig eth0 ...
La commande ifconfig permet également de configurer une interface réseau. Attention, cette modification est faite dynamiquement et ne sera plus active après un redémarrage.
# ifconfig eth0 10.0.0.1 netmask 255.0.0.0
La commande ifconfig peut aussi créer des alias d'interface réseau. On peut ainsi affecter plusieurs adresses à une seule interface réseau.
# ifconfig eth0:0 192.168.0.100 netmask 255.255.255.0 # ifconfig # eth0 Link encap:Ethernet HWaddr 00:1e:8c:26:af:c5 UP BROADCAST MULTICAST MTU:1500 Metric:1 Packets reçus:0 erreurs:0 :0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 lg file transmission:1000 Octets reçus:0 (0.0 B) Octets transmis:0 (0.0 B) eth0:0 Link encap:Ethernet HWaddr 00:1e:8c:26:af:c5 inet adr:192.168.0.100 Bcast:192.168.0.255 Masque:255.255.255.0 UP BROADCAST MULTICAST MTU:1500 Metric:1
Si vous supprimez l'interface principale (ici : eth0), tous les alias qui en dépendent seront supprimés.
ip
[modifier | modifier le wikicode]La commande ip fait partie du projet LARTC : Linux Avanced Routing and Traffic Control. L'objectif est de fournir des fonctionnalités avancées réseaux qui ne sont pas disponibles dans la pile réseau standard Unix / Linux.
La commande ip remplace les commandes arp, ifconfig et route. Pour afficher la table arp :
ip neighbour show
On peut également écrire la forme abrégée en indiquant uniquement la première lettre :
ip n s
Pour afficher les interfaces réseaux :
ip address show
ou la forme abrégée :
ip a s
Pour visualiser la table de routage :
ip route show
ou la forme abrégée :
ip r s
La commande ip permet également de modifier les informations : rajouter / supprimer une entrée ARP, rajouter / supprimer des adresses IP, rajouter / supprimer des routes ...
Pour renouveler son adresse auprès du serveur DHCP :
sudo dhclient -r sudo dhclient
arp
[modifier | modifier le wikicode]Le protocole ARP permet de trouver l'adresse MAC d'un ordinateur de mon réseau en fonction de son adresse IP.
La commande arp permet d'afficher la table de correspondance adresses IP => adresses MAC :
# arp -an fw.mondomaine.fr (192.168.30.1) at 00:10:5A:DC:2B:4B [ether] on eth0 pc235.mondomaine.fr (192.168.30.235) at 00:11:95:DD:FD:F3 on eth0
Attention, cette table de correspondance est régulièrement vidée.
route
[modifier | modifier le wikicode]La commande route permet d'afficher la table de routage réseau :
# route Table de routage IP du noyau Destination Passerelle Genmask Indic Metric Ref Use Iface d12.mondomaine.fr * 255.255.255.0 U 0 0 0 eth0 default fw.mondomaine.fr 0.0.0.0 UG 0 0 0 eth0
L'option -n affiche la table de routage réseau sans remplacer les adresses IP par leurs noms canoniques :
# route -n Table de routage IP du noyau Destination Passerelle Genmask Indic Metric Ref Use Iface 192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0 0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0
On peut obtenir le même résultat en utilisant la commande netstat :
# netstat -rn Table de routage IP du noyau Destination Passerelle Genmask Indic MSS Fenêtre irtt Iface 192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0 0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0
La commande route permet de modifier la table de routage. On peut ainsi rajouter une route pour contacter un réseau ou une machine particulière.
Exemple : joindre le réseau 10.0.0.0/8
pc210:~# route -n Table de routage IP du noyau Destination Passerelle Genmask Indic Metric Ref Use Iface 192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0 0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0 pc210:~# pc210:~# route add -net 10.0.0.0 netmask 255.0.0.0 gw 192.168.30.99 dev eth0 pc210:~# pc210:~# route -n Table de routage IP du noyau Destination Passerelle Genmask Indic Metric Ref Use Iface 192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0 10.0.0.0 192.168.30.99 255.0.0.0 UG 0 0 0 eth0 0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0
Exemple : joindre la machine 1.2.3.4 :
pc210:~# route -n Table de routage IP du noyau Destination Passerelle Genmask Indic Metric Ref Use Iface 192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0 0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0 pc210:~# pc210:~# route add -host 1.2.3.4 gw 192.168.30.98 dev eth0 pc210:~# pc210:~# route -n Table de routage IP du noyau Destination Passerelle Genmask Indic Metric Ref Use Iface 1.2.3.4 192.168.30.98 255.255.255.255 UGH 0 0 0 eth0 192.168.30.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0 0.0.0.0 192.168.30.1 0.0.0.0 UG 0 0 0 eth0
ping
[modifier | modifier le wikicode]La commande ping permet de tester si on arrive à joindre un serveur donné. Cette commande utilise le protocole ICMP et envoi des paquets ICMP de type echo-request. Si l'ordinateur distant est joignable, il répondra à ce message par un paquet ICMP echo-reply.
$ ping google.fr PING google.fr (216.239.59.104) 56(84) bytes of data. 64 bytes from 216.239.59.104: icmp_seq=1 ttl=236 time=43.2 ms 64 bytes from 216.239.59.104: icmp_seq=2 ttl=236 time=44.3 ms 64 bytes from 216.239.59.104: icmp_seq=3 ttl=236 time=43.1 ms 64 bytes from 216.239.59.104: icmp_seq=4 ttl=236 time=72.2 ms ... CTRL-c pour arreter
Si l'ordinateur est injoignable, on n'obtiendra pas de réponse à nos paquets ICMP :
$ ping pc235 PING pc235.mondomaine.fr (192.168.30.235) 56(84) bytes of data. From pc230.mondomaine.fr (192.168.30.230) icmp_seq=2 Destination Host Unreachable From pc230.mondomaine.fr (192.168.30.230) icmp_seq=3 Destination Host Unreachable
Attention, si l'ordinateur distant ne répond pas, cela ne signifie pas obligatoirement qu'il est indisponible. Le problème peut venir du réseau (la commande traceroute permettra de déterminer l'endroit qui bloque), ou il peut être paramétré pour ne pas répondre au protocole ICMP, ou un firewall sur la route peut bloquer le protocole ICMP.
L'option -c de la commande ping permet d'indiquer le nombre de paquets à envoyer :
$ ping -c 2 google.fr PING google.fr (216.239.59.104) 56(84) bytes of data. 64 bytes from 216.239.59.104: icmp_seq=1 ttl=236 time=43.6 ms 64 bytes from 216.239.59.104: icmp_seq=2 ttl=236 time=44.6 ms --- google.fr ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 5104ms rtt min/avg/max/mdev = 43.643/44.164/44.685/0.521 ms
traceroute
[modifier | modifier le wikicode]La commande traceroute permet d'afficher la route empruntée pour atteindre un ordinateur donné :
# traceroute www.google.fr traceroute: Warning: www.google.fr has multiple addresses; using 209.85.135.103 traceroute to www.l.google.com (209.85.135.103), 30 hops max, 40 byte packets 1 fw.mondomaine.fr (192.168.30.1) 1.854 ms 0.323 ms 0.281 ms 2 192.168.10.1 (192.168.10.1) 0.658 ms 0.594 ms 0.522 ms ...
mtr
[modifier | modifier le wikicode]La commande mtr (my traceroute) permet aussi d'afficher la route empruntée pour atteindre un ordinateur donné, mais ré-actualise la liste en permanence :
My traceroute [v0.71] pc230 (0.0.0.0) Tue Dec 4 13:13:23 2007
Packets Pings Host Loss% Snt Last Avg Best Wrst StDev 1. fw.mondomaine.fr 0.0% 39 0.7 0.6 0.4 7.4 1.1 2. 192.168.10.1 0.0% 39 0.6 0.8 0.6 7.2 1.1 ...
nslookup
[modifier | modifier le wikicode]La commande nslookup permet d'interroger un serveur DNS :
$ nslookup > set type=any > google.fr Server: 192.168.30.1 Address: 192.168.30.1#53 Non-authoritative answer: Name: google.fr Address: 216.239.59.104 Name: google.fr Address: 66.249.93.104 Name: google.fr Address: 72.14.221.104 google.fr nameserver = ns4.google.com. google.fr nameserver = ns1.google.com. google.fr nameserver = ns2.google.com. google.fr nameserver = ns3.google.com. Authoritative answers can be found from: google.fr nameserver = ns2.google.com. google.fr nameserver = ns3.google.com. google.fr nameserver = ns4.google.com. google.fr nameserver = ns1.google.com. ns1.google.com internet address = 216.239.32.10 > CTRL-d pour sortir
Cette commande est interactive, elle nécessite l'intervention de l'utilisateur. On utilise désormais les commandes host et dig pour effectuer les mêmes opérations (voir ci-dessous).
host
[modifier | modifier le wikicode]La commande host permet d'effectuer une résolution DNS :
$ host pc235 pc235.mondomaine.fr has address 192.168.30.235 pc235.mondomaine.fr mail is handled by 0 pc235.mondomaine.fr.
Elle permet aussi d'effectuer une résolution DNS inverse (quel nom canonique est associé à une adresse IP donnée ?) :
$ host 192.168.30.235 235.30.168.192.in-addr.arpa domain name pointer pc235.mondomaine.fr.
dig
[modifier | modifier le wikicode]La commande dig permet d'interroger les enregistrements DNS (appellé aussi Ressources Records ou RR) d'un nom de domaine donné :
$ dig google.fr .... ;; QUESTION SECTION: ;google.fr. IN A ;; ANSWER SECTION: google.fr. 205 IN A 66.249.93.104 google.fr. 205 IN A 72.14.221.104 ...
On peut indiquer à la commande dig le Ressource Record que l'on désire connaitre :
$ dig google.fr MX ... ;; ANSWER SECTION: google.fr. 10800 IN MX 10 smtp1.google.com. google.fr. 10800 IN MX 10 smtp2.google.com. google.fr. 10800 IN MX 10 smtp3.google.com. ...
On peut indiquer à la commande dig le serveur DNS à interroger :
$ dig @ns1.google.com google.fr ... ;; ANSWER SECTION: google.fr. 1800 IN A 66.249.93.104 google.fr. 1800 IN A 216.239.59.104 ...
whois
[modifier | modifier le wikicode]La commande whois permet d'interroger la base de données whois contenant les informations sur le propriétaire du domaine et les personnes responsables pour les aspects administratif et technique :
$ whois google.fr ... domain: google.fr address: GOOGLE INC address: 28, rue Juliette Lamber address: 75017 Paris address: FR admin-c: VB2334-FRNIC tech-c: NA25-FRNIC zone-c: NFC1-FRNIC nserver: ns1.google.com ...
Références
[modifier | modifier le wikicode]
Les utilisateurs et groupes
Les fichiers de configuration
[modifier | modifier le wikicode]/etc/passwd
[modifier | modifier le wikicode]- contient la liste des utilisateurs, un par ligne
- contient d'autres informations relatives aux utilisateurs, dont notamment les UID (User IDentifiant) et GID (Group IDentifiant)
- contenait autrefois les mots de passe chiffrés de chaque utilisateur, mais désormais ces mots de passe sont stockés dans le fichier /etc/shadow
Le format de ce fichier est indiqué dans la page de manuel du fichier de configuration passwd (section 5) :
$ man 5 passwd ... - nom de connexion de l’utilisateur (« login ») - un mot de passe chiffré optionnel - l’identifiant numérique de l’utilisateur (UID) - l’identifiant numérique du groupe de l’utilisateur (GID) - le nom complet de l’utilisateur (champ GECOS) - le répertoire personnel de l’utilisateur - l’interpréteur de commandes de l’utilisateur
La majorité des comptes définis dans ce fichier sont des comptes administratifs ne servant uniquement à l'exécution de certaines applications (daemons). Ainsi, les processus fonctionnant avec ces comptes sont limités par les droits d'accés de ces derniers.
/etc/shadow
[modifier | modifier le wikicode]- contient les mots de passe chiffrés
- ne peut être lu uniquement par le root ou les membres du groupe shadow
- contient des informations relatives à l'expiration des mots de passe
Le format de ce fichier est indiqué dans la page de manuel du fichier de configuration shadow (section 5) :
$ man 5 shadow ... - nom de connexion de l’utilisateur (« login ») - mot de passe chiffré - nombre de jours, comptés à partir du 1er janvier 1970, depuis le dernier changement de mot de passe - nombre de jours à attendre avant de pouvoir changer le mot de passe - nombre de jours après lesquels le mot de passe doit être changé - nombre de jours avant la fin de validité du mot de passe et pendant lesquels l’utilisateur est averti - nombre de jours après la fin de validité provoquant la désactivation du compte - nombre de jours, comptés à partir du 1er janvier 1970, depuis que le compte est désactivé - champ réservé
La commande chage permet de changer les informations relatives à l'expiration des mots de passe (man chage).
/etc/group
[modifier | modifier le wikicode]- contient la liste des groupes, un par ligne
- pour chaque groupe, le numéro du groupe (GID)
- les membres du groupe
Le format de ce fichier est indiqué dans la page de manuel du fichier de configuration group (section 5) :
$ man 5 group ... - nom du groupe - mot de passe chiffré du groupe. Si ce champ est vide, aucun mot de passe n’est nécessaire - GID : identifiant numérique du groupe - tous les noms des membres du groupe, séparés par des virgules
/etc/gshadow
[modifier | modifier le wikicode]Contient les informations cachées sur les groupes. Il contient des lignes avec les champs suivant séparés par des deux-points :
- nom du groupe
- mot de passe chiffré
- liste d' administrateur du groupe séparés par des virgules
- liste des membres du groupe séparés par des virgules
gpasswd
[modifier | modifier le wikicode]La commande gpasswd administre le fichier /etc/group. Elle permet d' affecter un mot de passe à un groupe.
# addgroup testgrp # Ajout du groupe "testgrp" (identifiant 1001)... # Terminé. # gpasswd testgrp # Changement du mot de passe pour le groupe test # Nouveau mot de passe : 'mdp' # Nouveau mot de passe (pour vérification) : 'mdp' #
newgrp
[modifier | modifier le wikicode]Newgrp change l´identifiant de groupe réel actuel à la valeur du groupe indiqué, ou au groupe par défaut défini dans /etc/passwd si aucun nom de groupe n´est fourni.
La commande groups permet de connaitre les groupes dont je fais partie :
$ groups alex dialout cdrom floppy audio video plugdev netdev powerdev
On peut aussi obtenir la liste des groupes (et leurs GID) avec la commande id :
$ id uid=1000(alex) gid=1000(grpalex) groupes=20(dialout),24(cdrom),25(floppy),29(audio),44(video),46(plugdev),106(netdev),109(powerdev),1000(grpalex)
Conversion avec ou sans shadow
[modifier | modifier le wikicode]Vérification de passwd et group
[modifier | modifier le wikicode]Gérer les utilisateurs
[modifier | modifier le wikicode]Ajouter un utilisateur
[modifier | modifier le wikicode]La commande useradd permet d'ajouter des utilisateurs. Le fichier /etc/default/useradd contient les paramètres par défaut de la commande.
Invoqué sans option, cette commande crée l'utilisateur, mais le compte n'est pas activé. De plus, elle n'a pas crée le répertoire de travail de l'utilisateur.
# useradd paul
# grep paul /etc/passwd paul:x:1002:1002::/home/paul:/bin/sh
# grep paul /etc/shadow paul:!:13823:0:99999:7:::
# grep paul /etc/group paul:x:1002:
# ls -al /home/paul ls: /home/paul: Aucun fichier ou répertoire de ce type
Sous Debian, on utilisera plutôt la commande adduser qui offre plus d'options (positionnement du mot de passe et du champ GECOS à la création du compte, et création du répertoire de travail).
# adduser jacques Ajout de l'utilisateur « jacques »... Ajout du nouveau groupe « jacques » (1003)... Ajout du nouvel utilisateur « jacques » (1003) avec le groupe « jacques »... Création du répertoire personnel « /home/jacques »... Copie des fichiers depuis « /etc/skel »... Enter new UNIX password: Retype new UNIX password: passwd : le mot de passe a été mis à jour avec succès Modification des informations relatives à l'utilisateur jacques Entrez la nouvelle valeur ou « Entrée » pour conserver la valeur proposée Nom complet []: Jacques N° de bureau []: 123 Téléphone professionnel []: 01 02 03 04 05 Téléphone personnel []: 01 06 07 08 09 Autre []: Chef de projet Ces informations sont-elles correctes ? [o/N] o
# grep jacques /etc/passwd jacques:x:1003:1003:Jacques,123,01 02 03 04 05,01 06 07 08 09,Chef de projet:/home/jacques:/bin/bash
# grep jacques /etc/shadow jacques:$1$OWMPkUFD$XnXmTUUJBGoLehbznyXUM/:13823:0:99999:7:::
# grep jacques /etc/group jacques:x:1003:
# ls -al /home/jacques total 20 drwxr-xr-x 2 jacques jacques 4096 2007-11-06 11:05 . drwxr-xr-x 6 root root 4096 2007-11-06 11:05 .. -rw-r--r-- 1 jacques jacques 220 2007-11-06 11:05 .bash_logout -rw-r--r-- 1 jacques jacques 414 2007-11-06 11:05 .bash_profile -rw-r--r-- 1 jacques jacques 2227 2007-11-06 11:05 .bashrc
La commande adduser dispose du fichier de configuration /etc/adduser.conf qui permet de positionner les valeurs par défaut de la commande. La commande adduser offrira plus d'options que la commande useradd.
Le fichier /etc/adduser.conf permet de configurer les options par défaut de la commande adduser
Extrait de adduser.conf
# La variable DSHELL spécifie le shell par défaut de la session sur le système. DSHELL=/bin/bash # La varible DHOME spécifie le répertoire par défaut contenant le dossier HOME de l'utilisateur. DHOME=/home # Si GROUPHOMES est à "yes", alors le dossier home sera créé avec le schéma suivant : /home/"nom du groupe"/" nom de l'utilisateur" GROUPHOMES=no # Si LETTERHOMES est à "yes", le dossier home sera créé dans un dossier ayant comme nom la première lettre du nom d'utilisateur # Par exemple : /home/u/user LETTERHOMES=no # La variable SKEL spécifie le dossier contenant le squelette du fichier utilisateur # En d'autre terme, elle indique le chemin du fichier d'exemple .profile qui sera copier dans le nouveau dossier home de l'utilisateur lors de sa création. SKEL=/etc/skel # FIRST_SYSTEM_[GU]ID to LAST_SYSTEM_[GU]ID inclusive is the range for UIDs for dynamically allocated administrative and system accounts/groups. # Please note that system software, such as the users allocated by the base-passwd package, may assume that UIDs less than 100 are unallocated. FIRST_SYSTEM_UID=100 LAST_SYSTEM_UID=999 # FIRST_[GU]ID to LAST_[GU]ID inclusive is the range of UIDs of dynamically allocated user accounts/groups. FIRST_UID=1000 LAST_UID=29999 # The USERGROUPS variable can be either "yes" or "no". If "yes" each created user will be given their own group to use as a default. If "no", each created user will be placed in the group whose gid is USERS_GID (see below). USERGROUPS=yes
La commande adduser permet aussi de rajouter facilement un utilisateur à un groupe donné :
Syntaxe : adduser <le login> <le groupe>
Exemple :
# adduser pierre audio
Pour vérifier, on dispose de 3 possibilités : - grep audio /etc/group - id pierre - groups pierre
Le répertoire /etc/skel (skeleton : squelette) contient les fichiers par défaut à copier dans les répertoires de travail des utilisateurs nouvellement créés.
Modifier un utilisateur
[modifier | modifier le wikicode]La commande usermod permet de modifier les informations relatives à un utilisateur donné.
Dans certains cas, il sera plus simple de modifier directement les fichiers /etc/passwd et /etc/group plutôt que d'utiliser cette commande.
Supprimer un utilisateur
[modifier | modifier le wikicode]La commande userdel permet de supprimer des utilisateurs.
Sous Debian, on utilisera plutot la commande deluser qui offre plus d'options (notamment la possibilité de créer une archive de tous les fichiers de l'utilisateur avant de supprimer son répertoire de travail).
De la même manière que adduser, la commande deluser dispose du fichier de configuration /etc/deluser.conf qui permet de spécifier son comportement par défaut.
Extrait de deluser.conf
REMOVE_HOME = 0 REMOVE_ALL_FILES = 0 # Backup files before removing them. This options has only an effect if REMOVE_HOME or REMOVE_ALL_FILES is set. BACKUP = 0 BACKUP_TO = "." # delete a group even there are still users in this group ONLY_IF_EMPTY = 0 # exclude these filesystem types when searching for files of a user to backup EXCLUDE_FSTYPES = "(proc|sysfs|usbfs|devpts|tmpfs)"
Gérer les groupes
[modifier | modifier le wikicode]Ajouter un groupe
[modifier | modifier le wikicode]La commande groupadd permet d'ajouter un groupe.
# groupadd compta
Sous Debian, on dispose de la commande addgroup, qui est en réalité un lien vers la commande adduser.
# which addgroup /usr/sbin/addgroup
# ls -l /usr/sbin/addgroup lrwxrwxrwx 1 root root 7 2007-10-24 12:53 /usr/sbin/addgroup -> adduser
# addgroup compta Ajout du groupe « compta » (identifiant 1004)... Terminé.
Modifier un groupe
[modifier | modifier le wikicode]La commande groupmod permet de modifier les informations relatives à un groupe donné.
Pour ajouter un utilisateur à un groupe :
usermod -g group_name user_name
Dans certains cas, il sera plus simple de modifier directement le fichier /etc/group plutôt que d'utiliser cette commande.
Supprimer un groupe
[modifier | modifier le wikicode]La commande groupdel permet de supprimer des groupes.
Sous Debian, on dispose de la commande delgroup, qui est en réalité un lien vers la commande deluser.
# which delgroup /usr/sbin/delgroup
# ls -l /usr/sbin/delgroup lrwxrwxrwx 1 root root 7 2007-10-24 12:53 /usr/sbin/delgroup -> deluser
Modifier manuellement les fichiers /etc/passwd, /etc/shadow, /etc/group et /etc/gshadow
[modifier | modifier le wikicode]Dans certains cas, il est plus simple d'éditer manuellement les fichiers de configuration /etc/passwd, /etc/shadow, /etc/group et /etc/gshadow plutôt que d'utiliser les commandes précédement évoquées.
Les commandes suivantes permettent de garantir qu'un seul root est en train de modifier un de ces fichiers :
- vipw : modification du fichier /etc/passwd
- vipw -s : modification du fichier /etc/shadow
- vigr : modification du fichier /etc/group
- vigr -s : modification du fichier /etc/gshadow
Pour plus d'information, se reporter aux pages de manuel (man vipw et man vigr).
Le processus d'initialisation
Le chargement du noyau Linux
[modifier | modifier le wikicode]Lorsque l'on allume son ordinateur, la carte mère effectue un test automatique qui se charge de tester le bon fonctionnement des composants de la carte mère (processeur, mémoire, etc.). Ce test s'appelle le POST (Power-On Self Test). Si tout est OK, ce test se termine par un (et un seul) bip.
Ceci fait, le BIOS charge ensuite le programme stocké dans le boot secteur du disque dur.
Sur architecture PC, il existe deux programmes permettant de charger le noyau Linux, ou un autre système d'exploitation.
LILO
[modifier | modifier le wikicode]LILO (LInux LOader) a été le premier logiciel permettant d'effectuer cette opération.
Exemple de fichier de configuration de Lilo (/etc/lilo.conf) :
boot=/dev/hda map=/boot/map install=/boot/boot.b default=linux prompt timeout=50 message=/boot/message # Premiere section : boot Windows other=/dev/hda1 label=windows table=/dev/hda # Deuxieme section: boot Linux image=/boot/vmlinuz label=linux root=/dev/hda4 append="acpi=off" read-only # Troisieme section: boot Linux - mode mono-utilisateur image=/boot/vmlinuz label=linux_single_user root=/dev/hda4 append="single acpi=off" read-only
Ce fichier se compose de paramêtres communs (disque dur de boot, timeout ...) et de sections pour chaque système d'exploitation à booter.
Chaque fois que l'on modifie ce fichier, il faut exécuter la commande lilo afin de re-écrire dans le boot secteur l'emplacement exact du noyau sur le disque dur.
# lilo Added windows Added linux Added linux_single_user
GRUB
[modifier | modifier le wikicode]Aujourd'hui, on utilise le programme GRUB (GRand Unified Bootloader) car il offre des possibilités supplémentaires.
Contrairement à Lilo, Grub sait lire une partition Linux (ext2/3, XFS, reiserFS ...) afin de charger son fichier de configuration (/boot/grub/menu.lst) et le(s) noyau(x) Linux.
Exemple de fichier de configuration de Grub (/boot/grub/menu.lst)
default 0 timeout 30 color cyan/blue white/blue # Premiere section : Linux title Debian GNU/Linux, kernel 2.6.18-5-686 root (hd1,0) kernel /vmlinuz-2.6.18-5-686 root=/dev/sdb2 ro acpi=off initrd /initrd.img-2.6.18-5-686 savedefault # Deuxieme section : Linux mode mono-utilisateur title Debian GNU/Linux, kernel 2.6.18-5-686 (single-user mode) root (hd1,0) kernel /vmlinuz-2.6.18-5-686 root=/dev/sdb2 ro acpi=off single initrd /initrd.img-2.6.18-5-686 savedefault # Troisieme section : Windows title Windows NT/2000/XP (loader) root (hd0,0) savedefault makeactive chainloader +1
À la différence de Lilo, il n'est pas nécessaire d'exécuter une commande particulière lorsque l'on modifie ce fichier.
Messages du noyau Linux
[modifier | modifier le wikicode]Une fois chargé en mémoire, le noyau va se charger de détecter et d'initialiser les composants de la carte mère et les périphériques présents.
Ces messages sont affichés sur l'écran lors du démarrage.
La commande dmesg permet de consulter ces messages ultérieurement. Exemples :
# dmesg Linux version 2.6.18-5-686 (Debian 2.6.18.dfsg.1-13) (dannf@debian.org) (gcc version 4.1.2 20061115 (prerelease) (Debian 4.1.1-21)) #1 SMP Fri Jun 1 00: 47:00 UTC 2007 BIOS-provided physical RAM map: BIOS-e820: 0000000000000000 - 000000000008f000 (usable) ...
À noter que la commande dmesg affiche tous les messages détectés durant le boot, ainsi que les messages du noyau affichés par la suite (c.a.d. durant le fonctionnement du système).
Dans certains cas, l'affichage de la commande dmesg peut être tronqué (notamment les messages affichés durant le boot). Dans ce cas, on peut consulter le fichier /var/log/dmesg qui ne contient que les messages du boot.
Le processus init
[modifier | modifier le wikicode]Une fois que le noyau a détecté l'ensemble des composants de l'ordinateur, il lance le processus du système : init.
Le processus init a comme particularité d'avoir le PID (Process IDentifiant) no 1 (c'est le premier processus), et de fait, il est le père de tous les autres.
Le processus init est lancé par le noyau pour démarrer les autres processus internes à ce dernier (noté entre crochet lorsque l'on fait ps aux), comme par exemple les processus kjournald qui gère les journaux des systèmes de fichiers journalisés. }}[1]
Le processus dispose d'un fichier de configuration, c'est le fichier /etc/inittab, contenant entre autres les runlevel, paramètres de init.
La syntaxe de ce fichier est la suivante :
code:niveau:action:commande
Exemple de fichier /etc/inittab[2] :
# Indique le runlevel par défaut (ici le 2)
id:2:initdefault:
# Script d'initiation du boot du système
si::sysinit:/etc/init.d/rcS
# mode mono-utilisateur
~~:S:wait:/sbin/sulogin
# runlevel 0 : arret du système
l0:0:wait:/etc/init.d/rc 0
# runlevel 1 : mono-utilisateur
l1:1:wait:/etc/init.d/rc 1
# runlevel 2 : multitâche sans réseau (runlevel par défaut sur Debian)
l2:2:wait:/etc/init.d/rc 2
# runlevel 3 : multitâche en réseau sans interface graphique
l3:3:wait:/etc/init.d/rc 3
# runlevel 4 : idem 3 mais pour la recherche
l4:4:wait:/etc/init.d/rc 4
# runlevel 5 : multitâche en réseau avec interface graphique et son
l5:5:wait:/etc/init.d/rc 5
# runlevel 6 : redémarrage du système
l6:6:wait:/etc/init.d/rc 6
# mode emergency
z6:6:respawn:/sbin/sulogin
# lance le reboot quand on appuie sur CTRL-ALT-DEL
ca:12345:ctrlaltdel:/sbin/shutdown -t1 -a -r now
# Pour les onduleurs
pf::powerwait:/etc/init.d/powerfail start
pn::powerfailnow:/etc/init.d/powerfail now
po::powerokwait:/etc/init.d/powerfail stop
# Démarre les ttys en mode console
1:2345:respawn:/sbin/getty 38400 tty1
2:23:respawn:/sbin/getty 38400 tty2
3:23:respawn:/sbin/getty 38400 tty3
4:23:respawn:/sbin/getty 38400 tty4
5:23:respawn:/sbin/getty 38400 tty5
6:23:respawn:/sbin/getty 38400 tty6
Les runlevels et les scripts de démarrage
[modifier | modifier le wikicode]Une fois que le système a effectué le runlevel S (initialisation minimale, comme par exemple vérifier l'intégrité des systèmes de fichiers), il va dans le runlevel 2 (Debian).
Les niveaux de Runlevel
- S : Initialisation commune à tous les runlevels
- 0 : Arrêt de la machine
- 1 : Single-User
- 2,3,4,5 : Fonctionnement normal
- 6 : Reboot de la machine
Les principe de fonctionnement est le suivant :
- tous les scripts de démarrage et d'arrêt sont stockés dans le répertoire /etc/init.d/.
- les répertoires rc0.d, rc1.d ... rc6.d contiennent des liens qui vont appeler les scripts d'initialisation.
- Si le lien commence par un S, le script va être appelé avec l'option start
- Si le lien commence par un K, le script va être appelé avec l'option stop
- le numéro qui suit le S ou le K indique l'ordre de démarrage ou d'arrêt.
Exemple, le serveur d'impression cupsys :
Le script de démarrage et d'arrêt est situé dans /etc/init.d :
$ ls -l /etc/init.d/cupsys -rwxr-xr-x 1 root root 1977 2007-02-02 14:18 /etc/init.d/cupsys
Le lien suivant indique qu'il faut appeller ce script avec l'option start dans le runlevel 2 (runlevel par défaut sous Debian) :
$ ls -l /etc/rc2.d/S20cupsys lrwxrwxrwx 1 root root 16 2007-10-24 15:40 /etc/rc2.d/S20cupsys -> ../init.d/cupsys
Le lien suivant indique qu'il faut appeller ce script avec l'option stop dans le runlevel 0 (arrêt de la machine) :
$ ls -l /etc/rc0.d/K20cupsys lrwxrwxrwx 1 root root 16 2007-10-24 15:40 /etc/rc0.d/K20cupsys -> ../init.d/cupsys
Pour lister les daemons (actifs et inactifs) :
service --status-all
La commande update-rc.d
[modifier | modifier le wikicode]Sous Debian, la commande update-rc.d permet de gérer les liens des runlevels.
Par exemple, pour enlever le démarrage automatique du serveur web apache :
# update-rc.d -f apache remove
Removing any system startup links for /etc/init.d/apache ...
/etc/rc0.d/K91apache
/etc/rc1.d/K91apache
/etc/rc2.d/S91apache
/etc/rc3.d/S91apache
/etc/rc4.d/S91apache
/etc/rc5.d/S91apache
/etc/rc6.d/K91apache
Pour re-activer le démarrage automatique du serveur web apache :
# update-rc.d apache defaults 91
Adding system startup for /etc/init.d/apache ...
/etc/rc0.d/K91apache -> ../init.d/apache
/etc/rc1.d/K91apache -> ../init.d/apache
/etc/rc6.d/K91apache -> ../init.d/apache
/etc/rc2.d/S91apache -> ../init.d/apache
/etc/rc3.d/S91apache -> ../init.d/apache
/etc/rc4.d/S91apache -> ../init.d/apache
/etc/rc5.d/S91apache -> ../init.d/apache
Pour connaitre la liste des options de la commande update-rc.d, il suffit de l’appeler sans argument :
# update-rc.d
usage: update-rc.d [-n] [-f] <basename> remove
update-rc.d [-n] <basename> defaults [NN | sNN kNN]
update-rc.d [-n] <basename> start|stop NN runlvl [runlvl] [...] .
-n: not really
-f: force
Pour activer Nginx :
sudo update-rc.d nginx enable
La commande chkconfig
[modifier | modifier le wikicode]attention : spécifique à REDHAT
Pour savoir en quel(s) runlevel est lancé un service (ie. postgresql)
# chkconfig --list postgresql
Pour positionner le lancement d'un service à un runlevel donné (ie. 3, 4 et 5)
# chkconfig --level 345 postgresql
Commandes pour manipuler les runlevel
[modifier | modifier le wikicode]La commande runlevel permet de connaître le runlevel dans lequel on est :
# runlevel N 2
Dans cet exemple, on est dans le runlevel n°2 (fonctionnement sous Debian). Le N nous indique le runlevel précédent (N (No) : pas de runlevel précédent)
La commande init ou la commande telinit permet de changer de runlevel. Exemple :
# init 6
Arrêter ou redémarrer le système
[modifier | modifier le wikicode]Pour arrêter le système :
- Commun à tous les UNIX : shutdown
- Spécifique Linux et systèmes récents : halt et reboot
# shutdown -h now "changement de noyau" &
NB : on rajoute un & pour garder la main
Il existe différentes options telles que :
- -h (h pour halt) : arrêt immédiat
- -r now (r pour reboot) : redémarrage immédiat
- -h +10 : arrêt différé dans 10 minutes
- -h 10:30 : arrêt à 10h30
- -c : annule l'arrêt
Références
[modifier | modifier le wikicode]- ↑ (en) Dr. Sam Liles, ICCWS2014- 9th International Conference on Cyber Warfare & Security: ICCWS 2014, Academic Conferences Limited, (lire en ligne)
- ↑ https://linuxonfire.wordpress.com/2012/10/19/what-are-init-0-init-1-init-2-init-3-init-4-init-5-init-6-2/
Les systèmes de fichiers
Les systèmes de fichiers Unix
[modifier | modifier le wikicode]UNIX gère les i-nodes (data structure) dans une table qui contient des informations telles que :
- le propriétaire ;
- le groupe de fichiers ;
- les droits d'accès ;
- la date de modification ;
- le type de fichier.
Sous UNIX et LINUX on trouve des partitions, ex. : boot, var, tmp, home qui permettent d'organiser le système de fichiers. Au départ EXT2 sous UNIX, aujourd'hui EXT3 par défaut correspond à EXT2 plus le journal, qui a l'avantage de consigner tout ce que fait le système, et qui en cas de crash lui permet de démarrer plus rapidement sans erreurs. Les deux formats sont compatibles. Il existe toutes sortes de systèmes de fichiers.
Non journalisés
[modifier | modifier le wikicode]- Ext et Ext2 : Extented FS version 2 (Linux, BSD)
- FAT : File Allocation Table (DOS/Windows, Linux, BSD, OS/2, Mac OS X). Se décompose en plusieurs catégories :
- FAT12 ;
- FAT16 ;
- FAT32 ;
- VFAT.
- FFS : Fast File System (BSD, Linux expérimental)
- HFS : Hierarchical File System (Mac OS, Mac OS X, Linux)
- HPFS : High Performance FileSystem (OS/2, Linux)
- minix fs (minix, Linux)
- S5 (UNIX System V, Linux)
- UFS : Unix File System (BSD, Linux en lecture seule)
Journalisés
[modifier | modifier le wikicode]- BFS (BeOS, Haiku, Linux en lecture seule et expérimental)
- Ext3 : Extented FS version 3 - notamment pour l'ajout de la journalisation (Linux, BSD)
- Ext4 : Extented FS version 4 - notamment pour étendre sa capacité à 1024 péta-octets (Linux expérimental)
- HFS+ (Mac OS X, Linux)
- JFS (AIX, OS/2, Linux)
- JFS2 AIX5
- LFS : (Linux)
- NSS : Novell Storage Services (Netware et Suse Linux)
- NTFS : New Technology FileSystem (Windows NT/2000/XP, Linux (écriture disponible grâce au pilote NTFS-3G), Mac OS X en lecture seule)
- ReiserFS (Linux, BSD en lecture seule)
- Reiser4 (Linux expérimental)
- Spufs : Synergistic processing unit filesystem
- UFS+ : Unix FS + journal (BSD, Linux en lecture seule)
- XFS (Irix, Linux, BSD en lecture seule)
- ZFS : Zettabyte FileSystem (Solaris10, FreeBSD 8.0)
Réseau
[modifier | modifier le wikicode]- AFS Andrew File System : (Aix, Linux)
- Coda (Systèmes de fichiers informatique) (Linux)
- NFS (tous les Unix, Linux, Mac OS X) (Windows pour la 4)
- NCP NetWare Core Protocol (Novell NetWare, Linux en client seul)
- SSHFS (tous les Unix ?, Linux)
- SMB ou Server message block (Windows) (Linux, BSD et Mac OS X via Samba)
- CIFS (Évolution de SMB, supporté par Samba ainsi que par Windows 2000 et XP)
Cluster
[modifier | modifier le wikicode]- GPFS, General Parallel File Sytem : Linux, AIX
- LustreFS, Compression de Linux et de Cluster : Linux
- OCFS2, développé par Oracle : Linux
- PVFS2, Parallel Virtual FileSystem version 2 : Linux, Unix
Spécialisés
[modifier | modifier le wikicode]- CFS Cryptographic File System : FS chiffré (BSD, Linux)
- cramfs : FS compressé (Linux en lecture seule)
- EFS Encrypting File System : FS chiffré au dessus de NTFS (Windows)
- ISO 9660 : en lecture seule sur tous les systèmes lisant les CDROM/DVDROM de données
- JFFS et JFFS2 : FS pour support physique sans block, typiquement des cartes flash. Il est compressé et journalisé (Linux)
- QNX4fs : FS utilisé pour le temps réel (QNX, Linux en lecture seule)
- UDF : le format de disque universel (système de fichiers des DVD-ROM et des disques optiques réinscriptibles tels les CD-RW, DVD±RW, etc.)
mount
[modifier | modifier le wikicode]Cette commande indique tous les systèmes de fichiers qui sont montés. On l'utilise pour accéder à une partition (en root pour accéder au CD-ROM ou au lecteur disquette).
Exemple : pour brancher une clé USB il faut la monter. On édite le fichier log par la commande tail -f /var/log/messages afin de savoir sur quel système de fichiers se trouve la clé. Puis on utilise mount pour accéder au contenu de la clé.
Exemple :
# mount /dev/sdc1 /mnt # le répertoire de son choix
Il est possible de préciser le système de fichier s'il ne le détecte pas
Syntaxe :
# mount -t système de fichiers périphériques point de montage
Exemple :
# mount -t vfat /dev/sdc1 /mnt
Lorsque l'on a fini d'utiliser la clé il faut la démonter à cause du cache.
Pour sauvegarder des montages réguliers, on utilise le fichier "fstab" détaillé ci-après, et sudo mount -a
monte tous ceux qui sont dedans.
umount
[modifier | modifier le wikicode]La commande umount permet de démonter une partition. Cette opération est indispensable si on veut être sûr que les données soient correctement écrites sur la partition. Exemples :
# umount /dev/sdc1
ou
# umount /mnt
Si la partition est en cours d'utilisation, on ne pourra pas la démonter et la commande umount va retourner un message d'erreur :
# umount /home umount: /home: device is busy umount: /home: device is busy
Deux commandes permettent de connaître les fichiers ouverts et les processus qui sont en train d'utiliser la partition et qui empêchent le démontage.
La commande lsof (list open files) permet de connaître les fichiers ouverts :
# lsof /home COMMAND PID USER FD TYPE DEVICE SIZE NODE NAME gdm 2751 root 9w REG 22,71 761 964774 /home/alex/.xsession-errors startkde 2882 alex cwd DIR 22,71 4096 964769 /home/alex ...
La commande fuser permet aussi de connaître les processus qui ont des fichiers ouverts sur la partition.
# fuser -m /home /home: 2751 2882c 2961c 2962c 2965c 2967c 2969c 2971c 2976c 2978c 2979c 2981c 2983c 2984c 2986c 2990c 2992c 2993c 2995c 2997c 2999c 3002c 3037c 3683c 3684c 4102c 4161c
Le fichier /etc/fstab
[modifier | modifier le wikicode]Le fichier /etc/fstab contient la liste des partitions montées automatiquement au démarrage du système.
Extrait d'un fichier fstab :
# /etc/fstab: static file system information. # # <file system> <mount point> <type> <options> <dump> <pass> proc /proc proc defaults 0 0 /dev/sdb1 / ext3 defaults,errors=remount-ro 0 1 /dev/sdb6 /home ext3 defaults 0 2 /dev/sdb5 none swap sw 0 0 /dev/hda /media/cdrom0 udf,iso9660 user,noauto 0 0 /dev/fd0 /media/floppy0 auto rw,user,noauto 0 0
Pour monter automatiquement une partition au démarrage, il suffit de rajouter une ligne dans le fichier /etc/fstab, comme par exemple :
/dev/hdc1 /media/winnt ntfs defaults 0 0
Pour chaque partition, on peut spécifier des options dans le fichier /etc/fstab. Options les plus courantes :
- user : permet aux utilisateurs d'effectuer les opérations de montage / démontage
- noauto : ne monte pas automatiquement la partition au boot
La commande sync force le noyau à écrire le cache. Pour savoir la taille qu'il reste sur la clé on utilisera la commande df (disk free) -h (human readable) pour avoir les informations en kilo,mega,giga. df -i affiche le pourcentage d'occupation de la table des i-nodes.
NFS
[modifier | modifier le wikicode]Pour les partages NFS, on peut lancer sudo apt install nfs-common
.
Formater un système de fichiers
[modifier | modifier le wikicode]La commande mkfs (make filesystem) permet de formater un système de fichiers. Exemple :
# mkfs -t ext3 /dev/sdc1
ATTENTION LE SYSTÈME DE FICHIER NE DOIT PAS ÊTRE MONTÉ
mkfs est un wrapper (aiguillage)
Afin de simuler le formatage, nous allons créer un disque dur virtuel. Pour simuler ceci avec un disque dur virtuel, on utilisera le pseudo périphérique loop.
# modprobe loop # dd if=/dev/zero of=hd1 bs=1K count=100000
Ceci crée un fichier vide hd1 qui aura une taille de 100 Mo.
# losetup /dev/loop0 hd1
On attache le pseudo-pérphérique /dev/loop0 à notre fichier hd1.
Une fois le disque dur virtuel crée on peut le formater :
# mkfs -t ext3 /dev/loop0 # mount /dev/loop0 /media/cleusb
Pour le démonter :
# umount /media/cleusb
CAS PARTICULIER : pour les disquettes, on effectue en général un formatage de bas niveau :
# fdformat /dev/fd0 # vérifie l'intégrité de la disquette
# mkfs -t ext3 /dev/fd0 # formate la disquette
ATTENTION À BIEN DÉMONTER AU PRÉALABLE LE PÉRIPHÉRIQUE
La commande suivante permet de vérifier l'intégrité du système de fichiers :
# fsck -t ext3 /dev/loop0
L'option -c de fsck permet de vérifier les bad blocks (en lecture seule par défaut). L'option -v (verbose, soit verbeux) pour voir ce qu'il fait.
Le swap
[modifier | modifier le wikicode]Partition de swap
[modifier | modifier le wikicode]Le SWAP signifie échange, il s'agit d'une mémoire virtuelle en effet lorsque la mémoire de l'ordinateur arrive à saturation, le système écrit sur une partition SWAP de façon à libérer de la mémoire.
Il est possible de créer une partition SWAP grâce à la commande mkswap :
# mkswap /dev/sdb5
On utilisera la commande swapon /dev/sdb5 pour l'activer :
# swapon /dev/sdb5
Avec la commande 'free,' il est possible de vérifier si le swap est activé :
# free ... Swap: 1951856 65080 1886776
Pour lister les partitions SWAP :
# cat /proc/swaps ... Type Size Used Priority /dev/hda3 partition 979956 307284 -1
Fichier de swap
[modifier | modifier le wikicode]Il est possible de créer un fichier swap en complément d'une partition SWAP, pour faire ceci nous allons commencer par créer un fichier de huit gigaoctets :
# dd if=/dev/zero of=/ficswap bs=1M count=8000
On initialise ensuite le fichier en swap :
# mkswap /ficswap
On active le swap :
# swapon /ficswap
Pour désactiver la partition de SWAP :
# swapoff /ficswap
Si l'on tape la commande free on constate que la taille du swap a augmenté.
$ free total utilisé libre partagé tamp/cache disponible Mem: 7910624 5539632 294096 564916 2076896 1493484 Échange: 8388604 1252608 7135996
Pour visualiser son utilisation autrement :
$ cat /proc/swaps Filename Type Size Used Priority /swapfile file 8388604 1225472 -2
Utilitaires disques-durs
[modifier | modifier le wikicode]Technologie S.M.A.R.T.
[modifier | modifier le wikicode]SMART est une technologie de monitoring des disques dur.
Nom du package apt : smartmontools
# smartctl -d ata -a /dev/sda smartctl version 5.36 [i686-pc-linux-gnu] Copyright (C) 2002-6 Bruce Allen Home page is http://smartmontools.sourceforge.net/ === START OF INFORMATION SECTION === Model Family: Western Digital Caviar SE (Serial ATA) family Device Model: WDC WD800JD-22MSA1 Serial Number: WD-WMAM9TZ26746 Firmware Version: 10.01E01 User Capacity: 80 026 361 856 bytes Device is: In smartctl database [for details use: -P show] ATA Version is: 7 ATA Standard is: Exact ATA specification draft version not indicated Local Time is: Wed Dec 5 15:16:10 2007 CET SMART support is: Available - device has SMART capability. SMART support is: Enabled === START OF READ SMART DATA SECTION === SMART overall-health self-assessment test result: PASSED General SMART Values: (...) Short self-test routine recommended polling time: ( 2) minutes. Extended self-test routine recommended polling time: ( 33) minutes. Conveyance self-test routine recommended polling time: ( 6) minutes. SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000f 200 200 051 Pre-fail Always - 0 (...)
Le fichier /etc/smartd.conf permet de programmer des tests, et l'envoie de messages d'alertes.
hdparm
[modifier | modifier le wikicode]hdparm permet de configurer les paramètres d'accès au disque dur.
#hdparm /dev/sdb /dev/sdb: IO_support = 0 (default 16-bit) readonly = 0 (off) readahead = 256 (on) geometry = 9729/255/63, sectors = 156301488, start = 0
Pour tester les performances on utilise l'option -tT
# hdparm -tT /dev/sdb /dev/sdb: Timing cached reads: 888 MB in 2.00 seconds = 443.99 MB/sec Timing buffered disk reads: 174 MB in 3.00 seconds = 57.91 MB/sec
hddtemp
[modifier | modifier le wikicode]hddtemp utilise les données SMART du disque dur spécifié et retourne sa température.
#hddtemp /dev/sda /dev/sda: WDC WD800JD-22MSA1: 31°C
L'option -n permet de ne renvoyer que la valeur de la température (utile pour les scripts)
# hddtemp -n /dev/sda 31
Le système virtuel /proc
Le système de fichiers virtuel /proc
[modifier | modifier le wikicode]/proc n'existe pas sur le disque dur, il est fournit dynamiquement par le noyau, d'où le nom de virtuel.
Il permet de fournir des informations sur ce que voit le noyau.
En outre pour accéder à certains renseignements il sera nécessaire de monter obligatoirement /proc (définit dans /etc/fstab et fait automatiquement au boot).
# cat /proc/cpuinfo
Les commandes ps, top, uptime (et bien d'autres) utilisent /proc pour récupérer des informations.
Quelques exemples d'informations :
# cat /proc/partitions major minor #blocks name 8 0 312571224 sda 8 1 96358 sda1 8 2 107418622 sda2 8 3 117186142 sda3
# cat /proc/swaps Filename Type Size Used Priority /dev/sd4 partition 5017592 1694624 -1
# cat /proc/cpuinfo processor : 0 vendor_id : GenuineIntel cpu family : 6 model : 15 model name : Intel(R) Core(TM)2 CPU 6600 @ 2.40GHz stepping : 6 cpu MHz : 2402.051 cache size : 4096 KB ... processor : 1 vendor_id : GenuineIntel cpu family : 6 model : 15 model name : Intel(R) Core(TM)2 CPU 6600 @ 2.40GHz stepping : 6 cpu MHz : 2402.051 cache size : 4096 KB ...
Certains répertoires commencent par des numéros, il s'agit des PID (Process IDentifier) des processus en cours d'exécution. À l'intérieur, on peut obtenir des renseignements sur le processus et sur son contexte d'exécution. Exemples :
# cat /proc/8595/cmdline scribus
# cat /proc/8595/environ SSH_AGENT_PID=4687 DM_CONTROL=/var/run/xdmctl SHELL=/bin/bash ...
# cat /proc/8595/maps 08048000-08945000 r-xp 00000000 fd:00 1519957 /usr/bin/scribus ... b4ecb000-b4f9e000 r-xp 00000000 fd:00 92595256 /usr/lib/libBLT.2.4.so.8.4 ...
# cat /proc/8595/status Name: scribus State: S (sleeping) SleepAVG: 78% Tgid: 8595 Pid: 8595 PPid: 4720 TracerPid: 0 Uid: 1000 1000 1000 1000 Gid: 1000 1000 1000 1000 FDSize: 32 Groups: 4 20 24 25 29 44 46 107 109 111 1000 1001 VmPeak: 892432 kB VmSize: 84236 kB VmLck: 0 kB
Les périphériques /dev
Les fichiers spéciaux
[modifier | modifier le wikicode]Nous allons nous intéresser plus particulièrement au répertoire /dev :
Ce dossier contient tous les périphériques matériels, par exemple : un lecteur CD-ROM, une carte son, une carte réseau, etc.
Il contient également les pseudo-périphériques. Quelques exemples :
- /dev/zero génére des zéros
- /dev/random génère de l'aléatoire
- /dev/null constitue un trou noir à octets, et notamment utilisé pour se débarrasser des fichiers et des affichages
- /dev/loop0 permet de créer de faux périphériques de type block (stockage) à partir de fichiers créés avec la commande dd
Si on liste le contenu de /dev
# ls -l /dev | more
On s'aperçoit que certains périphériques sont de type c (de l'anglais character) dans ce cas ils communiquent octet par octet. Ex : un port série.
Alors que d'autres sont de types b (blocks) ils communiquent par blocs de données (ex: un disque dur).
Par ailleurs le noyau identifie chaque périphérique au moyen de deux numéros, le majeur (en vert) et le mineur (en rouge), exemple :
# ls -l /dev/sda* brw-rw---- 1 root disk 8, 0 2007-09-22 18:08 /dev/sda brw-rw---- 1 root disk 8, 1 2007-09-22 18:08 /dev/sda1 brw-rw---- 1 root disk 8, 2 2007-09-22 18:08 /dev/sda2 brw-rw---- 1 root disk 8, 3 2007-09-22 18:08 /dev/sda3 brw-rw---- 1 root disk 8, 4 2007-09-22 18:08 /dev/sda4
Les partitions sda1 à sda4 ont le même majeur. Le majeur correspond au premier disque dur SCSI ou SATA.
Le noyau identifie ensuite chaque partition grâce au numéro mineur.
Les majeurs et les mineurs sont définis dans la documentation accompagnant le noyau Linux dans le fichier /usr/src/linux/Documentation/devices.txt ... et oui! comme vous pouvez vous en douter, le noyau Linux est livré avec une documentation très fournie disponible dans le répertoire Documentation/ livré avec le noyau, voir chapitre Le noyau Linux et les modules.
Extrait de /usr/src/linux/Documentation/devices.txt :
... 8 block SCSI disk devices (0-15) 0 = /dev/sda First SCSI disk whole disk 16 = /dev/sdb Second SCSI disk whole disk 32 = /dev/sdc Third SCSI disk whole disk ... 240 = /dev/sdp Sixteenth SCSI disk whole disk ... Partitions are handled in the same way as for IDE disks (see major number 3) except that the limit on partitions is 15. ...
La commande mknod sert à créer de nouveaux périphériques :
# mknod /dev/bidon b 42 0
On peut également directement lui affecter les droits d'accès :
# mknod -m 660 /dev/bidon b 42 0
udevd
[modifier | modifier le wikicode]dmidecode
[modifier | modifier le wikicode]Cette commande affiche les informations sur les périphériques hardware. Par exemple pour déterminer la version et puissance de la RAM :
sudo dmidecode --type 17
Getting SMBIOS data from sysfs.
SMBIOS 3.0 present.
Handle 0x0019, DMI type 17, 40 bytes
Memory Device
Array Handle: 0x0018
Error Information Handle: Not Provided
Total Width: 64 bits
Data Width: 64 bits
Size: 4096 MB
Form Factor: SODIMM
Set: None
Locator: ChannelA-DIMM0
Bank Locator: BANK 0
Type: DDR3
Type Detail: Synchronous
Speed: 1600 MHz
Manufacturer: 0215
Serial Number: 00000000
Asset Tag: 9876543210
Part Number: CMSO8GX3M2C1600C11
Rank: 2
Configured Clock Speed: 1600 MHz
Minimum Voltage: Unknown
Maximum Voltage: Unknown
Configured Voltage: 1.35 V
L'ordonnanceur de travaux cron
cron est un daemon qui permet de programmer des tâches répétitives.
Configuration de cron
[modifier | modifier le wikicode]Le fichier de configuration de cron est /etc/crontab, éditable uniquement par le root. Exemple :
# /etc/crontab: system-wide crontab
# Unlike any other crontab you don't have to run the `crontab'
# command to install the new version when you edit this file
# and files in /etc/cron.d. These files also have username fields,
# that none of the other crontabs do.
SHELL=/bin/sh
PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin
# m h dom mon dow user command
17 * * * * root cd / && run-parts --report /etc/cron.hourly
25 6 * * * root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.daily )
47 6 * * 7 root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.weekly )
52 6 1 * * root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.monthly )
#
Si on veut recevoir un mail à chaque échec d'une tâche, ajouter :
MAILTO=Mon@Email.com
Voici la syntaxe de la programmation de la fréquence de répétition :
code | signification | valeur ou note |
---|---|---|
m | minutes | 0 à 60 |
h | heure | 0 à 23 |
dom | day of month / jour du mois | 1 à 31 |
mon | month / mois | 1 à 12 |
dow | day of week / jour de la semaine | 0 à 7, 0= dimanche, 7= dimanche, on peut aussi mettre les trois premières lettres du jour en anglais |
user | user / utilisateur | utilisateur appelant la commande |
command | command / commande | commande appelée par l'évènement |
Tous les champs peuvent être remplacés par "*" si on souhaite toutes les valeurs correspondantes.
Notation avancée :
On peut définir des valeurs multiples ou des plages de valeurs pour les heures, les jours etc... :
Par exemple, au lieu de faire plusieurs lignes de cron pour plusieurs fois le même évènement, on peut mettre plusieurs valeurs séparées par ","
On peut aussi indiquer une plage de valeur dont les limites sont séparées par "-".
De même, on peut définir des fréquences avec "/". Par exemple, toutes les 2h s'écrira */2 dans la deuxième colonne.
Exemples
[modifier | modifier le wikicode]0 * 7 3 * root beep
L'utilisateur root appelle la commande beep, toutes les heures à 0 minute le 7 mars.
15,45 8 * * * root beep
L'utilisateur root appelle la commande beep, à 8h15 et 8h45 tous les jours.
0 8-18 * * * toto beep
L'utilisateur toto appelle la commande beep toutes les heures de 8h à 18h tous les jours.
0 12 * * mon,wed,fri titi beep
L'utilisateur titi appelle la commande beep à midi tous les lundi, mercredi et vendredi.
0 */2 * * 1-5 tata beep
L'utilisateur tata appelle la commande beep toutes les 2h du lundi au vendredi.
Répertoires de cron
[modifier | modifier le wikicode]En plus de la commande cron, il existe des répertoires spécifiques pour définir des commandes cron à fréquences précises. Ces répertoires particuliers sont localisés dans le repertoire /etc
cron.hourly | toutes les heures |
cron.daily | tous les jours |
cron.weekly | toutes les semaines |
cron.monthly | tous les mois |
Il suffit de mettre un fichier script exécutable dans le répertoire choisi pour qu'il s'exécute.
Dans le même ordre d'idée, on peut rajouter des répertoires particuliers reliés à des fonctions spécifiques d'une entreprise ou d'une personne, pour exécuter des cron. Il suffit de mettre des fichiers contenants des lignes cron dans le répertoire /etc/cron.d/.
exemple : /etc/cron.d/comptabilite
Une fois le crontab modifié, il faut lui faire prendre en compte les modifications. Pour cela, on dispose de trois méthodes :
# kill -1 <PID du processus cron>
ou
# killall -1 cron
ou
# /etc/init.d/cron restart
Les crontabs utilisateurs
[modifier | modifier le wikicode]Un utilisateur peut programmer ses propres crontabs. Ces crontabs sont stockés dans /var/spool/cron/crontabs/<login>
crontab -l | donne la liste des crontabs actifs |
crontab -e | permet d'éditer son propre crontab |
En utilisant la commande crontab , il n'est pas nécessaire de relancer le daemon cron pour que les modifications soient prises en compte.
Droits d'accès
[modifier | modifier le wikicode]
L'horloge Linux
[modifier | modifier le wikicode]Avant de planifier ses opérations il est primordial de bien s'assurer que les informations de temps système sont correctes.
Réglage manuel
[modifier | modifier le wikicode]Pour connaître la date actuelle on utilise la commande date :
# date mer aoû 19 12:31:00 CEST 2009
Cette même commande accepte des arguments pour forcer la mise à jour de l'horloge système au format "MMJJHHmmYYYY". Il faut disposer des droits super utilisateur pour cette action.
# date 081912372009 Wed Aug 19 12:37:00 CEST 2009
Enfin, il existe deux horloges dans le système, l'horloge matérielle et l'horloge logicielle. Pour synchroniser ces deux horloges utilisez la commande hwclock.
# hwclock --systohc //initialise l'heure matérielle à partir de l'horloge système
# hwclock --hctosys //initialise l'heure système à partir de l'horloge matérielle
Réglage automatique (NTP)
[modifier | modifier le wikicode]Network Time Protocol (NTP) est un protocole de synchronisation de l'heure courante. Pour que l'heure de la machine soit récupérée du réseau :
date
sudo apt-get install ntp
sudo service ntp stop
sudo ntpd -gq
sudo service ntp start
date
Lors du changement d'heure hiver/été où on passe de 2 h à 3 h, les tâches programmées entre 2 h 00 et 2 h 59 ne seront donc pas exécutées. À l'inverse, lors du changement d'heure été/hiver, ces mêmes tâches seront exécutées deux fois (à 3 h, il est encore 2 h). Afin d'éviter ce désagrément, la plupart des systèmes Unix sont configurés pour utiliser le temps universel coordonné (UTC), qui n'est pas sujet à ces règles de changement d'heure.
Le backup : tar et gzip
Régulièrement, il vous faudra archiver des informations, en particulier des données utilisateurs. Pour cela, le système GNU/Linux intègre 2 outils: TAR et GZIP. Comme vous allez le voir, ces 2 outils sont complémentaires dans le procéssus d'archivage des données, ou backup.
Archiver des données avec tar
[modifier | modifier le wikicode]Le nom de cette commande vient du système de sauvegarde sur bande : Tape ARchive. Le principe est simple : prendre un grand nombre de fichiers (et/ou de répertoires) et les regrouper en un seul gros. tar est une commande récursive. Elle va archiver toute l'arborescence en partant du répertoire que vous lui spécifiez.
Archivage
[modifier | modifier le wikicode]Syntaxe :
$ tar cf <nom du fichier tar> <nom du répertoire à archiver>
Si vous rajoutez v après c, la commande va afficher à l'écran toutes ses actions.
Exemple :
# tar cvf etc.tar /etc tar: Removing leading `/' from member names /etc # ls -l etc.tar -rw-r--r-- 1 root root 2829320 Nov 12 18:41 etc.tar
Note: Comme vous le voyez sur notre exemple, la commande tar retire le / du répertoire parent. En faisant cela, elle évite les écrasements de fichiers dans le cas ou vous restituez votre fichier au même endroit.
Test de l'archive
[modifier | modifier le wikicode]Une fois l'archivage effectué, vous pouvez vérifier votre archive avec la commande :
$ tar tf ''<nom du fichier tar>''
Restitution
[modifier | modifier le wikicode]# tar xf ''<nom du fichier tar>''
De même, si vous rajoutez v après x, la commande affichera les informations.
Exemple :
# tar xvf etc.tar etc/ etc/GNUstep/ etc/GNUstep/Defaults/ etc/GNUstep/Defaults/WMGLOBAL etc/GNUstep/Defaults/WMRootMenu etc/GNUstep/Defaults/WMState ...
gzip
[modifier | modifier le wikicode]La commande gzip est un compresseur de données. Il va partir d'un fichier et compresser l'information pour en diminuer la taille.
Compresser un fichier
[modifier | modifier le wikicode]$ gzip ''<nom du fichier à compresser>''
Exemple :
# ls -l images.tar* -rw-r--r-- 1 root root 10240 Nov 8 20:00 images.tar # gzip images.tar # ls -l images.tar* -rw-r--r-- 1 root root 4662 Nov 8 20:00 images.tar.gz
En utilisant ls -l , on voit très bien la taille du fichier images non compressé, qui est passé de 10240 octets à 4662 octets.
Pour compresser chaque fichier d'un dossier, utiliser l'option "recursive" : gzip -r
. Par contre gzip ne permet pas de compresser tout le dossier dans un seul fichier .gz (d'où l’intérêt de le combiner avec tar
).
Pour compresser sous un autre nom, deux solutions :
- -S (suffixe)
- -c (sortie standard). Ex :
gzip -c test.log > $(date +"%y_%m_%d")_test.log.gz
Décompresser un fichier
[modifier | modifier le wikicode]$ gzip -d ''<nom du fichier gzip>''
Exemple :
# ls -l images.tar* -rw-r--r-- 1 root root 4662 Nov 8 20:00 images.tar.gz # gzip -d images.tar.gz # ls -l images.tar* -rw-r--r-- 1 root root 10240 Nov 8 20:00 images.tar
gunzip
.Lire un .gz
[modifier | modifier le wikicode]Il existe la commande zgrep
pour filtrer le contenu des fichiers gzippés, évitant ainsi de les décompresser, grepper, puis recompresser. Ex :
zgrep 'ma chaine' *.gz
Combiner tar et gzip
[modifier | modifier le wikicode]On peut combiner tar et gzip pour archiver et compresser en une action (option z) :
# tar cvzf <nom du fichier archivé compressé>.tar.gz <nom du répertoire à archiver et compresser>
Les alternatives à gzip
[modifier | modifier le wikicode]bzip2
[modifier | modifier le wikicode]bzip2 est un autre algorithme de compression. Il est plus performant mais beaucoup moins rapide que gzip.
Pour compresser un fichier avec bzip2 :
# bzip2 unfichier
Pour le décompresser :
# bzip2 -d unfichier.bz2
Tout comme gzip, on peut indiquer à tar d'utiliser bzip2 pour compresser l'archive (option j):
# tar cjf cible.tar.bz2 /repasauver
Comparaison des logiciels de compression
[modifier | modifier le wikicode]Comparaison des logiciels de compression
Un shell script de sauvegarde journalière de /etc
[modifier | modifier le wikicode]Voici un shell script qui permet de sauvegarder quotidiennement le répertoire /etc :
#!/bin/bash # # Ne pas oublier : # - de creer le repertoire /backup : mkdir /backup # - de rendre ce script executable : chmod +x backup_etc # # Tester le script une fois manuellement : ./backup_etc # # Le rajouter dans la crontab DATEJOUR=$(date +"%Y-%m-%d-%H-%M-%S") REPABACKUPER="/etc" REPBACKUP="/backup" NOMFIC=$REPBACKUP/etc-$DATEJOUR.tgz tar czf $NOMFIC $REPABACKUPER
Les sauvegardes incrémentales
[modifier | modifier le wikicode]La commande find permet de trouver des fichiers correspondants à des critères donnés. On peut par exemple connaître la liste des fichiers modifiés depuis 1 jour :
# find / -mtime -1 -type f
En combinant la commande find et la commande tar, on peut ainsi facilement sauvegarder les fichiers modifiés depuis la veille, et ainsi réaliser une sauvegarde incrémentale.
La commande suivante retourne la liste de tous les fichiers du système modifiés depuis hier (en excluant les fichiers contenus dans /proc, /dev et /sys), et stocke la liste de ces fichiers dans le fichier /tmp/fic_du_jour:
# find / \( -path /proc -o -path /dev -o -path /sys -o -path /run \) -prune -o -mtime -1 -type f -print > /tmp/fic_du_jour
On peut ensuite appeler la commande tar avec l'option -T qui permet d'indiquer la liste des fichiers à archiver :
# tar cz -T /tmp/fic_du_jour -f backup.tgz
Grâce aux tubes (pipe), on peut s'affranchir de passer par un fichier temporaire et directement enchaîner les deux commandes :
# find / \( -path /proc -o -path /dev -o -path /sys \) -prune -o -mtime -1 -type f -print | tar cz -T - -f backup.tgz
Toujours grâce aux tubes, on peut découper le fichier obtenu en plusieurs fichiers d'une taille donnée :
# find / \( -path /proc -o -path /dev -o -path /sys \) -prune -o -mtime -1 -type f -print | tar cz -T - | split - -b 5m backup_ # ls -lh backup_* -rw-r--r-- 1 root root 5,0M 2007-12-06 14:30 backup_aa -rw-r--r-- 1 root root 5,0M 2007-12-06 14:30 backup_ab -rw-r--r-- 1 root root 5,0M 2007-12-06 14:30 backup_ac -rw-r--r-- 1 root root 3,5M 2007-12-06 14:30 backup_ad
Pour re-assembler les fichiers découpés, on utilise la commande cat :
# cat backup_* > backup.tgz
Les logiciels spécialisés
[modifier | modifier le wikicode]
ghost avec partimage
installation d'un serveur d'images
[modifier | modifier le wikicode]sur le serveur
apt-get install partimage partimage-server
apt-get install ssh
ensuite il faut faire plusieurs modifications.
Allez dans le répertoire partimaged et modifier le fichier partimagedusers afin de donner l'autorisation de se connecter a votre utilisateur.
cd /etc/partimaged/ echo "mon user">>partimagedusers ou vi partimagedusers
il faut créer un dossier qui contiendra les images.
mkdir /opt/img
partimage fonctionnant avec l'utilisateur partimag il faut lui donner les droits.
chown -R partimag:partimag /opt
redemmarer le service
/etc/init.d/partimaged restart
sur le client
[modifier | modifier le wikicode]installation de partimage
#apt-get install partimage ssh
avec l'utilisateur root on lance partimage
#partimage
la vous tombez sur un interface graphique
- sélectionner la partition à sauvegarder.
- saisissez le nom de l'image ici: /opt/img/mondebian.
- cocher la case connexion au serveur entrer l'adresse ip puis F5.
il devrait vous demander un login et un mot de passe défini dans /etc/partimaged/partimagedusers.
On donne une description de l'image On sélectionne le type de compression et ensuite " OK ".
sauvegarder une partition NTFS
[modifier | modifier le wikicode]telechargement de KNOPPIX ici.
rebooter votre machine avec knoppix une fois démarré si il n'y a pas de DHCP sur le réseaux il faut attribuer un adresse IP.
# ifconfig eth0 192.168.30.210 255.255.255.0
et lancer partimage
# partimage
restauration
À faire
sauvegarde de fichiers avec rsync
Serveur de sauvegardes avec rsync ssh
[modifier | modifier le wikicode]sur le serveur
# apt install rsync ssh
sur le client
# apt install rsync ssh
Il est nécessaire de générer une paire de clés se reporter à la partie ssh-keygen ici
sauvegarder des fichiers
# rsync -p -av /répertoire_à_sauver/ utilisateur@192.168.30.210:/répertoire_de_destination_sur_le_serveur/
options rsync
- -a : permet de copier tous les fichiers, y compris les fichiers et dossiers cachés (fichiers commençant par .)
- -c : active la compression de type gzip pendant le transfert.
- -t Conserver la date
- -p Conserver les permissions
- -o Conserver le propriétaire
- -g Conserver les groupes
- --delete Effacer sur la destination
- -v affiche les opérations avant de les effectuer
- --ignore-existing Ignorer les fichiers existants
- -x Ne pas quitter le système de fichier
- --progress Montrer la progression
- --size-only Taille seulement
- --delete : si le fichier « linux » existe dans « destination » et pas dans « source », il sera supprimé.
Les fichiers journaux syslog
Syslog
[modifier | modifier le wikicode]syslog est un daemon dédié à l'enregistrement des journaux (log) Les journaux log sont stockés dans le répertoire /var/log/
Voici le contenu du répertoire /var/log
un journal log est un fichier texte dont les évènements sont enregistrés, un par ligne.
« Extrait de fichier syslog - les messages sont enregistrés avec la date et l'heure de l'évènement » | |
---|---|
Dans chaque ligne d'évènement on distingue :
- La date à laquelle l'évènement a été déclenché
- Le processus déclencheur de l'évènement
- Le processus ayant demandé l'ajout du message correspondant au log
- Le niveau de gravité du message (priority)
TP : afficher les dernières procédures de login, l'heure des tentatives, si elles ont échoué ou réussi.
#tail -f /var/log/auth.log
le fichier log /var/log/auth.log est le journal des authentifications.
Important : l'heure du système doit être à la bonne heure et à la bonne date, sinon la datation
des messages est éronnée, ce qui complique, si besoin est, la recherche d'anomalies de fonction-
nement du système dans les messages enregistrés dans les fichiers log.
syslog possède un fichier de configuration syslog.conf, il est stocké dans le répertoire /etc . On peut modifier ce fichier pour l'adapter à nos besoins en messages d'évènements survenus sur le système : envoi de mail, authentification, etc...
Ce fichier est un fichier texte, dont chaque ligne est séparée en deux parties :
- 1ère partie : (le ou) les processus demandeurs (séparés par un point virgule) suivi d'un point et de leur niveau de priorité : <dispositif>.<niveau>
<dispositif> est appelé facility <niveau> est appelé priority, c'est le niveau de criticité du log. Exemple : panic, error, warning, debug, info...
- 2ème partie : le fichier log correspondant (qui reçoit le message et l'ajoute à la liste de ses messages) : <fichier de log>
« Voici un exemple de fichier /etc/syslog.conf » | |
---|---|
Swatch
[modifier | modifier le wikicode]L'utilitaire swatch peut surveiller un fichier de log et réaliser une action s'il voit passer un mot-clé.
Exemple de fichier de configuration /root/.swatchrc :
# # À appeler avec la ligne suivante : # # swatch --config-file=/root/.swatchrc --tail-file=/var/log/auth.log # watchfor /FAILED/ echo red #mail addresses=alex\@localhost,subject=Alerte AUTH exec /usr/bin/zenity --error --text "$_" watchfor /Successful/ echo green
Le Serveur de log
[modifier | modifier le wikicode]On peut être amené à créer un serveur de log si on possède plusieurs serveurs dont on souhaite centraliser les log, par mesure de sécurité ou par commodité (facilité de consultation, d'archivage, etc...)
Si on monte un serveur de log, il suffit d'ajouter :
- côté serveurs envoyant les messages de log :----> une ligne dans le fichier syslog.conf de chaque serveur en mentionnant les processus envoyant les messages (exemple : *.* pour tous) et le nom du serveur de log ou son adresse IP précédée de @, comme ainsi :
*.* @log_server ou *.* @192.168.30.221 ou mail.inf @log_server (stocke les log d'envoi de mail)
- côté serveur de log :----> l'option SYSLOGD ="-r" dans le fichier /etc/default/syslogd
Schéma de réseau avec Serveur de log |
---|
Extrait du fichier syslogd d'un serveur non dédié au log - la commande SYSLOGD n'est pas activée |
---|
La commande logger
[modifier | modifier le wikicode]La commande logger permet d'envoyer un message à syslog même connecté en utilisateur
$ logger -p auth.info -t unnom "mon message à envoyer"
-t permet d'ajouter unnom, un tag c'est un mot quelconque pour signer le message
Le programme logrotate
[modifier | modifier le wikicode]logrotate est un fichier texte situé dans etc/, il sert à configurer 'la politique des rotations' des logs. Effectivement, il faut supprimer les anciens fichiers log, sinon on risque une saturation du disque. Pour cela on peut programmer des rotations de logs qui se traduisent par l'archivage des fichiers log assez récents et la suppression des anciens, et ceci avec une périodicité bien définie.
La page man de logrotate donne toute la syntaxe et les mots clé.
Les lignes importantes à configurer du fichier /etc/logrotate.conf:
- monthly : tourner les logs tous les mois (enlever le weekly existant dans le fichier de configuration par défaut Debian)
- rotate n : conserver n fichiers (ici un fichier par mois [mettre 60, soit 5 ans])
- create : créer un nouveau fichier de log
- compress : compresser le fichier tourné
Pour tester vos fichiers de configuration logrotate.conf (et donc de logrotate.d/*) taper : /usr/sbin/logrotate -dv /etc/logrotate.conf.
Installation de nouveaux logiciels
Au début de linux, installer un logiciel libre nécessitait de récupérer les sources et de les compiler. Cette étape de compilation pouvait être fastidieuse car il fallait disposer de toutes les librairies utilisées par le logiciel.
Redhat a énormément simplifié ce processus en inventant le format RPM (Redhat Package Manager), format qui propose les logiciels open-source pré-compilés.
Debian s'en est inspiré pour créer le format DEB.
- REDHAT = logiciel.x.y.rpm
- DEBIAN = logiciel.x.y.deb
x et y correspondent aux numéros de version du logiciel.
dpkg
[modifier | modifier le wikicode]dpkg est le programme qui permet d'installer, mettre à jour et supprimer un logiciel en format DEB. Sur Redhat, la commande rpm fait la même chose.
Installer un fichier DEB
[modifier | modifier le wikicode]L'option -i (i: install) de dpkg (debian package) permet d'installer un fichier DEB :
# dpkg -i logiciel-x.y.deb
Connaitre la liste de tous les logiciels installés
[modifier | modifier le wikicode]L'option -l (l : list) permet de connaitre la liste de tous les logiciels installés :
# dpkg -l ii iamerican 3.1.20.0-4.3 An American English dictionary for ispell ii ibritish 3.1.20.0-4.3 A British English dictionary for ispell ii icedax 1.1.2-1 Creates WAV files from audio CDs ii iceweasel 2.0.0.6-0etch1 lightweight web browser based on Mozilla ii iceweasel-gnome-support 2.0.0.6-0etch1 Support for Gnome in Iceweasel ...
Savoir quel package a installé tel fichier
[modifier | modifier le wikicode]L'option -S permet de savoir quel package a installé tel fichier :
# dpkg -S /etc/crontab cron: /etc/crontab
Connaitre le descriptif d'un package installé
[modifier | modifier le wikicode]L'option --status permet de consulter le descriptif d'un package installé :
# dpkg --status dosfstools Package: dosfstools Status: install ok installed Priority: optional Section: otherosfs Installed-Size: 144 Maintainer: Roman Hodek <roman@hodek.net> Architecture: i386 Source: dosfstools (2.11-2.1) Version: 2.11-2.1+b1 Replaces: mkdosfs Depends: libc6 (>= 2.3.6-6) Conflicts: mkdosfs Description: Utilities to create and check MS-DOS FAT filesystems Inside of this package there are two utilities (mkdosfs alias mkfs.dos, and dosfsck alias fsck.msdos) to create and to check MS-DOS FAT filesystems on either hard disks or floppies under Linux. This version uses the enhanced boot sector/superblock format of DOS 3.3+ as well as provides a default dummy boot sector code.
On apprend notamment :
- la priorité : s'agit-il d'un package indispensable ou optionnel ?
- la taille disque occupée par le package installé
- le nom et l'email du mainteneur Debian
- l'architecture
- le numéro de verstion
- les dépendances
- une description courte et longue
Autres options de dpkg
[modifier | modifier le wikicode]La commande dpkg dispose d'une page de manuel détaillant toutes les options disponibles :
# man dpkg
apt-get
[modifier | modifier le wikicode]La commande apt-get permet d'installer, mettre à jour et supprimer les logiciels. Le principal avantage d'apt-get par rapport à dpkg est sa capacité à télécharger les packages sur les mirroirs Debian et de résoudre les dépendances nécessaires au logiciel, et ceci de façon récursive.
Installer un logiciel
[modifier | modifier le wikicode]L'option install de la commande apt-get permet d'installer un logiciel :
# apt-get install scribus Lecture des listes de paquets... Fait Construction de l'arbre des dépendances... Fait Les paquets supplémentaires suivants seront installés : blt python-imaging python-imaging-tk python-tk tk8.4 Paquets suggérés : blt-demo python-imaging-doc tix scribus-template scribus-doc ttf-bitstream-vera Les NOUVEAUX paquets suivants seront installés : blt python-imaging python-imaging-tk python-tk scribus tk8.4 0 mis à jour, 6 nouvellement installés, 0 à enlever et 3 non mis à jour. Il est nécessaire de prendre 8467ko dans les archives. Après dépaquetage, 24,2Mo d'espace disque supplémentaires seront utilisés. Souhaitez-vous continuer [O/n] ?
Note: apt-get install va télécharger tous les packages nécessaires au bon fonctionnement du logiciel, et apeller dpkg -i sur chaque fichier DEB téléchargés.
Il existe plus de 300 miroirs DEBIAN
Rajouter des mirroirs
[modifier | modifier le wikicode]On peut rajouter des miroirs à apt-get en modifiant le fichier /etc/apt/sources.list. Ce fichier contient la liste des mirroirs officiels DEBIAN, et on peut rajouter d'autres mirroirs.
# cat /etc/apt/sources.list deb cdrom:[Debian GNU/Linux 4.0 r1 _Etch_ - Official i386 NETINST Binary-1 2007$ deb http://ftp.fr.debian.org/debian/ etch main contrib non-free deb-src http://ftp.fr.debian.org/debian/ etch main contrib non-free deb http://security.debian.org/ etch/updates main contrib deb-src http://security.debian.org/ etch/updates main contrib
On peut rajouter à ce fichier un miroir contenant des fichiers DEB non-intégrés dans les miroirs officiels Debian :
deb http://www.virtualbox.org/debian etch non-free
Mettre à jour la liste des logiciels disponibles
[modifier | modifier le wikicode]Chaque fois que l'on modifie le fichier /etc/apt/sources.list, il faut lancer la commande apt-get update pour récupérer la liste des nouveaux logiciels :
# apt-get update # apt-get install virtualbox
Note: apt-get utilise la commande wget pour télécharger les fichiers.
Mettre à jour tous les logiciels installés
[modifier | modifier le wikicode]L'option upgrade de apt-get prend la liste des paquets installés, regarde sur le dépôt si ces logiciels sont disponibles dans une version plus récentes. Si c'est le cas, cette commande va mettre à jour ces logiciels.
Effacer les fichiers DEB installés
[modifier | modifier le wikicode]Par défaut, la commande apt-get conserve tous les fichiers DEB installés dans le répertoire /var/cache/apt/archives.
L'option clean permet d'effacer les fichiers DEB que l'on a installé :
# apt-get clean # ls -l /var/cache/apt/archives total 0
Autres options de apt-get
[modifier | modifier le wikicode]La commande apt-get dispose d'une page de manuel détaillant toutes les options disponibles :
# man apt-get
apt-cache
[modifier | modifier le wikicode]Chercher un package
[modifier | modifier le wikicode]L'option search de la commande apt-cache permet de rechercher un terme sur les paquets installés et non-installés.
# apt-cache search vob gaupol - subtitle editor for text-based subtitle files gopchop - Fast, lossless cuts-only editor for MPEG2 video files gstreamer0.8-mpeg2dec - MPEG1 and MPEG2 video decoder plugin for GStreamer libogg-vorbis-header-pureperl-perl - A pure Perl interface to Ogg Vorbis information fields livemedia-utils - multimedia RTSP streaming tools mplayer - The Movie Player python-vobject - parse iCalendar and VCards in python vobcopy - A tool to copy DvD VOBs to hard disk
Voir les informations d'un package
[modifier | modifier le wikicode]L'option show de la commande apt-cache permet de voir les informations d'un paquet (installé ou non).
# apt-cache show k3b ...
Autres options de apt-cache
[modifier | modifier le wikicode]La commande apt-cache dispose d'une page de manuel détaillant toutes les options disponibles :
# man apt-cache
aptitude
[modifier | modifier le wikicode]La commande aptitude est un remplaçant d'apt-get, son principal avantage est de désinstaller les dépendances.
apk
[modifier | modifier le wikicode]Si la distribution est basée sur Alpine Linux, elle renvoie :
apt-get: not found dpkg: not found
Il faut alors utiliser apk update et apk add. Ex :
sudo apk add --update telnet
synaptic
[modifier | modifier le wikicode]Le programme synaptic permet d'effectuer les mêmes opérations que la commande apt-get depuis l'interface graphique.
Les documentations des packages
[modifier | modifier le wikicode]Chaque package Debian est accompagné d'une documentation. Ces documentations se trouvent dans le répertoire /usr/share/doc :
/usr/share/doc/<nom du package>/
Certaines documentations sont compressées en gzip afin d'économiser de la place disque. On peut utiliser les commandes zcat, zmore ou zless pour visualiser ces fichiers sans avoir à les décompresser :
# zmore /usr/share/doc/python/python-policy.txt.gz
Installer un logiciel à partir des sources
[modifier | modifier le wikicode]Dans certains cas, on peut être amené à devoir installer un logiciel à partir des fichiers sources :
- le logiciel n'est pas disponible sous Debian en .DEB
- on a besoin d'une version plus récente du logiciel
- on a besoin d'une option uniquement activable durant la compilation
- ...
Pour faire ceci, on télécharge les sources du logiciel et on va les compiler.
Debian fournit un répertoire particulier destiné à accueillir les programmes installés à la main : /usr/local.
Si on regarde le contenu de ce répertoire, on constate qu'il contient des sous-répertoires déjà présents à la racine :
# ls /usr/local/ bin etc games include lib man sbin share src
Ces répertoires vont accueillir tous les fichiers des programmes installés à la main :
- les exécutables : /usr/local/bin ou /usr/local/sbin
- les fichiers de configuration : /usr/local/etc
- les librairies : /usr/local/lib
- les pages de man : /usr/local/man
- les fichiers communs (icones, traductions ...) : /usr/local/share
- ...
Pour illustrer cette méthodologie, nous allons installer pidgin.
Tout d'abord, on télécharge les fichiers sources du logiciel dans le répertoire /usr/local/src :
# cd /usr/local/src # wget http://downloads.sourceforge.net/pidgin/pidgin-2.3.0.tar.bz2 # tar xjf pidgin-2.3.0.tar.bz2 # cd pidgin-2.3.0
La première chose à faire est de lire le fichier README :
# more README
On apprend dans ce fichier qu'il faut lire le fichier INSTALL pour connaître les dépendances et la procédure pour compiler le logiciel :
# more INSTALL
Comme dans la majorité des logiciels écrits en langage C, il faut effectuer la procédure standard : ./configure; make; make install .
On lance donc la première commande :
# ./configure
Cette étape se solde par une erreur : pidgin a besoin de la librairie perl XML parser. On cherche donc le paquet Debian contenant cette librairie :
# apt-cache search perl xml parser ... libxml-parser-perl - Perl module for parsing XML files ...
On installe donc le packet libxml-parser-perl :
# apt-get install libxml-parser-perl
On relance le ./configure :
# ./configure
Cette étape se solde à nouveau par une erreur : pidgin a besoin de la librairie de développement glib2. On cherche donc le paquet Debian contenant cette librairie et on l'installe :
# apt-cache search glib 2 dev ... libglib2.0-dev - Development files for the GLib library ... # apt-get install libglib2.0-dev
On relance le ./configure :
# ./configure
Cette étape se solde à nouveau par une erreur : pidgin a besoin de la librairie de développement xml2. On cherche donc le paquet Debian contenant cette librairie et on l'installe :
# apt-cache search lib xml2 dev ... libxml2-dev - Development files for the GNOME XML library ... # apt-get install libxml2-dev
On relance le ./configure :
# ./configure ... Pidgin will be installed in /usr/local/bin.
configure complete, now type 'make'
Cette fois-ci, l'étape s'est terminée sans erreur et on peut lancer la compilation :
# make ... # make install ...
Ca y est (enfin!), le logiciel s'est correctement installé, et l'exécutable a été copié dans le répertoire /usr/local/bin :
# ls -l /usr/local/bin total 2280 -rwxr-xr-x 1 root staff 2329930 2007-12-07 10:06 pidgin
On peut désormais lancer le logiciel et l'utiliser :
$ pidgin
Le noyau Linux et les modules
Dans certains cas, on peut être amené à recompiler un noyau Linux :
- support d'un périphérique (driver)
- activation d'une option
- ...
Les sources du noyau Linux sont disponibles sur kernel.org dans le répertoire /pub/linux/kernel/v2.6/.
Les sources doivent être installées dans le répertoire /usr/src et il faut un lien linux vers la version du noyau que l'on désire compiler :
# cd /usr/src # wget http://www.kernel.org/pub/linux/kernel/v2.6/linux-2.6.23.9.tar.bz2 ... # tar xjf linux-2.6.23.9.tar.bz2 # ln -s linux-2.6.23.9 linux # cd linux
Si on désire utiliser les mêmes options de compilation du noyau actuel, on copie le fichier /boot/config-2.6.18-5-686 dans le répertoire /usr/src/linux sous le nom .config :
# cp /boot/config-2.6.18-5-686 .config
Pour lancer la configuration (en mode texte) du noyau, on tape ensuite make menuconfig. Il faut avoir précédement installé la librairie de développement ncurses et tous les outils de compilation :
# apt-get install libncurses5-dev build-essential
On installe ensuite kernel-package qui contient les outils Debian permettant de fabriquer un packet .deb contenant le noyau Linux, les modules, le initrd et un script configurant Grub pour booter sur le nouveau noyau (cf explications ci-dessous) :
# apt-get install kernel-package
On lance ensuite la configuration du noyau via make menuconfig :
# make menuconfig
On configure le noyau, on quitte en enregistrant la configuration.
Debian fournit une méthode particulière pour lancer la compilation du noyau. il faut auparavant installer le packet kernel-package.
La procédure Debian consiste à fabriquer un fichier .DEB contenant le noyau et les modules compilés. L'avantage de cette méthode est de faciliter la mise à jour du noyau. De même, elle va automatiquement mettre à jour GRUB ou LILO pour démarrer sur le nouveau noyau.
Si on veut que Debian fabrique le fichier initrd automatiquement, il suffit de l'indiquer avec l'option --initrd de make-kpkg.
On lance la compilation du noyau et des modules avec la commande make-kpkg :
# make-kpkg clean # make-kpkg --initrd --rev custom.1 kernel_image ... # dpkg -i ../linux-image-2.6.23.9_custom.1_i386.deb
On peut également fabriquer un initrd manuellement, voici la procédure :
# mkinitramfs -o /boot/initrd.img-2.6.23.9 2.6.23.9
On le rajoute dans /boot/grub/menu.lst :
title Debian GNU/Linux, kernel 2.6.23.9 root (hd1,0) kernel /vmlinuz-2.6.23.9 root=/dev/hdd2 ro initrd /initrd.img-2.6.23.9 savedefault
Il ne reste plus qu'à rebooter pour démarrer sur le nouveau noyau.
Si tout c'est bien passé, le système va démarrer sur le nouveau noyau. Sinon, le noyau va s'arrêter sur un kernel panic et il faudra rebooter sur le noyau précédent, reprendre la configuration du noyau, le recompiler (avec un numéro de version différent, comme par exemple custom.2).
On vérifie que l'on a bien démarré sur notre nouveau noyau avec la commande uname :
# uname -r 2.6.23.9
Pour plus d'informations sur la compilation d'un noyau selon Debian, on peut consulter le Debian Linux Kernel Handbook.
Modules
[modifier | modifier le wikicode]lsmod
[modifier | modifier le wikicode]Cette commande permet de visualiser les modules chargés en mémoire.
Syntaxe:
lsmod
modinfo
[modifier | modifier le wikicode]Cette commande permet de visualiser les informations du module comme le nom du créateur, et les options de chargements.
Syntaxe:
modinfo chemin_du_module
insmod et modprobe
[modifier | modifier le wikicode]Bien que ces deux commandes permettent de charger un module, la différence tient du fait que certains modules ont besoins que d'autres modules soient chargés.
insmod tente de charger le module demandé et si celui-ci a besoin d'un autre module pour se charger et que ce dernier ne l'est pas, insmod renvoie un message d'erreur et ne charge pas le module.
Syntaxe:
insmod chemin_du_module
modprobe, lui, charge les modules dépendant au modules avant de lancer celui-ci.
Syntaxe:
modprobe chemin_du_module
rmmod
[modifier | modifier le wikicode]Cette commande décharge le module dont le nom est indiqué. Contrairement aux autres commandes, il ne faut pas lui indiquer le chemin du module, mais son nom tel qu'il apparaît listé par la commande lsmod.
Syntaxe:
rmmod nom_du_module
rmmod décharge le module nom_du_module
depmod
[modifier | modifier le wikicode]
Autres commandes utiles
Manipulation des flux et des fichiers textes
[modifier | modifier le wikicode]awk
[modifier | modifier le wikicode]La commande awk permet d'effectuer des manipulations sur des fichiers texte (ou un flux redirigé en entrée), dont notamment afficher une colonne particulière. Exemple :
$ dpkg -l | awk '{print $2}'
Cette commande dit à dpkg que l'on ne veut que la deuxième colonne.
sed
[modifier | modifier le wikicode]sed
est un utilitaire de traitement de données capable d'utiliser les expressions régulières.
Exemples :
- Pour remplacer toute « chaine1 » avec « chaine2 » dans le fichier « chemin1.txt » :
sed -i 's/chaine1/chaine2/g' chemin1.txt
- Pour substituer toute « chaine1 » dans le fichier « chemin1.txt » avec « chaine2 » et envoyer le résultat dans le fichier « chemin2.txt » :
sed 's/chaine1/chaine2/g' chemin1.txt > chemin2.txt
- Exemple de changement de format de date :
echo "03/11/2015 23:54:03" | sed -r "s/([0-9]+)\/([0-9]+)\/([0-9]+)/\3-\2-\1/g"
donne :
2015-11-03 23:54:03
- Si erreur d’édition sous Windows : ^M, convertir avec :
sed -i 's/\r//' chemin1.txt
Pour le stocker en variable :
result=$(echo "chaine_a_tronquer" | sed -r 's/_a_tronquer//g')
echo $result # chaine
Pour que le regex soit interprété, lancer sed -E
.
Trouver les commandes et les programmes
[modifier | modifier le wikicode]which
[modifier | modifier le wikicode]La commande which permet de connaitre dans quel répertoire se situe une commande (présente dans le PATH) :
$ which ls /bin/ls
updatedb et locate
[modifier | modifier le wikicode]La commande locate (ou slocate) permet une recherche rapide sur le système de fichier (suite à une indexation réalisée par updatedb).
$ locate maillog
warning: locate: warning: database /var/lib/slocate/slocate.db' is more than 8 days old /etc/log.d/conf/logfiles/maillog.conf /var/log/maillog
Lorsque l'indexation a eu lieu il y a plus de 8 jours, la commande locate l'indique par un message.
Pour réindexer le système de fichier :
$ sudo updatedb ou # updatedb
Note sur les droits : updatedb utilise par défaut une base d'indexation globale. Il faut donc avoir les droits super-utilisateur pour mettre à jour l'indexation globale.
Divers
[modifier | modifier le wikicode]file
[modifier | modifier le wikicode]La commande "file" permet de connaître le type du fichier indiqué en paramètre.
# file TmDedicatedServer_2006-05-30.tgz
TmDedicatedServer_2006-05-30.tgz: gzip compressed data, was "fr.22968.0.TmDedicatedServer_20",
from Unix, last modified: Tue May 30 13:41:35 2006
du
[modifier | modifier le wikicode]La commande "du" sert à afficher la taille des grandes espaces (partitions de disque et répertoires)
# du -sh /var/temp
L'option "s" affiche seulement un total pour chaque type d'argument.
L'option "h" permet l'affichage automatique de l'unité adaptée (Ko, Mo, Go...).
df
[modifier | modifier le wikicode]La commande df affiche l'espace occupé par les systèmes de fichiers.
# df -h
L'option "h" permet l'affichage automatique de l'unité adaptée (Ko, Mo, Go...).
Pour les inodes :
# df -hi
eval
[modifier | modifier le wikicode]Ajoute une couche d'évaluation, par exemple pour les variables variables. Ex :
hello="world"
var_name="hello"
echo \$$var_name # $hello
eval echo \$$var_name # world
timeout
[modifier | modifier le wikicode]Permet de lancer une commande qui se stoppera au plus tard après le temps défini. Ex :
timeout 60 test.sh
Installation RAID1 logiciel + LVM + XFS
Voici la configuration à obtenir lors de l'installation de Debian :
Scripts de surveillance
Ce chapitre contient différents scripts de surveillance de l'activité d'un serveur Linux
En langage Python
[modifier | modifier le wikicode]alimon.py (A LInux MONitor)
[modifier | modifier le wikicode]Lien direct : alimon.py.
#!/usr/bin/python
# -*- coding: utf-8 -*-
#
##############################################################################
#
# ALiMon.py : A LInux MONitor
#
##############################################################################
#
# Ce script réalise différentes opérations de monitoring et met en évidence
# certains points importants comme une partition disque bientôt pleine ou une
# charge processeur trop élevée.
#
# Ce script a été réalisé durant une scéance de travaux pratiques et a des fins
# didactiques. Il est issu du travail collectif des personnes citées ci-dessous
# en auteurs et a nécessité uniquement deux heures de développement.
#
##############################################################################
#
# Auteurs :
#
# David BISPO, Christophe CARLIER, Jonathan DUHAIL, Jonathan GAULUPEAU,
# Lahoucine HAMOUCHE, Hicham OUHNA, Manuel PIRES, Yann VAITILINGOM,
# Jérémy PELLAUMAIL et Alexandre GUY
#
# Nous remercions également les connectés du canal #afpy du réseau Freenode
# pour leur aide concernant l'unicode et l'encodage utf-8.
#
# Version : 0.3
#
##############################################################################
#
# Ce script est diffusé sous la licence EUPL v1.1
#
# This script is released under EUPL v1.1
#
# http://ec.europa.eu/idabc/eupl
#
##############################################################################
#
# Ce programme est un logiciel libre ; vous pouvez le re-distribuer et/ou le
# modifier au titre des clauses de la European Union Public Licence (EUPL)
# version 1.1, telle que publiée par l'Union Européenne.
#
# Ce programme est distribué dans l'espoir qu'il sera utile,
# mais SANS AUCUNE GARANTIE ; sans même une garantie implicite de
# COMMERCIABILITÉ ou DE CONFORMITÉ À UNE UTILISATION PARTICULIÈRE.
# Voir la EUPL version 1.1 pour plus de détails.
#
# This program is free software; you can redistribute it and/or modify it
# under the terms of the European Union Public Licence (EUPL) version 1.1
# as published by the European Union.
#
# This program is distributed in the hope that it will be useful, but
# WITHOUT ANY WARRANTY; without even the implied warranty of
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.
# See the EUPL version 1.1 for more details.
#
##############################################################################
#
# Utilisation manuelle : ./alimon.py
#
# Utilisation automatisée : Rajouter dans le cron :
# 55 23 * * * root alimon.py
#
##############################################################################
#########################################
#### Configuration & pré-traitements ####
#########################################
#### Modules importés ####
import commands, unicodedata, os, sys, getopt
#### Fonction Affichage du titre formaté ####
def titre(message):
message = unicode(message,'utf-8')
print "\n", "#" * 59
print "######", message.center(45).encode('utf-8'), "######"
print "#" * 59, "\n"
#### Fonction affichant l'aide ####
def usage():
print "###### Aide de alimon ######"
print "./alimon.py [-f] [-d] [-h]"
print " -f Lance le programme en mode dégradé. Utile si certaines commandes"
print " ne sont pas installées sur le serveur."
print " -d Lance le programme en mode debug."
print " -h Affiche l'aide du programme."
#### Variables globables ####
# Active / désactive le mode debug
debug = 0
# Active / désactive le mode dégradé
force = 0
# Seuil maxi du loadavg
seuil_maxi_loadavg = 1.0
# Température maxi des disques durs
temperature_hdd_maxi = 45
# Taux d'occupation maxi des disques durs
taux_occupation_maxi = 80
# Logins autorisés
loginsok = ['alex', 'jo']
# Liste des daemons qui doivent être en cours d'exécution
proclist = ['sshd', 'apache2', 'mysqld', 'named', 'master', 'murmurd', 'pop3-login', 'teamspeak-serve', 'couriertcpd']
# Pourcentage maxi de swap
pourcentage_mem_maxi = 10
# Mémoire mini disponible en Mo
mem_mini = 200
# Liste des sites à 'pinguer'
url_ping = ['www.google.fr']
# Liste des périphériques RAID (exemple : ['md0', 'md1'])
raidlist = []
#### Récupère les arguments ####
# Récupère la liste des arguments
try:
optlist, list = getopt.getopt(sys.argv[1:], 'dhf')
# Si un argument ne figure pas dans la liste prédéfinie, affiche la fonction 'usage' (aide) puis quitte
except getopt.GetoptError:
usage()
sys.exit(1)
# Traite les arguments donnés
for opt in optlist:
if opt[0] == '-h':
usage()
sys.exit(0)
if opt[0] == '-d':
debug = 1
if opt[0] == '-f':
force = 1
#### Test de présence des commandes shell et récupération de leur chemin ####
commandes_utilisees = ['cat','hostname','last','hddtemp','df','ps','free','ping','grep','uniq','who','uname']
# Contrôle la commande 'mdadm' uniquement si une liste de disques raid est définie
if raidlist:
commandes_utilisees.append('mdadm')
commandes = {}
for comm in commandes_utilisees:
(res,commande) = commands.getstatusoutput("/usr/bin/which %s" % comm)
# Si une commande n'existe pas mais que le mode Force est activé
if res and force:
print "La commande", comm, "n'est pas présente sur votre système, fonctionnement en mode dégradé."
commandes[comm] = ""
# Si une commande n'exite pas
elif res:
print "La commande", comm, "n'est pas présente sur votre système. Arrêt du programme."
print "Tapez './alimon.py -h' pour en savoir plus."
sys.exit(1)
else:
commandes[comm] = commande
#### Récupération de la liste des disques durs ####
result = commands.getoutput("%s /proc/partitions" % commandes['cat']).split("\n")
result.pop(0)
hddlist = []
for ligne in result:
if debug: print "debug> Ligne du fichier '/proc/partitions' en cours de traitement :", ligne
hdd = ''.join(ligne.split()[-1:])[:3]
if debug: print "debug> Disque dur à ajouter à la liste :", hdd
if hdd and hdd not in hddlist:
hddlist.append(hdd)
#############################
#### Programme principal ####
#############################
#### INFOS SERVEUR ####
if commandes['hostname'] and commandes['uname'] and commandes['cat'] and commandes['grep'] and commandes['uniq']:
titre("Informations sur le serveur")
# On récupère la première ligne du fichier /etc/issue qui contient généralement le nom et la version de la distribution Linux
version = open("/etc/issue", "r").readlines()[0][:-1]
if debug: print "debug> Version de la distribution :", version
# On récupère le nom du serveur
hostname = commands.getoutput(commandes['hostname'])
if debug: print "debug> Hostname :", hostname
print "Serveur %s sous %s" % (hostname, version)
print
# On récupère et affiche la version du noyau par la commande 'uname -r'
print "Noyau Linux :", commands.getoutput("%s -r" % commandes['uname'])
# On récupère et affiche le(s) processeur(s) installé(s) sur le serveur
cpu = commands.getoutput("%s /proc/cpuinfo | %s \"model name\" | %s" % (commandes['cat'], commandes['grep'], commandes['uniq']))
if debug: print "debug> Liste des processeurs non post-traitée :", cpu
print "Processeur(s) :", cpu.split(': ')[1]
# On récupère et affiche la quantité de mémoire installée sur le serveur
mem = commands.getoutput("%s /proc/meminfo | %s \"MemTotal\"" % (commandes['cat'], commandes['grep']))
if debug: print "debug> Quantité de mémoire non post-traitée :", mem
print "Mémoire vive :", ' '.join(mem.split()[1:])
#### DUREE DE FONCTIONNEMENT DU SERVEUR ####
if commandes['cat']:
titre("Durée de fonctionnement")
# On récupère la durée de fonctionnement en secondes dans /proc/uptime
result = commands.getoutput("%s /proc/uptime" % (commandes['cat'])).split()[0]
duree = float(result)
if debug: print "debug> Résultat de cat '/proc/uptime' :", duree
# On calcule le reste en secondes
secondes = duree%60
if debug: print "debug> Secondes :", secondes
# On calcule le reste en minutes
minutes = duree/60%60
if debug: print "debug> Minutes :", minutes
# On calcule le reste en heures
heures = duree/60/60%24
if debug: print "debug> Heures :", heures
# On calcule le nombre de jours
jours = int(duree/60/60/24)
if debug: print "debug> Jours :", jours
print "Serveur lancé depuis %i jour(s), %i heure(s), %i minute(s) et %i seconde(s)." % (jours, heures, minutes, secondes)
#### VERIFICATION DU LOAD AVERAGE ####
if commandes['cat']:
titre("Vérification du load average")
# On appelle une commande Unix et on récupère le résultat dans la variable result
result = commands.getoutput("%s /proc/loadavg" % (commandes['cat']))
if debug: print "debug> Résultat de 'cat /proc/loadavg' :", result
# On découpe la chaine de caractères en une liste selon le caractère espace
liste_result = result.split()
if debug: print "debug> La liste découpée :", liste_result
if debug: print "debug> La première valeur de la liste :", liste_result[0]
# On compare le load avg de la dernière minute avec le seuil maxi
# Attention, on converti la chaine de caractère liste_result[0] en nombre flottant via float()
if float(liste_result[0]) > seuil_maxi_loadavg:
print "Alerte ! charge CPU supérieure à", seuil_maxi_loadavg, "!!!"
else:
print "Charge CPU %s normale car inférieure à %.2f" % (liste_result[0],seuil_maxi_loadavg)
#### CONNECTIONS DU JOUR ####
if commandes['last'] and commandes['grep']:
titre("Connections du jour")
# On récupère les dernières connections avec la commande 'last', on filtre avec 'grep'
login = commands.getoutput("%s | %s \"$(LANG=C date +\"%%a %%b %%-d\")\"" % (commandes['last'], commandes['grep']))
if login == "":
login = commands.getoutput("%s | %s \"$(LANG=C date +\"%%a %%b %%-d\")\"" % (commandes['last'], commandes['grep']))
print login
#### TEMPERATURE DES HDD ####
if commandes['hddtemp']:
titre("Températures des disques durs")
# On vérifie la température pour chaque disque dans la liste 'hddlist' avec la commande 'hddtemp'
for disque in hddlist:
if debug: print "debug> Disque en cours de contrôle :", disque
# On récupère la température du disque
temperature = commands.getoutput("%s -n /dev/%s" % (commandes['hddtemp'], disque))
if debug: print "debug> Température du disque en cours :", temperature
# On vérifie que la température du disque n'est pas supérieure au seuil de tolérance, sinon on imprime un message d'alerte
# S'il y a une erreur (disque non compatible SMART), on passe au disque suivant
try:
if int(temperature) > temperature_hdd_maxi:
print "Alerte ! Le disque dur /dev/%s a dépassé %s°C, il est actuellement à %s°C !!!" % \
(disque, temperature_hdd_maxi, temperature)
else:
print "Le disque dur /dev/%s est à %s°C et inférieur au seuil de %s°C" % \
(disque, temperature, temperature_hdd_maxi)
except:
pass
#### VERIFICATION DE L'ESPACE DISQUE ####
if commandes['df'] and commandes['grep']:
titre("Vérification de l'espace disque")
# On récupère le pourcentage d'espace libre sur toutes les partitions dont le périphérique commence par '/dev' avec la commande 'df'
result = commands.getoutput("%s -P | %s -e '^/dev'" %(commandes['df'], commandes['grep']))
if debug: print "debug> Résultat du 'df' :", result
# On fait un contrôle sur chaque ligne du résultat du 'df'
for disque in result.split('\n'):
taux_occupation = disque.split()[4][:-1]
if debug: print "debug> Disque en cours de contrôle :", disque
if debug: print "debug> Taux d'occupation du disque en cours :", taux_occupation
# On vérifie que le taux d'occupation n'est pas supérieur au seuil de tolérance, sinon on imprime un message d'alerte
if int(taux_occupation) > taux_occupation_maxi:
print "Attention la partition %s est rempli à %s !!!" %(disque.split()[0], disque.split()[4])
else:
print "La partition %s est pleine à %s." %(disque.split()[0], disque.split()[4])
#### VERIFICATION ETAT RAID ####
# Se lance si une liste de périphériques a été définie
if raidlist:
if commandes['mdadm']:
titre("Vérification de l'état du RAID")
# On teste chaque périphérique de la liste
for hddraid in raidlist:
# On récupère le status de la commande qui vérifie l'état d'un RAID
(raidstatus, raid) = commands.getstatusoutput("%s --detail -t /dev/%s" %(commandes['mdadm'], hddraid))
# On teste si le status est différent de 0 (donc status en erreur)
if raidstatus!=0:
print "Attention, le périphérique RAID /dev/%s a au moins un disque en dysfonctionnement !" % hddraid
else:
print "Le périphérique RAID /dev/%s fonctionne normalement." % hddraid
#### VERIFICATION CONNECTIONS EN COURS ####
if commandes['who']:
titre("Vérification des logins actuellement connectés")
# On récupère les noms des utilisateurs actuellement connectés avec la commande 'who'
wholiste = commands.getoutput(commandes['who']).split('\n')
if debug: print "debug> Liste des utilisateurs connectés :", wholiste
liste_logins_connectes = []
# On récupère uniquement la première colonne de chaque ligne
for ligne in wholiste:
if ligne:
if debug: print "debug> Ligne en cours de traitement :", ligne
user = ligne.split()[0]
if debug: print "debug> Utilisateur en cours de traitement :", user
# On ajoute l'utilisateur à une liste s'il n'y est pas déjà (évite les doublons)
if user not in liste_logins_connectes:
liste_logins_connectes.append(user)
# On vérifie que les utilisateurs précédemment récupérés sont bien dans la liste des utilisateurs autorisés, sinon on imprime un message d'alerte
for user in liste_logins_connectes:
if user in loginsok:
print "utilisateur", user, "OK"
else:
print "ATTENTION L'utilisateur", user, "est connecte MAIS n'est pas dans la liste"
#### VERIFICATION DES PROCESSUS ####
if commandes['ps']:
titre("Vérification des processus")
# On récupère les processus lancés avec la commande 'ps'
result = commands.getoutput("%s -e" % (commandes['ps'])).split('\n')
# On supprime la première ligne
result.pop(0)
if debug: print "debug> Résultat de la commande 'ps' :", result
# On récupère uniquement le nom de chaque processus (dernière colonne)
psliste=[]
for processus in result:
if debug: print "debug> Processus à ajouter :", processus
psliste.append(processus.split()[-1])
if debug: print "debug> Contenu de la liste des processus :", psliste
# On vérifie que chaque processus de la liste définie au début du script est présent dans la liste récupérée précedemment
for processus in proclist:
if debug: print "debug> Processus en cours de vérification :", processus
if not processus in psliste:
print "Attention : le process %s n'est pas lancé actuellement !!!" %(processus)
else:
print "Le processus", processus, "est bien en cours d'exécution."
#### VERIFICATION DE LA MEMOIRE ####
if commandes['free']:
titre("Vérification de la mémoire")
# On récupère la quantité de mémoire libre avec la commande 'free'
result = commands.getoutput(commandes['free'])
if debug: print "debug> Résultat de la commande 'free' :", result
listefree = result.split("\n")
if debug:
print "debug> On truque le résultat de la commande free pour tester"
listefree = [' total used free shared buffers cached', 'Mem: 2066032 850780 1215252 0 114496 368584', '-/+ buffers/cache: 367700 1698332', 'Swap: 2048276 350500 2048276']
print "debug> Free truqué :", listefree
# On récupère la quantité de mémoire totale
ligne1=listefree[1].split()
memoire=float(ligne1[1])
if debug: print "debug> Mémoire totale :", memoire
# On récupère la quantité de swap totale
ligne3=listefree[3].split()
swap=float(ligne3[2])
if debug: print "debug> Swap total :", swap
# On calcule le rapport de swap par rapport à la mémoire installée
pourcentage = (swap/memoire)*100.0
if debug: print "debug> Pourcentage de Swap :", pourcentage
# On vérifie que le rapport ne dépasse pas le seuil limite autorisé, sinon on imprime un message d'alerte
if pourcentage > pourcentage_mem_maxi:
print "Alerte ! memoire swap supérieur a %d%% de la mémoire (utilisation %.2f%%) !!!" % (pourcentage_mem_maxi, pourcentage)
else:
print "Mémoire swap inférieure à %d%% (utilisation %.2f%%)" % (pourcentage_mem_maxi, pourcentage)
# On récupère la quantité de mémoire libre en Mo avec la commande 'free -m'
result = commands.getoutput("%s -m" % (commandes['free']))
result = result.split('\n')
if debug: print "debug> Résultat de la commande 'free -m' :", result
mem = result[2].split()[3]
if debug: print "debug> Quantité de mémoire libre en Mo :", mem
# On vérifie que la quantité de mémoire libre ne soit pas inférieure au seuil limite, sinon on imprime un message d'alerte
if int(mem) < mem_mini:
print "Attention !! il reste moins de %sMo de mémoire libre !!! (%sMo)" %(mem_mini, mem)
else:
print "Il y a", mem, "Mo de mémoire libre."
#### TEMPS DE REPONSE SERVEUR WEB ####
if commandes['ping']:
titre("Temps de réponse du serveur")
# On lance la commande 'ping' sur chaque url définie dans 'url_ping'
for url in url_ping:
print "Résultat de la commande ping sur %s" % (url)
print commands.getoutput("%s -c 1 %s" % (commandes['ping'], url)).split("\n")[-1]
print
Réseaux sans fil
Théorie des réseaux sans fil
[modifier | modifier le wikicode]Réseaux sans fil de type PAN, LAN, MAN et WAN
[modifier | modifier le wikicode]Distances et débits
[modifier | modifier le wikicode]Les réseaux sans fil PAN
[modifier | modifier le wikicode]PAN : Personal Area Network
La norme ZBEE
[modifier | modifier le wikicode]- Norme 802.15.4
- Consomme très peu d'énergie
- Bas débit (maximum 250 Kbit/s)
- Idéal pour les applications de type domotique et automatisme
- Faible coûts de fabrication du composant (1$)
La norme définit trois débits différents :
- 250 Kbit/s en 2.4 GHz (international)
- 20 Kbit/s en 868 MHz (Europe)
- 40 Kbit/s en 915 MHz (USA)
La norme Wireless USB
[modifier | modifier le wikicode]Objectif : remplacer l'USB
Autres noms : W-USB (Wireless USB), UWB (Ultra-Wide Band), Wimedia
- Norme 802.15.3
- Très haut débit (jusqu'à 480 Mbit/s)
- Idéal pour les applications multimédia (audio, vidéo) et pour le transfert de données
- Possibilité de fonctionner en réseau ou en mode ad-hoc
- Authentification et chiffrement possible
Débits théoriques :
- 54 Mbit/s à 2.4 GHz
- jusqu'à 480 Mbit/s de 3.1 à 10.7 GHz
La norme Bluetooth
[modifier | modifier le wikicode]- Norme 802.15.1
- Inventé par Ericsson, aujourd'hui groupement de 2500 sociétés
- Technologie peu onéreuse (composant à partir de 3$) et fortement intégré (puce de 9 mm x 9 mm)
- Débits théoriques : de 1 à 3 Mbit/s selon la version de la norme
La norme Bluetooth utilise la fréquence 2.4 GHz et définit trois puissances d'émission :
- 1 mW : portée de quelques mètres
- 2.5 mW : portée de 10 à 20 mètres
- 100 mW : portée de 100 mètres
Un réseau Bluetooth, un piconet, est composé d'un maître et de 7 esclaves maximum. Le débit sera partagé entre les différents membres du piconet.
On peut interconnecter des piconets pour former un scatternet (scatter : dispersion)
Les communications peuvent être symétrique (vitesses d'émission et de réception identiques) ou asymétrique (vitesses d'émission et de réception différentes).
Les réseaux sans fil LAN
[modifier | modifier le wikicode]LAN : Local Area Network
La norme Wifi
[modifier | modifier le wikicode]Principales normes 802.11 :
- 802.11a : fréquence d'émission à 5 GHz, débit jusqu'à 54 Mbit/s
- 802.11b : fréquence d'émission à 2.4 GHz, débit jusqu'à 11 Mbit/s
- 802.11g : fréquence d'émission à 2.4 GHz, débit jusqu'à 54 Mbit/s
- 802.11n : fréquence d'émission à 2.4 GHz ou 5 GHz, débit jusqu'à 300 Mbit/s en utilisant les technologies MIMO (Multiple-Input Multiple-Output) et OFDM (Orthogonal Frequency Division Multiplexing)
Très proche de l'ethernet câblé (802.3), utilise la sous-couche LLC générique de la couche 2, et ré-implémente la sous-couche MAC.
Contrairement à ethernet câble qui est basé sur la technique d'accès CSMA/CD, la norme Wi-Fi utilise le CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance).
Il y a plusieurs modes de fonctionnement, dont voici les principaux :
- mode Ad-Hoc permet d'établir des connexions sans passer par un point d'accès
- mode Infrastructure permet d'établir des connexions en passant par un point d'accès, et également de gérer un système de distribution basé sur plusieurs points d'accès utilisant le même ESSID.
- mode monitor permet de passer la carte Wi-Fi en mode promiscuous, c'est à dire qu'elle voit passer toutes les trames, et pas seulement celles qui lui sont destinées.
Le Wi-Fi utilise des trames de synchronisation temporelle, appelée les beacon frames. Ces trames contiennent l'heure du point d'accès.
Sécurité WEP
[modifier | modifier le wikicode]- Premier protocole d'authentification et de chiffrement
- Signifie : Wired Equivalent Privacy
- Aujourd'hui totalement obsolète car non sécurisé
- Utilise des clés de 64 bits (clé secrète de 40 bits + vecteur d'initialisation -IV- de 24 bits) ou des clés de 128 bits (clé secrète de 104 bits + vecteur d'initialisation -IV- de 24 bits)
- Définit deux techniques d'authentification : Open System Authentication (diffusion du ESSID) et Shared Key Authentication (pas de diffusion d'informations avant l'authentification)
Sécurité WPA
[modifier | modifier le wikicode]- Inventé pour pallier les failles de sécurité du WEP
- Signifie : Wi-Fi Protected Access
- La norme WPA1 fonctionne sur du matériel existant (mais est cassable). La norme WPA2 nécessite du matériel plus puissant (authentification et chiffrement plus complexe) et est la méthode la plus sécurisée à l'heure actuelle
- Utilise le standard 802.1x qui se charge de l'authentification et de la génération de la clé
- Le modèle 802.11i assure la sécurité au niveau de la sous-couche MAC via le protocole TKIP (Temporal Key Integrity Protocol) ou via le protocole CCMP (Counter with Cipher Block Chaining Message Authentication Code Protocol) (plus sécurisé)
Les réseaux sans fil MAN
[modifier | modifier le wikicode]MAN : Metropolitan Area Network
La norme Wimax
[modifier | modifier le wikicode]Les réseaux sans fil WAN
[modifier | modifier le wikicode]WAN : Wide Area Network
La norme 802.20
[modifier | modifier le wikicode]Mise en pratique
[modifier | modifier le wikicode]Les commandes Wi-Fi
[modifier | modifier le wikicode]Utilisateurs de Gnome, Attention ! les commandes ci-dessous ne fonctionneront que si vous avez désactivé au préalable Network Manager :
Ubuntu 9.10 et supérieur :
# service network-manager stop
Ubuntu 9.04 :
# service NetworkManager stop
iwconfig
[modifier | modifier le wikicode]Invoquée seule, la commande iwconfig affiche toutes les interfaces réseaux :
# iwconfig lo no wireless extensions. eth0 no wireless extensions. wmaster0 no wireless extensions. wlan0 IEEE 802.11bg ESSID:"" Mode:Managed Frequency:2.412 GHz Access Point: Not-Associated Tx-Power=20 dBm Retry long limit:7 RTS thr:off Fragment thr:off Encryption key:off Power Management:off Link Quality:0 Signal level:0 Noise level:0 Rx invalid nwid:0 Rx invalid crypt:0 Rx invalid frag:0 Tx excessive retries:0 Invalid misc:0 Missed beacon:0
On peut indiquer à la commande iwconfig l'interface à afficher :
# iwconfig wlan0 wlan0 IEEE 802.11bg ESSID:"" Mode:Managed Frequency:2.412 GHz Access Point: Not-Associated Tx-Power=20 dBm Retry long limit:7 RTS thr:off Fragment thr:off Encryption key:off Power Management:off Link Quality:0 Signal level:0 Noise level:0 Rx invalid nwid:0 Rx invalid crypt:0 Rx invalid frag:0 Tx excessive retries:0 Invalid misc:0 Missed beacon:0
On peut également utiliser la commande iwconfig pour configurer les paramètres du réseau sans fil :
- Pour définir le nom du réseau :
# iwconfig wlan0 essid "MON RESEAU"
- Pour définir le canal à utiliser :
# iwconfig wlan0 channel 3
on peut également spécifier la fréquence avec l'option freq :
# iwconfig wlan0 freq 2.412G
- pour définir le débit
# iwconfig wlan0 rate auto
- pour fixer le débit :
# iwconfig wlan0 rate 11M
Le 802.11b définit les débits suivants : 1, 2, 5.5 et 11 Mbit/s.
Le 802.11g définit en plus les débits suivants : 6, 9, 12, 18, 24, 36, 48 et 54 Mbit/s.
- Pour activer ou non le chiffrement WEP :
# iwconfig wlan0 key off
- pour spécifier la clé WEP :
# iwconfig wlan0 key 1234567890
on peut gérer de trousseau de quatre clés. On indique le numéro de clé entre crochets :
# iwconfig wlan0 key [1] 1234567890
- pour changer le mode (ad-hoc, managed, monitor ...) de la carte :
Attention, il faut que la configuration côté IP soit arrêtée :
# ifconfig wlan0 down # iwconfig wlan0 mode Ad-Hoc # ifconfig wlan0 up
- pour changer la puissance d'émission (si la carte le permet) :
# iwconfig eth0 txpower 60mW
On peut également spécifier plusieurs paramètres sur la même ligne :
# iwconfig wlan0 channel 11 key off essid NETGEAR
iwlist
[modifier | modifier le wikicode]La commande iwlist permet d'obtenir des informations complémentaires. Invoquée seule, elle affiche la liste des options disponibles :
# iwlist Usage: iwlist [interface] scanning [essid NNN] [last] [interface] frequency [interface] channel [interface] bitrate [interface] rate [interface] encryption [interface] keys [interface] power [interface] txpower [interface] retry [interface] ap [interface] accesspoints [interface] peers [interface] event [interface] auth [interface] wpakeys [interface] genie [interface] modulation
On peut optionnellement spécifier l'interface réseau (inutile si il n'y en a qu'une).
- Afficher la liste des réseaux détectés :
# iwlist scan ... wlan0 Scan completed : Cell 01 - Address: 00:09:5B:6F:3C:38 Channel:11 Frequency:2.462 GHz (Channel 11) Quality=57/70 Signal level=-53 dBm Encryption key:off ESSID:"NETGEAR" Bit Rates:1 Mb/s; 2 Mb/s; 5.5 Mb/s; 11 Mb/s Mode:Master Extra:tsf=0000001241f8f0da Extra: Last beacon: 192ms ago IE: Unknown: 00074E455447454152 IE: Unknown: 010482840B16 IE: Unknown: 03010B
- afficher les canaux et fréquences disponibles, et également le canal/fréquence actuellement utilisé :
# iwlist freq # OU iwlist channel ... wlan0 13 channels in total; available frequencies : Channel 01 : 2.412 GHz Channel 02 : 2.417 GHz Channel 03 : 2.422 GHz Channel 04 : 2.427 GHz Channel 05 : 2.432 GHz Channel 06 : 2.437 GHz Channel 07 : 2.442 GHz Channel 08 : 2.447 GHz Channel 09 : 2.452 GHz Channel 10 : 2.457 GHz Channel 11 : 2.462 GHz Channel 12 : 2.467 GHz Channel 13 : 2.472 GHz Current Frequency:2.447 GHz (Channel 8)
- afficher la liste des clés WEP :
# iwlist encryption # OU iwlist keys ... wlan0 2 key sizes : 40, 104bits 4 keys available : [1]: 1234-5678-90 (40 bits) [2]: off [3]: off [4]: off Current Transmit Key: [1]
- afficher les possiblités d'authentification du driver de la carte :
# iwlist auth ... wlan0 Authentication capabilities : WPA WPA2 CIPHER-TKIP CIPHER-CCMP Current Authentication algorithm : open shared-key
- afficher la liste des points d'accés détectés :
# iwlist ap # OU iwlist accesspoints ath0 Peers/Access-Points in range: 5A:1D:14:86:97:BC : Quality=34/70 Signal level=-61 dBm Noise level=-95 dBm 5A:1D:14:86:97:BE : Quality=34/70 Signal level=-61 dBm Noise level=-95 dBm 5A:1D:14:86:97:BF : Quality=33/70 Signal level=-62 dBm Noise level=-95 dBm ...
iwevent
[modifier | modifier le wikicode]La commande iwevent permet d'afficher en temps réel les évènements Wi-Fi de la carte.
On lance iwevent sur une console, et sur une autre, on passe des commandes iwconfig. On constate que iwevent affiche les évènements générés :
# iwevent ... 09:15:01.261767 wlan0 New Access Point/Cell address:Not-Associated 09:15:01.261858 wlan0 Set Frequency=2.412 GHz (Channel 1) ... 09:15:40.112202 wlan0 Set Frequency=2.462 GHz (Channel 11) 09:16:01.762209 wlan0 Custom driver event:ASSOCINFO(ReqIEs=00074e455447454152010402040b16 RespIEs=010482840b16) 09:16:01.762247 wlan0 New Access Point/Cell address:00:09:5B:6F:3C:38
iwpriv
[modifier | modifier le wikicode]La commande iwpriv permet de configurer des paramêtres propres à la carte Wi-Fi.
# iwpriv wlan0 wlan0 no private ioctls.
Par exemple, le driver de cette carte ne fournit de paramêtres spécifiques à configurer.
Avec un autre driver, on obtient la liste des ioctl configurables :
# iwpriv ath0 ath0 Available private ioctls : setoptie (8BEE) : set 256 byte & get 0 getoptie (8BEF) : set 0 & get 256 byte setkey (8BF2) : set 64 byte & get 0 delkey (8BF4) : set 7 byte & get 0 setmlme (8BF0) : set 42 byte & get 0
Certaines cartes ethernet câble permettent également de configurer des paramêtres internes :
# iwpriv eth0 eth0 Available private ioctl : setqualthr (89F0) : set 1 byte & get 0 gethisto (89F7) : set 0 & get 16 int # iwpriv eth0 setqualthr 20 # iwpriv eth0 gethisto
iwspy
[modifier | modifier le wikicode]Si la carte et le driver le permettent, la commande iwspy permet d'afficher des statistiques en temps réel sur la liaison Wi-Fi :
# iwspy ath0 ath0 Statistics collected: 00:15:6D:D0:E3:E0 : Quality=22/70 Signal level=-74 dBm Noise level=-96 dBm Link/Cell/AP : Quality=22/70 Signal level=-74 dBm Noise level=-96 dBm Typical/Reference : Quality:0 Signal level:0 Noise level:0
Par exemple, la carte (et/ou driver) ci-dessous ne permet pas de collecter des informations.
# iwspy wlan0 wlan0 Interface doesn't support wireless statistic collection
Autres commandes utiles
[modifier | modifier le wikicode]lspci
[modifier | modifier le wikicode]# lspci ... 00:1f.1 IDE interface: Intel Corporation 82801G (ICH7 Family) IDE Controller (rev 01) 00:1f.2 IDE interface: Intel Corporation 82801GB/GR/GH (ICH7 Family) SATA IDE Controller (rev 01) 00:1f.3 SMBus: Intel Corporation 82801G (ICH7 Family) SMBus Controller (rev 01) 04:04.0 Ethernet controller: Atheros Communications Inc. Atheros AR5001X+ Wireless Network Adapter (rev 01) 04:08.0 Ethernet controller: Intel Corporation PRO/100 VE Network Connection (rev 01)
lsusb
[modifier | modifier le wikicode]# lsusb ... BUS 005 Device 003: ID 0846:6a00 Netgear, Inc. WG111 WiFi (v2)
lshw
[modifier | modifier le wikicode]# lshw -class network ... *-network:0 description: Wireless interface product: Atheros AR5001X+ Wireless Network Adapter vendor: Atheros Communications Inc. physical id: 4 bus info: pci@0000:04:04.0 logical name: wmaster0 version: 01 serial: 00:24:01:13:fe:de width: 32 bits clock: 33MHz capabilities: pm bus_master cap_list logical ethernet physical wireless configuration: broadcast=yes driver=ath5k latency=168 maxlatency=28 mingnt=10 multicast=yes wireless=IEEE 802.11bg resources: irq:18 memory:50000000-5000ffff
Test du réseau Ad-Hoc
[modifier | modifier le wikicode]Il faut tout d'abord passer la carte en mode Ad-Hoc :
# ifconfig wlan0 down # iwconfig wlan0 mode Ad-Hoc # ifconfig wlan0 up
On ajuste ensuite les paramêtres Wifi :
# iwconfig wlan0 essid "UPVD" channel 3 key off
On spécifie ensuite une adresse MAC commune à tout le réseau Ad-Hoc :
# iwconfig wlan0 ap 00:11:22:33:44:55
On spécifie les paramêtres IP :
# ifconfig wlan0 10.0.0.1 netmask 255.255.255.0
Désormais, les différents membres du réseau Ad-Hoc doivent pouvoir se pinguer.
Si ce n'est pas le cas, on peut essayer de changer la fréquence et de la remettre pour forcer une ré-detection / re-configuration.
Connexion à un réseau sans chiffrement
[modifier | modifier le wikicode]# iwconfig wlan0 essid "NETGEAR" channel 11 key off # dhclient wlan0
Connexion à un réseau WEP
[modifier | modifier le wikicode]# iwconfig wlan0 essid "NETGEAR" channel 11 key CAFECAFECA # dhclient wlan0
Connexion à un réseau WPA
[modifier | modifier le wikicode]Pour se connecter à un réseau WPA depuis Linux, il faut avoir installé le package wpasupplicant :
# apt-get install wpasupplicant
On crée le fichier de configuration suivant :
# cat /etc/wpa_supplicant.conf network={ ssid="RESEAUWPA" scan_ssid=1 proto=WPA key_mgmt=WPA-PSK psk="supermotdepassetressecure" }
On lance la commande wpa_supplicant :
# wpa_supplicant -D wext -i wlan0 -c /etc/wpa_supplicant.conf
Cette commande ne rend pas la main, donc soit on la lance en tâche de fond avec &, soit on la laisse tourner et on ouvre une nouvelle fenêtre.
On lance ensuite le client DHCP pour obtenir une adresse IP :
# dhclient wlan0
L'outil d'administration Webmin
Installation de Webmin
[modifier | modifier le wikicode]Webmin est un logiciel qui permet de configurer un serveur Unix / Linux via une interface Web[1].
Webmin est disponible sur de nombreuses plateformes[2] : Windows, Redhat, Fedora, CentOS, SuSE, Mandrake, Debian, et Ubuntu[3].
Il est supporté par Debian[4], mais on peut aussi télécharger sur leur site un fichier .deb.
On installe les dépendances de Webmin, puis on télécharge l'archive de Webmin et on l'installe en root :
apt-get -f install libnet-ssleay-perl libauthen-pam-perl libio-pty-perl libmd5-perl
wget http://prdownloads.sourceforge.net/webadmin/webmin_1.780_all.deb
dpkg -i webmin_1.780_all.deb
# anciennement :
apt-get install libnet-ssleay-perl libauthen-pam-perl libio-pty-perl libmd5-perl
wget http://prdownloads.sourceforge.net/webadmin/webmin_1.400_all.deb
dpkg -i webmin_1.400_all.deb
Quelques secondes après l'interface web doit être accessible (ex : https://localhost:10000/).
Configuration de Webmin
[modifier | modifier le wikicode]Changement du mot de passe
[modifier | modifier le wikicode]/usr/libexec/webmin/changepass.pl /etc/webmin root nouveau_pass
Cela changera le mot de passe de root dans Webmin et ne modifie en aucun cas le mot de passe root du système.
Changement du port
[modifier | modifier le wikicode]Éventuellement on peut changer le port par défaut pour limiter les risques d'attaque :
vim /etc/webmin/miniserv.conf
Envoi des alertes
[modifier | modifier le wikicode]Pour recevoir les alertes détectées par Webmin par email, il faut se rendre sur /webmin/edit_sendmail.cgi[5].
Accueil de Webmin
[modifier | modifier le wikicode]Gestion des utilisateurs de Webmin
[modifier | modifier le wikicode]Webmin permet aux utilisateurs Unix de se connecter au portail Webmin, et à certaines bases de données.
Gestion des serveurs HTTP
[modifier | modifier le wikicode]Gestion des serveurs BDD
[modifier | modifier le wikicode]Il est possible de créer des bases MySQL, des tables et d'exécuter du code SQL via l'interface. Elle se révèle être moins développée que phpMyAdmin.
Gestion des serveurs DNS
[modifier | modifier le wikicode]Gestion des serveurs Mail
[modifier | modifier le wikicode]Il est possible d'utiliser les boites emails des utilisateurs depuis l'interface Webmin, pour envoyer et recevoir (du moins théoriquement via send_mail.cgi
) :
Leurs logs étant :
tail /var/webmin/webmin.log
Si les envois ne partent pas, tester en shell :
cd /usr/share/webmin/mailboxes
./send_mail.cgi
S'il y a une erreur sur les variables d'environnements :
printenv
export WEBMIN_CONFIG="/etc/webmin"
export PERLLIB="/usr/lib/x86_64-linux-gnu/perl5"
Gestion des sauvegardes
[modifier | modifier le wikicode]Des backups peuvent être planifiés ou effectués en live travers l'interface :
Références
[modifier | modifier le wikicode]- ↑ http://www.webmin.com
- ↑ http://www.webmin.com/download.html
- ↑ http://doc.ubuntu-fr.org/webmin
- ↑ http://www.debianadmin.com/install-webmin-on-debian-7-6-wheezy.html
- ↑ https://bobcares.com/blog/webmin-email-alerts/
telnet
Telnet est un protocole conçu pour accéder aux ordinateurs à distance, en mode client-serveur. Il est moins sûr que SSH car non crypté. Son port par défaut est 23 mais on peut le spécifier en paramètre.
Exemples
[modifier | modifier le wikicode]Tester si le port HTTP est ouvert et que son service écoute
[modifier | modifier le wikicode]telnet localhost 80
Une fois connecté avec telnet, si on ne peut pas quitter avec CTRL + C, taper en azerty : CTRL + ALT GR + ), puis "quit" et entrée.
Envoyer un email sur un serveur SMTP
[modifier | modifier le wikicode]telnet localhost 25
Trying 127.0.0.1...
Connected to localhost.localdomain.
Escape character is '^]'.
220 smtp.mydomain.com
mail from:<superman@mydomain.com>
250 2.1.0 <superman@mydomain.com>... Sender ok
rcpt to:<wonderwoman@herdomain.com>
250 2.1.5 <wonderwoman@herdomain.com>... Recipient ok
data
354 Enter mail, end with "." on a line by itself
Let's meet
.
250 2.0.0 n514OvkN019941 Message accepted for delivery
quit
221 2.0.0 smtp.mydomain.com closing connection
Connection closed by foreign host.
cURL
cURL est une commande pour appeler une page web (port 80 ou 443) en GET (par défaut) ou en POST.
Aide :
curl -h
Exemples
[modifier | modifier le wikicode]Ignorer les erreurs HTTPS
[modifier | modifier le wikicode]Pour ne pas vérifier le certificat SSL/TLS, utiliser "-k" (ou "--insecure") :
curl -k "https://fr.wikibooks.org/wiki/Accueil"
POST
[modifier | modifier le wikicode]Le verbe HTTP est précisable avec "-X". Exemple de création de page MediaWiki :
curl -X POST https://fr.wikibooks.org/w/rest.php/v1/page -H "Content-Type: application/json" -H "Authorization: Bearer $TOKEN" --data '{"source": "Hello, world!", "title": "User:<my username>/Sandbox", "comment": "Creating a test page with the REST API"}'
Télécharger un fichier
[modifier | modifier le wikicode]Il faut préciser le nom du fichier avec "-o" (ou "--output").
curl -X GET "https://upload.wikimedia.org/wikipedia/commons/5/53/Le_syst%C3%A8me_d%27exploitation_GNU-Linux-fr.pdf" -o Linux.pdf
Mesurer le temps de réponse
[modifier | modifier le wikicode]On peut aussi mesurer le temps de réponse d'un site avec le paramètre "-w"[1]. Ex :
curl -X GET "https://fr.wikibooks.org/wiki/Accueil" -w "\n%{time_starttransfer}\n%{time_total}\n"
Cela affiche le code HTML de la page suivi du temps de la requête : 0,103497 s, puis le temps en total après téléchargement : 0,137093.
Références
[modifier | modifier le wikicode]
wget
La commande wget permet de télécharger un fichier depuis la ligne de commande :
$ wget http://www.kernel.org/pub/linux/kernel/v2.6/linux-2.6.23.tar.bz2
--13:16:02-- http://www.kernel.org/pub/linux/kernel/v2.6/linux-2.6.23.tar.bz2
=> `linux-2.6.23.tar.bz2'
Résolution de www.kernel.org... 204.152.191.5, 204.152.191.37
Connexion vers www.kernel.org[204.152.191.5]:80...connecté.
requête HTTP transmise, en attente de la réponse...200 OK
Longueur: 45,488,158 [application/x-bzip2]
9% [===> ] 4,245,225 630.29K/s ETA 01:28
Pour utiliser un proxy, il faut définir la variable d'environnement http_proxy. Exemple :
http_proxy=monproxy:3128 wget http://apache.cict.fr/ant/source/apache-ant-1.7.0-src.tar.gz
wget sur ftp
wget est également compatible avec le protocole ftp. Il est ainsi capable de télécharger un fichier ou un ensemble de fichier depuis un ftp distant.
# wget ftp://login:passwd@ftp.host.net/thedir/*
Pour télécharger les sous-répertoire et fichiers on utilise l'option "-r".
L'option "-nH" permet de ne pas sauvegarder le nom d'hôte, autrement wget fera la copie vers un nouveau dossier créé portant le nom de l'hôte du serveur ftp.
Utilisation de base
[modifier | modifier le wikicode]Typiquement Wget s'utilise par la ligne de commande, avec un ou plusieurs URLs passés en paramètres. De nombreuses options permettent d'affiner le comportement souhaité (téléchargement multiple, suivre les liens...).
# Télécharge la page à la racine du site exemple.fr dans un ficher # nommé "index.html". wget http://www.exemple.fr/
# Télécharger les sources de Wget depuis le serveur FTP de GNU. wget ftp://ftp.gnu.org/pub/gnu/wget/wget-latest.tar.gz
Il est possible de télécharger automatiquement plusieurs URLs dans une hiérarchie de dossiers.
# Télécharge tous les fichiers *.gif d'un serveur web # (Les syntaxes de type glob, comme "wget http://www.serveur.com/dir/*.gif", ne marche que avec FTP) wget -e robots=off -r -l1 --no-parent -A.gif http://www.serveur.com/dir/
# Télécharge la page racine de exemple.fr, avec les images et les # feuilles de styles utilisées pour afficher la page, et convertit les # URLs internes pour fonctionner avec les copies locales. wget -p -k http://www.exemple.fr/
# Télécharge le contenu entier de exemple.fr wget -r -l 0 http://www.exemple.fr/
Le serveur de noms BIND
Historique
[modifier | modifier le wikicode]À la création d'Internet, chaque ordinateur du réseau contenait un fichier /etc/hosts qui listait le nom de toutes les machines du réseau et leurs adresses IP. À chaque fois que l'on rajoutait une machine sur Internet, il fallait mettre à jour ce fichier.
Le nombre de machines connecté à Internet s'étant rapidement accru, cette solution de fichier /etc/hosts communs est devenu ingérable, et il a fallu inventer un procédé capable de palier ce problème.
La solution qui s'est imposée fut la création d'une base de données distribuée, et ainsi est né le principe de serveur DNS.
Un serveur DNS permet de faire la correspondance entre un nom canonique (ex : www.google.fr) et son adresse IP.
Le premier serveur DNS fut créé par l'université de Berkeley et s'appelle BIND (Berkeley Internet Name Domain). BIND est le serveur DNS le plus utilisé et le plus populaire, environ 79 % d'Internet fonctionne avec ce logiciel[1].
Configuration du client DNS
[modifier | modifier le wikicode]Sur un serveur Unix, la liste des serveurs DNS est définie dans le fichier /etc/resolv.conf.
$ cat /etc/resolv.conf search mondomaine.fr nameserver 192.168.30.1
Principe de fonctionnement du DNS
[modifier | modifier le wikicode]Schéma : l'arbre à l'envers
.("point") _______________|_______________...________ | | | | | | | com net org fr ru edu ... arpa | | | google wikibooks in-addr | | | | | | ... | ug-in-f104 fr ru uk ... 0 1 255 ___|___ ... | | ... | 0 1 255 ___|___ ... | | ... | 0 1 255 ___|___ ... | | ... | 0 1 255
Au sommet de l'arbre on trouve des serveurs root qui aiguille vers les top level domain (com, net, org, fr, etc.)
Il existe une branche spéciale ARPA avec un sous domaine in-addr qui sert à gérer le reverse DNS.
La commande host
[modifier | modifier le wikicode]La commande host permet d'obtenir l'adresse IP d'un ordinateur :
$ host www.google.com www.google.com is an alias for www.l.google.com. www.l.google.com has address 209.85.135.147 www.l.google.com has address 209.85.135.99 www.l.google.com has address 209.85.135.103 www.l.google.com has address 209.85.135.104
La commande host permet également de consulter le DNS inverse, c'est à dire quel nom canonique est associé à une adresse IP donnée :
$ host 66.249.93.104 104.93.249.66.in-addr.arpa domain name pointer ug-in-f104.google.com.
La commande dig
[modifier | modifier le wikicode]La commande dig permet d'interroger un serveur DNS.
Voici quelques exemples :
En interrogeant le sommet de l'arbre ., on obtient la liste des serveurs racines du DNS, appelés les root-servers[2] :
$ dig . NS ... ;; ANSWER SECTION: . 419748 IN NS a.root-servers.net. . 419748 IN NS b.root-servers.net. . 419748 IN NS c.root-servers.net. . 419748 IN NS d.root-servers.net. ...
En interrogeant la branche com, on obtient la liste des serveurs DNS gérant les noms de domaines en .com :
$ dig com. NS ... ;; ANSWER SECTION: com. 172800 IN NS i.gtld-servers.net. com. 172800 IN NS j.gtld-servers.net. com. 172800 IN NS k.gtld-servers.net. com. 172800 IN NS l.gtld-servers.net. ...
Si on interroge la branche fr, on obtient la liste des serveurs DNS gérant les noms de domaines en .fr. On constate que les extensions nationales sont gérés par des organismes nationaux (dans le cas de la France, le NIC France) :
$ dig fr. NS ... ;; ANSWER SECTION: fr. 172800 IN NS f.ext.nic.fr. fr. 172800 IN NS a.ext.nic.fr. fr. 172800 IN NS a.nic.fr. fr. 172800 IN NS b.ext.nic.fr. ...
En indiquant un nom de domaine, dig permet de connaitre différentes informations, comme par exemple :
La liste des serveurs DNS gérant le nom de domaine :
$ dig google.fr NS ... ;; ANSWER SECTION: google.fr. 175462 IN NS ns3.google.com. google.fr. 175462 IN NS ns4.google.com. google.fr. 175462 IN NS ns1.google.com. google.fr. 175462 IN NS ns2.google.com. ...
La liste des serveurs de mails :
$ dig google.fr MX ... ;; ANSWER SECTION: google.fr. 10800 IN MX 10 smtp4.google.com. google.fr. 10800 IN MX 10 smtp1.google.com. google.fr. 10800 IN MX 10 smtp2.google.com. google.fr. 10800 IN MX 10 smtp3.google.com. ...
Les Ressources Records (RR)
[modifier | modifier le wikicode]Les informations stockées dans un serveur DNS sont classifiées à l'aide des Ressources Records (RR).
Il existe de nombreux Ressources Records, voici les plus courants :
- NS (Name Server) indique les serveurs DNS gérant le nom de domaine. Exemple : dig google.com NS donne les name server de google.com
- A (Adresse IPv4) indique l'adresse IPv4 associée à un FQDN (Full Qualified Domain Name). Exemple : dig www.google.com A donne les adresses IPv4 de www.google.com
- AAAA (Adresse IPv6) indique l'adresse IPv6 associée à un FQDN (Full Qualified Domain Name). Exemple : dig www.google.com AAAA donne les adresses IPv6 de www.google.com
- MX (Mail eXchanger) indique le(s) serveur(s) de mail à contacter pour délivrer les emails du domaine. Exemple : dig google.fr MX donne les serveurs de mails acceptant des emails destinés à <un nom>@google.fr.
- CNAME (Canonical NAME) permet de créer des Alias (des noms étant des raccourcis vers d'autres noms). Exemple : host www.google.fr nous indique que www.google.fr est alias vers www.google.com.
- PTR (PoinTeuR) est utilisé par le reverse DNS pour effectuer la résolution d'une adresse IP vers un nom (FQDN). Exemple : host 72.14.207.99 nous indique que l'adresse IP 72.14.207.99 est associé au nom eh-in-f99.google.com
Installation de BIND
[modifier | modifier le wikicode]Pour installer le serveur BIND sous Debian, on utilise la commande suivante :
# apt-get install bind
À partir de Debian Lenny, le package contenant le serveur BIND s'appelle bind9
Configuration de BIND
[modifier | modifier le wikicode]Les fichiers de configuration de BIND sont situés dans le répertoire /etc/bind.
Le fichier principal de configuration de BIND est /etc/bind/named.conf. Debian a choisit de découper ce fichier en 3 fichiers afin de faciliter les mises à jour.
À noter que dans ces fichiers, les lignes en commentaire commencent par // et non le # habituel des .conf, que l'on retrouve dans la syntaxe Apache.
/etc/bind/named.conf
[modifier | modifier le wikicode]# cat /etc/bind/named.conf // Documentation : /usr/share/doc/bind/README.Debian // Inclusion du fichier /etc/bind/named.conf.options include "/etc/bind/named.conf.options"; // Configuration des logs logging { category lame-servers { null; }; category cname { null; }; }; // La zone définissant les root servers zone "." { type hint; file "/etc/bind/db.root"; }; // La zone localhost zone "localhost" { type master; file "/etc/bind/db.local"; }; // La zone inverse localhost zone "127.in-addr.arpa" { type master; file "/etc/bind/db.127"; }; // La zone inverse réseau zone "0.in-addr.arpa" { type master; file "/etc/bind/db.0"; }; // La zone inverse broadcast zone "255.in-addr.arpa" { type master; file "/etc/bind/db.255"; }; // Inclusion du fichier /etc/bind/named.conf.local include "/etc/bind/named.conf.local";
/etc/bind/named.conf.options
[modifier | modifier le wikicode]# cat /etc/bind/named.conf.options options { // Emplacement des zones si on ne spéficie pas de chemin absolu directory "/var/cache/bind"; // Option désormais obsolète depuis BIND 8 fetch-glue no; // Option pour changer le port par défaut // query-source address * port 53; // Option pour indiquer un DNS à qui on va renvoyer // les demandes de résolution // forwarders { // 0.0.0.0; // }; };
Dans ce fichier, il est possible de préciser dans la section forwarders l'adresse IP du DNS à qui l'on souhaite renvoyer les demandes de résolutions de noms. Par exemple, ceci est utile lorsque notre serveur DNS ne peut pas accéder directement à Internet.
Par défaut BIND écoute sur le port 53 en UDP. On peut également changer ce port dans ce fichier, mais ceci est délicat car il faudra accorder la configuration des clients en conséquence. À noter que le dossier /etc/services contient le numéro par défaut des ports de tous les services.
/etc/bind/named.conf.local
[modifier | modifier le wikicode]On va définir dans ce fichier nos zones locales.
# cat /etc/bind/named.conf.local
zone "mondomaine.fr" {
type master;
file "/etc/bind/db.mondomaine.fr";
};
zone "mondomaine2.fr" {
type master;
file "/etc/bind/db.mondomaine2.fr";
};
Le fichier définissant la zone
[modifier | modifier le wikicode]On crée ensuite le fichier de zone /etc/bind/db.mondomaine.fr
# cat /etc/bind/db.mondomaine.fr ; ; BIND data file for mondomaine.fr ; $TTL 604800 @ IN SOA dns.mondomaine.fr. root.mondomaine.fr. ( 1 ; Serial 604800 ; Refresh 86400 ; Retry 2419200 ; Expire 604800 ) ; Negative Cache TTL ; @ IN NS dns.mondomaine.fr. dns IN A 192.168.30.210 ; srv1 IN A 192.168.30.211 ; @ IN MX 0 mail.mondomaine.fr. ; mail IN A 192.168.30.210 alex IN CNAME mail guillaume IN CNAME srv1
À noter que dans les fichiers de zone, les lignes en commentaire commencent par ; et non le # habituel.
Points importants de ce fichier :
Le caractère @ (arobas) remplace le nom de la zone.
Lorsque l'on définit un nom canonique, on a deux possibilités :
- soit on donne le nom en entier (ex: pc210.mondomaine.fr.) . Dans ce cas-là, il ne faut pas oublier le point final, sinon le système rajoute automatiquement le nom de la zone (mondomaine.fr).
- soit on ne donne que le nom "court" (ex: alex). Dans ce cas-là, il ne met pas le point final afin que le système rajoute le nom de la zone.
Test de fonctionnement
[modifier | modifier le wikicode]Une fois que l'on a modifié ces fichiers, on relance le serveur DNS :
# /etc/init.d/bind restart
On modifie ensuite le fichier /etc/resolv.conf pour lui indiquer d'utiliser le DNS que l'on vient de configurer :
# vi /etc/resolv.conf search mondomaine.fr nameserver 127.0.0.1
Pour tester, on essaye de pinguer un nom définit dans le DNS :
# ping pc210.mondomaine.fr
Si tout se passe bien, le DNS doit effectuer la résolution.
On peut aussi utiliser les commandes host et dig pour vérifier :
# host pc210.mondomaine.fr ... # host guillaume.mondomaine.fr ... # dig mondomaine.fr MX ...
Le fichier définissant la zone inverse
[modifier | modifier le wikicode]Maintenant que l'on a configuré le DNS de la zone mondomaine.fr, on va créer la zone inverse qui va permettre d'associer un nom à une adresse IP.
On rajoute tout d'abord la zone inverse dans le fichier named.conf.local :
// La zone reverse DNS zone "30.168.192.in-addr.arpa" { type master; file "/etc/bind/db.192.168.30"; };
Le nom de la zone est composé de l'adresse réseau (à l'envers) associé à in-addr.arpa.
On crée ensuite le fichier /etc/bind/db.192.168.30 :
# cat /etc/bind/db.192.168.30 ; ; BIND data file for 192.168.30 ; $TTL 604800 @ IN SOA dns.mondomaine.fr. root.mondomaine.fr. ( 1 ; Serial 604800 ; Refresh 86400 ; Retry 2419200 ; Expire 604800 ) ; Negative Cache TTL ; @ IN NS dns.mondomaine.fr. 210 IN PTR pc210.mondomaine.fr. 211 IN PTR srv1.mondomaine.fr.
Le ressource record PTR permet de définir le nom associé à l'adresse IP.
Pour vérifier, on relance le DNS et on lui demande quelle nom est associé à une adresse IP donnée :
# /etc/init.d/bind restart
# host 192.168.30.210
...
Gestion des zones
[modifier | modifier le wikicode]Pour modifier les redirections DNS d'un domaine, il faut modifier sa zone :
vim /etc/bind/db.mondomaine.fr
vim /var/lib/bind/example.com.hosts
Après modification des zones DNS, il s'avère nécessaire de demander sa propagation en cliquant tout en haut à droite sur Apply Configuration. Cela équivaut à la commande RNDC pour "Remote Name Daemon Control" :
rndc reload
Et éventuellement vérifier qu'il n'y a pas eu d'erreur :
tail -300 /var/log/syslog
Cela permet par exemple de s'apercevoir que le numéro de série de la version de la zone doit être changé à chaque modification :
zone serial (999) unchanged. zone may fail to transfer to slaves.
Ce que L'interface graphique Webmin, plus ergonomique pour mettre à jour les zones DNS, incrémente automatiquement.
Problèmes connus
[modifier | modifier le wikicode]SERVFAIL
[modifier | modifier le wikicode]dig @localhost example.com
; <<>> DiG 9.8.1-P1 <<>> @localhost example.com
; (1 server found)
;; global options: +cmd
;; Got answer:
;; ->>HEADER<<- opcode: QUERY, status: SERVFAIL, id: 28241
;; flags: qr rd ra; QUERY: 1, ANSWER: 0, AUTHORITY: 0, ADDITIONAL: 0
;; QUESTION SECTION:
;example.com. IN A
;; Query time: 0 msec
;; SERVER: 127.0.0.1#53(127.0.0.1)
;; WHEN: Mon May 25 16:37:31 2015
;; MSG SIZE rcvd: 35
Le serveur DNS mentionné (localhost dans l'exemple) ne connait pas le domaine, mais il peut parfois le résoudre avec host
.
Si le localhost est censé être autoritaire et que la zone y semble bien définie, ajouter un point à la fin de chaque URL, pour éviter qu'il les interprète en ajoutant le domaine après. En effet :
example.com. IN NS ns.example2.com
pourra être interprété à tort :example.com. IN NS ns.example2.com.example.com.
, mais pas :example.com. IN NS ns.example2.com.
NXDOMAIN
[modifier | modifier le wikicode]host example.com
Host example.com not found: 3(NXDOMAIN)
Le domaine est inconnu des DNS, en général il suffit d'attendre la propagation 24 h.
Mais parfois, il manque juste un rndc reload
ou un /etc/init.d/bind9 restart
.
found SPF/TXT record but no SPF/SPF record found
[modifier | modifier le wikicode]Ces enregistrements vont par deux : IN TXT
et IN SPF
.
Le domaine ne se propage pas, telnet localhost 53 fonctionne en local mais pas de l'extérieur
[modifier | modifier le wikicode]Les symptômes sont les mêmes que si le port 53 était bloqué par le pare-feu, mais en fait il faut ajouter les IP publiques dans "/etc/bind/named.conf.options" :
listen-on-v6 { ::1; MonIPv6; }; listen-on { 127.0.0.1; MonIPv4; };
Puis redémarrer le service :
/etc/init.d/bind9 restart
query (cache) '...' denied
[modifier | modifier le wikicode]Retirer les IP locales de :
vim /etc/resolv.conf
Références
[modifier | modifier le wikicode]- ↑ (en) Bryan J. Hong, Building a Server with FreeBSD 7: A Modular Approach, No Starch Press, 2008 (lire en ligne)
- ↑ http://www.root-servers.org/ www.root-servers.org
Le serveur de configuration réseau DHCP
Fonctionnement du serveur DHCP
[modifier | modifier le wikicode]DHCP : Dynamic Host Configuration Protocol. Ce service permet de configurer automatiquement les paramètres IP des machines du réseau local. Le principe est simple. Une machine se connecte sur le réseau local et envoie une requête DHCP Discover pour demander à un éventuel serveur DHCP une adresse IP. Si le serveur est présent, il renvoie un message DHCP Offer. Si plusieurs serveurs DHCP sont présents sur le réseau, le client retient une offre d'un des serveurs et diffuse une demande DHCP : DHCP Request. Le serveur choisit par le client renvoie alors un message de validation DHCP ACK. Le client reçoit donc : Adress IP, Masque de réseau, Adresse de passerelle et Adresse des serveurs DNS.
Installation du serveur DHCP (Sur Debian)
[modifier | modifier le wikicode]# apt-get install isc-dhcp-server
Configuration du serveur DHCP
[modifier | modifier le wikicode]Le fichier de configuration du serveur DHCP est /etc/dhcp3/dhcpd.conf.
$ more /etc/dhcp3/dhcpd.conf # Indique à DHCP de ne pas faire la mise à jour dans le DNS ddns-update-style none; # Le nom de domaine du réseau option domain-name "exemple.org"; # Le(s) nom(s) des serveurs de noms option domain-name-servers ns1.exemple.org, ns2.exemple.org; # Durée par défaut du bail default-lease-time 600; # Durée maximum du bail max-lease-time 7200; # Pour les logs, on utilise la facilité local7 log-facility local7;
subnet 192.168.30.0 netmask 255.255.255.0 { # La plage d'attributions des adresses IP range 192.168.30.20 192.168.30.240; # la liste des passerelles option routers fw.exemple.org, fw2.exemple.org; # L'adresse broadcast option broadcast-address 192.168.30.255; }
Pour certains ordinateurs, on peut leur attribuer tout le temps la même adresse IP en les identifiant avec leurs adresses MAC. Il suffit de rajouter la section suivante :
host monordi { hardware ethernet 0:0:c0:5d:bd:95; fixed-address 192.168.30.200; }
Chaque fois que l'on modifie ce fichier, ne pas oublier de relancer le serveur DHCP afin qu'il prenne en compte les modifications :
# /etc/init.d/dhcp3-server restart
ou
# /etc/init.d/isc-dhcp-server restart
Chaque fois que DHCP attribue une adresse IP, il enregistre un message dans /var/log/syslog :
... Feb 11 10:44:34 fw dhcpd: DHCPREQUEST for 192.168.30.33 from 00:50:ba:2d:d9:17 via eth0 Feb 11 10:44:34 fw dhcpd: DHCPACK on 192.168.30.33 to 00:50:ba:2d:d9:17 via eth0 ...
DHCP stocke les adresses IP attribuées dans le fichier /var/lib/dhcp/dhcpd.leases. Ceci lui permet notamment d'attribuer à un ordinateur la même adresse IP (même si ceci n'est pas obligatoire).
$ cat /var/lib/dhcp/dhcpd.leases ... lease 192.168.30.182 { starts 1 2008/02/11 09:46:23; ends 1 2008/02/11 09:56:23; hardware ethernet 00:1c:c0:0c:b6:25; client-hostname "pc231"; } ...
Le serveur de shell distant SSH
Le serveur SSH
[modifier | modifier le wikicode]SSH (Secure SHELL) permet de se connecter à un ordinateur distant et de disposer d'un shell sécurisé. Par défaut, le serveur SSH attend les connexions distantes sur le port 22 / protocole TCP.
Pour installer un serveur SSH, on utilise la commande suivante :
# apt-get install ssh
La connexion et le transfert de données via SSH est sécurisée par un système de chiffrement utilisant soit l'algorithme RSA (Rivest Shamir Adleman), soit l'algorithme DSA (Digital Signature Algorithm).
Lors de son installation, le serveur SSH génère des clés de chiffrement RSA et DSA. Ces clés sont composées d'une partie privée et d'une partie publique. Elles sont stockées dans le répertoire /etc/ssh/ :
$ ls -l /etc/ssh/ ... -rw------- 1 root root 672 2007-11-05 17:37 ssh_host_dsa_key -rw-r--r-- 1 root root 600 2007-11-05 17:37 ssh_host_dsa_key.pub -rw------- 1 root root 1675 2007-11-05 17:37 ssh_host_rsa_key -rw-r--r-- 1 root root 392 2007-11-05 17:37 ssh_host_rsa_key.pub
Chaque tentative de connexion est enregistrée dans le fichier /var/log/auth.log.
Fichier de configuration
[modifier | modifier le wikicode]Le fichier de configuration du serveur SSH est /etc/ssh/sshd_config :
# cat /etc/ssh/sshd_config # Port de fonctionnement du serveur SSH Port 22 # Permet de spécifier sur quelle interface SSH écoute #ListenAddress :: #ListenAddress 0.0.0.0 # On utilise exclusivement la version 2 du protocole SSH Protocol 2 # Emplacement des clés RSA et DSA HostKey /etc/ssh/ssh_host_rsa_key HostKey /etc/ssh/ssh_host_dsa_key # On active la séparation des privilèges UsePrivilegeSeparation yes # Durée de vie et taille de la clé KeyRegenerationInterval 3600 ServerKeyBits 768 # Pour syslog SyslogFacility AUTH LogLevel INFO # Authentification LoginGraceTime 120 PermitRootLogin no StrictModes yes RSAAuthentication yes PubkeyAuthentication yes #AuthorizedKeysFile %h/.ssh/authorized_keys # Ignore les fichiers ~/.rhosts et ~/.shosts IgnoreRhosts yes # Ignore l'authentification RhostsRSA RhostsRSAAuthentication no # Même principe pour la version 2 du protocole HostbasedAuthentication no # À décommenter sur on ne veut pas se fier au fichier ~/.ssh/known_hosts pour RhostsRSAAuthentication #IgnoreUserKnownHosts yes # Empêche la connexion des utilisateurs qui n'ont pas de mot de passe (PAS RECOMMANDE) PermitEmptyPasswords no # Activer les mots de passes par Challenge / Réponse ChallengeResponseAuthentication no # Permet de supprimer l'authentification par mot de passe et n'utiliser que l'authentification par clé partagée #PasswordAuthentication yes # Options Kerberos #KerberosAuthentication no #KerberosGetAFSToken no #KerberosOrLocalPasswd yes #KerberosTicketCleanup yes # Options GSSAPI #GSSAPIAuthentication no #GSSAPICleanupCredentials yes # Activer la redirection X11 X11Forwarding yes X11DisplayOffset 10 # Afficher le message du jour (Message Of the Day) PrintMotd no # Afficher la date et heure de la dernière connexion PrintLastLog yes # Maintient la connexion TCP TCPKeepAlive yes #UseLogin no #MaxStartups 10:30:60 #Banner /etc/issue.net # Permet à un client de passer des variables locales d'environnement AcceptEnv LANG LC_* Subsystem sftp /usr/lib/openssh/sftp-server # Utilise l'authentification via PAM UsePAM yes
Les options de ce fichier de configuration sont décrites dans la page de manuel de sshd_config :
$ man sshd_config
Le fichier de configuration par défaut proposé par Debian nécessite quelques ajustements.
La ligne PermitRootLogin yes autorise les connexions distantes à partir du compte root. Cette option est dangereuse car elle permet à un attaquant distant de scanner le mot de passe du super-utilisateur root.
La bonne pratique est de se connecter avec son compte utilisateur (ex: alex), et ensuite de passer root avec la commande su, ou d'effectuer les opérations d'administration avec la commande sudo.
On remplace donc cette ligne par :
PermitRootLogin no
Afin de renforcer la sécurité, on peut limiter les connexions SSH à une liste d'utilisateurs donnés. Ceci est réalisé avec l'option AllowUsers :
AllowUsers alex pierre
Sur le même principe, on peut restreindre les connexions à un ou plusieurs groupes Unix :
AllowGroups admin sshusers
Afin que ces modifications soient prises en compte, il faut relancer le serveur SSH :
# /etc/init.d/ssh restart
Le client SSH
[modifier | modifier le wikicode]Utilisation
[modifier | modifier le wikicode]Pour se connecter à un serveur SSH, on utilise la commande ssh. Sa syntaxe est la suivante :
$ ssh <login>@<nom ou adresse IP du serveur>
Exemple :
$ ssh alex@pc210
ou
$ ssh pc210 -l alex
Si on possède le même login sur la machine locale et distante, il est inutile de spécifier le login :
$ ssh pc210
Si ssh ne fonctionne pas sur le port standard 22, l'option -p permet d'indiquer le port à utiliser :
$ ssh pc210 -p 2222
L'option -X du client SSH permet de rediriger l'affichage graphique (le DISPLAY) via le tunnel SSH, et ainsi lancer un programme graphique distant et l'afficher sur notre ordinateur :
$ ssh -X pc210 ... pc210$ xeyes &
Il faut toutefois que l'option X11Forwarding soit positionnée à yes sur le serveur pour que la redirection graphique fonctionne.
Vérification du fingerprint
[modifier | modifier le wikicode]Lors de la première connexion, ssh affiche le fingerprint du serveur SSH et demande confirmation :
$ ssh pc210 The authenticity of host 'pc210 (192.168.30.210)' can't be established. RSA key fingerprint is 8e:c6:f0:b5:e6:71:c9:20:ec:5d:ed:d4:e1:fc:fb:16. Are you sure you want to continue connecting (yes/no)?
Si on veut être certain de l'authenticité du serveur distant, on peut contacter l'administrateur et vérifier avec lui que le fingerprint indiqué est le bon. Pour faire ceci, taper la commande ssh-keygen -l sur le serveur ssh et indiquer le chemin vers la clé RSA du serveur ssh :
# ssh-keygen -lv Enter file in which the key is (/root/.ssh/id_rsa): /etc/ssh/ssh_host_rsa_key 2048 8e:c6:f0:b5:e6:71:c9:20:ec:5d:ed:d4:e1:fc:fb:16 /etc/ssh/ssh_host_rsa_key.pub +--[ RSA 2048]----+ | | | | | . . | | oEo | | . S.o | |o. . + +o=. | |=.+ E..+o | |oo . . oo. | | . o.. | +-----------------+
Par la suite, le fichier /home/<user>/.ssh/known_hosts stoque l'identité chiffrée de la machine et ssh ne nous demande plus confirmation.
Authentification automatique
[modifier | modifier le wikicode]Si on se connecte souvent sur le même serveur, on peut générer une paire de clés afin de ne pas avoir à saisir le mot de passe à chaque connexion.
Sur la machine cliente
On génére une paire de clés avec la commande ssh-keygen :
$ ssh-keygen -t rsa Generating public/private rsa key pair. Enter file in which to save the key (/home/alex/.ssh/id_rsa): Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in /home/alex/.ssh/id_rsa. Your public key has been saved in /home/alex/.ssh/id_rsa.pub. The key fingerprint is: 41:ab:25:09:eb:ad:41:66:2d:d6:85:e3:73:02:40:e3 alex@pc210
On ne saisi pas de passphrase, sinon le système va demander à saisir la passphrase à chaque connexion, ce qui est aussi contraignant que la saisie du mot de passe.
Sur la machine distante
On se connecte sur la machine distante et on copie le contenu de la clé publique précédement générée (/home/alex/.ssh/id_rsa.pub) dans le fichier /home/alex/.ssh/authorized_keys.
ssh-copy-id -i /home/alex/.ssh/id_rsa.pub alex@192.168.30.190
Note: Si on ne dispose pas de la commande ssh-copy-id (anciennes versions de ssh), on peut utiliser la commande suivante :
cat ~/.ssh/id_rsa.pub | ssh alex@192.168.30.190 "cat - >> ~/.ssh/authorized_keys"
Ceci fait, on peut se connecter sur la machine distante sans avoir à saisir le mot de passe.
La commande scp
[modifier | modifier le wikicode]La commande scp (Secure Copy) permet de copier un fichier d'un ordinateur vers un autre en utilisant SSH.
Par exemple, la commande suivante permet de copier le fichier fichier.txt vers le répertoire /tmp de l'ordinateur pc211 :
$ scp fichier.txt alex@pc211:/tmp
On peut également copier un fichier distant sur la machine locale :
$ scp alex@pc211:/etc/passwd /tmp
L'option -r permet de copier un répertoire de manière récursive.
scp contient une faille que rsync n'a pas, où un serveur malicieux peut envoyer au client des fichiers non demandés[1].
Les clients SSH sous Windows
[modifier | modifier le wikicode]Il existe plusieurs clients SSH pour Windows, dont notamment les logiciels libres suivants :
- PuTTY[2] : fournit une liste de serveurs où se connecter en SSH uniquement.
- WinSCP[3] : client SSH, SFTP, FTP et SCP.
- Bitvise : n'affiche qu'un serveur SSH et SFTP pour chaque profil (nécessite de les charger depuis le système de fichier à chaque changement de serveur).
- MobaXterm : fournit une liste de sessions où se connecter en double-cliquant (en SSH et SFTP), mais problèmes fréquents pour copier-coller en console.
Problèmes connus
[modifier | modifier le wikicode]Le mot de passe est toujours demandé malgré la clé SSH
[modifier | modifier le wikicode]Quand on teste la clé SSH depuis le client :
$ ssh -i .ssh/id_rsa <login>@<serveur>
si les logs d'authentification du serveur acceptent la clé :
$ tail /var/log/auth.log
cela donne :
Accepted publickey for root from xxxx port yyyy ssh2: RSA SHA256:zzzz
ou :
Found matching RSA key:zzzz
au lieu de :
Accepted password for root from xxxx port yyyy ssh2
Il faut donc réinstaller les clés.
Authentication refused: bad ownership or modes for directory
[modifier | modifier le wikicode]Il faut s'approprier le dossier :
chown MonUtilisateur MonDossier
Could not create directory '/c/UsersUtilisateur/.ssh' ... Failed to add the host to the list of known hosts
[modifier | modifier le wikicode]Se produit sous Windows quand le chemin défini n'est pas celui retenu par SSH. Par exemple, quand :
$ setx HOME %USERPROFILE%
ou
$ setx HOME "C:/Users/Utilisateur/"
ou
$ setx HOME "C:\\Users\\Utilisateur\\"
donnent tous :
$ echo $HOME /c/UsersUtilisateur
Peu importe la casse.
On peut aussi utiliser CMD au lieu de Bash pour modifier la variable d'environnement "home", ce qui aboutit à un résultat équivalent :
> setx HOME %USERPROFILE% > set home home=C:\Users\Utilisateur HOMEDRIVE=C: HOMEPATH=\Users\Utilisateur
Attention : sous Git CMD cela ne fonctionne pas, il faut vraiment utiliser la console DOS du système :
> set home home=c:UsersUtilisateur HOMEDRIVE=C: HOMEPATH=\Users\Utilisateur
Mais surtout il faut utiliser CMD pour mettre à jour le contenu du dossier .ssh sans obtenir cette erreur, par exemple en installant OpenSSH for Windows :
>"C:\Program Files (x86)\OpenSSH\bin\ssh.exe" depot.example.com RSA key fingerprint is zzzz Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added 'depot.example.com' (RSA) to the list of known hosts.
Connection closed by authenticating user user 172.19.0.1 port 55920 [preauth]
[modifier | modifier le wikicode]Regarder les logs du client SSH. S'il n'en n'a pas, utiliser à la place :
ssh -vvv -i my_key.ppk user@172.19.0.1 -p 2223
Cela dira si le format de la clé est invalide ou autre.
Could not open a connection to your authentication agent
[modifier | modifier le wikicode]Lancer :
eval `ssh-agent -s`
et réitérer.
Enter passphrase for key
[modifier | modifier le wikicode]Il faut ajouter la clé privée depuis le serveur avec :
ssh-add ~/.ssh/id_rsa
Sinon, spécifier la clé privée depuis le client :
ssh -i .ssh/id_rsa <login>@<serveur>
Sinon, voir #Permission denied (publickey,hostbased).
error: Received disconnect from x.x.x.x port yyyyy:13: Unable to authenticate [preauth]
[modifier | modifier le wikicode]Se produit sur un serveur quand on essaie de se connecter automatiquement sans spécifier de clé privée.
Failed publickey for...
[modifier | modifier le wikicode]La clé envoyée par le client ne correspond pas à la clé publique indiquée dans /etc/ssh/sshd_config (ou elle n'est peut-être pas dans ~/.ssh/authorized_keys).
Load key "my_key.ppk": error in libcrypto
[modifier | modifier le wikicode]Regénérer les clés.
Permission denied (publickey,hostbased)
[modifier | modifier le wikicode]Il manque l'enregistrement de la clé publique (ssh -i).
Sinon, utiliser Putty.
Server refused our key
[modifier | modifier le wikicode]Vérifier les permissions, par exemple pour root :
ls -alh ~/.ssh total 24K drwxr--r-- 2 root root 4,0K mars 1 17:57 . drwxrwxr-x 25 root root 4,0K mars 6 12:41 .. -rw------- 1 root root 209 mars 1 17:57 authorized_keys -rw------- 1 root root 951 mars 1 17:57 id_rsa -rw-r--r-- 1 root root 397 mars 1 17:57 id_rsa.pub -rw-r--r-- 1 root root 869 mars 1 17:57 private.ppk
D'où :
chmod 700 ~/.ssh chmod 600 ~/.ssh/id_rsa
Cela peut aussi être lié à la non prise en charge par le serveur de l'en-tête et du pied de la clé publique. Dans ce cas, retirer les deux lignes :
---- BEGIN SSH2 PUBLIC KEY ---- ---- END SSH2 PUBLIC KEY ----
Si le problème persiste, la cause est détaillée dans :
tail /var/log/auth.log
Si aucun log n'apparait lorsque le client reçoit l'erreur, passer en LogLevel DEBUG
dans la configuration du serveur SSH :
vim /etc/ssh/sshd_config /etc/init.d/ssh restart
Cela permettra par exemple de savoir si l'erreur provient de authorized_keys.
WARNING: UNPROTECTED PRIVATE KEY FILE! / bad permissions / Permission denied (publickey)
[modifier | modifier le wikicode]Permissions 0644 for '/cygdrive/c/Users/Utilisateur/.ssh/id_rsa' are too open. It is recommended that your private key files are NOT accessible by others. This private key will be ignored.bad permissions: ignore key: /cygdrive/c/Users/Utilisateur/.ssh/id_rsa
Sous Linux il est facile d'appliquer les permissions sur la clé :
chmod 700 ~/.ssh chmod 600 ~/.ssh/id_rsa
NB : sous Windows par contre, la commande chmod
n'a aucun effet depuis Bash, même lancée en tant qu'administrateur. Et une modification des droits après suppression de l'ACL, via Cygwin ou l'explorateur Windows fonctionne chez eux, mais n'a guère plus d'effet pour SSH :
$ setfacl -b ~\.ssh $ setfacl -b ~\.ssh\id_rsa $ chgrp -R Utilisateurs ~\.ssh $ chmod -Rv 600 ~\.ssh\id_rsa mode of ‘C:\\Users\\Utilisateur\\.ssh\\id_rsa’ changed from 0644 (rw-r--r--) to 0600 (rw-------) $ ls -alh ~\.ssh\id_rsa -rw-r--r-- 1 Utilisateur 1049089 843 sept. 19 2011 C:\Users\Utilisateur\.ssh\id_rsa
we did not send a packet, disable method
[modifier | modifier le wikicode]Cette erreur du client SSH peut venir d'un authorized_keys mal rempli :
chown -Rf user:1000 /home/user/.ssh
su user
cd /home/user/.ssh
cat id_rsa.pub > authorized_keys
ssh -i id_rsa.ppk localhost
Références
[modifier | modifier le wikicode]
Le partage de fichiers Samba
Introduction
[modifier | modifier le wikicode]Samba est l'implémentation du protocole SMB (Server Message Block) sous Unix / Linux. Il sert à partager des fichiers et des imprimantes avec les réseaux Microsoft.
Site officiel : www.samba.org
Samba lance deux services : smbd et nmbd.
Le protocole SMB est tout sauf performant : il pollue le réseau par l'utilisation intensive du broadcast.
Samba utilise les ports 137 (netbios name service, nbname, en UDP), 138 (netbios datagram service nbdatagram, en UDP), 139 (netbios session service, nbsession, en TCP), et 445 ("direct-hosted" tcp, en tcp et udp).
La méthode de connexion traditionnelle smb utilise les ports 137, 138 et 139 tandis que la nouvelle méthode (CIFS, sur Windows XP) n'utilise que le port 445.
Installation
[modifier | modifier le wikicode]Pour installer Samba, on tape la commande suivante :
# apt-get install samba smbclient smbfs winbind
Configuration
[modifier | modifier le wikicode]Le fichier de configuration de Samba est /etc/samba/smb.conf.
Le programme testparm analyse le fichier smb.conf et signale les erreurs éventuelles.
Après avoir modifié la configuration, il faut relancer le service :
# /etc/init.d/samba restart
Le fichier /etc/samba/smb.conf se divise en différentes sections :
- La section [global] : configuration globale de samba
- La section [homes] : cette section particulière permet de remonter une ressource qui correspond au répertoire de travail (home directory) de l'utilisateur qui s'est authentifié.
On peut ensuite créer différentes sections, une par partage voulu.
Samba peut fonctionner de différentes manières. Voici quelques cas de figures courants.
Le partage par ressource sur un réseau Workgroup
[modifier | modifier le wikicode]Voici un fichier /etc/samba/smb.conf permettant de partager une ressource (répertoire ou imprimante) sur un réseau Workgroup :
# PARTAGE PAR RESSOURCES (share) # Il y a 2 cas possibles : # # CAS n°1 : on partage une ressource totalement anonyme # CAS n°2 : on partage une ressource avec un mot de passe associé à la ressource # Section GLOBAL # Configuration globale de Samba [global] # Nom du groupe de travail workgroup = WORKGROUP # Nom Netbios de la machine (identification réseau) netbios name = PC230 # Chaine de commentaire associé au serveur (voisinage réseau) server string = %h Serveur (Samba %v) # Utilisateurs interdits invalid users = root # Enregistre un fichier de log par machine cliente du réseau MS log file = /var/log/samba/log.%m # Taille maximale des logs : 1 Mo max log size = 1000 # On n'utilise pas Syslog pour enregistrer les logs syslog = 0 # On fait un partage par ressources security = share # On utilise les mots de passe encryptés # (attention, W95 et W98a fonctionnent avec les mdp en clair) encrypt passwords = true # Accélère les transferts réseaux socket options = TCP_NODELAY # Empeche nmbd de chercher à résoudre le nom netbios via le DNS dns proxy = no # Nom du compte invité qui va permettre de créer une # ressource partagée par mot de passe (celui du compte invite) guest account = invite # Emplacement du fichier contenant les logins et mdp samba smb passwd file = /etc/samba/smbpasswd # Pour récupérer les imprimantes définies dans CUPS printing = cups # Section HOMES # Cette section est inutile ici car on utilise le mode share # Section PRINTERS # Cette section permet de partager les imprimantes définies sur le serveur [printers] # Le commentaire associé à l'imprimante comment = Les imprimantes # Affiche les imprimantes dans la liste des partages du serveur browseable = yes # Dans le cas d'une imprimante, c'est l'emplacement # des fichiers temporaires path = /tmp # Spécifie qu'il s'agit d'une imprimante et non un répertoire printable = yes # Partage l'imprimante de manière anonyme public = yes # Logique writable = no # Empeche d'autres utilisateurs de supprimer mes impressions create mode = 0700 # Sections REPERTOIRES PARTAGES # CAS n°1: un CDROM partagé anonymement [cdrom] # Le commentaire associé au CDROM comment = Le CDROM # Point de montage du CDROM # synonyme de directory = path = /cdrom # Empeche le bloquage d'un fichier par un utilisateur locking = no # Logique writable = no # Partage le CDROM de manière anonyme public = yes # CAS n°2 : un répertoire partagé mais protégé par mot de passe [partage] # Le commentaire associé au répertoire comment = Un répertoire partagé mais protégé par mot de passe # Emplacement du répertoire partagé path = /home/partage # Support en lecture / écriture # synonyme de read only = no writable = yes # Partage anonyme désactivé (cas par défaut) # synonyme de guest ok = no public = no # Voir explication ci-dessous valid users = invite # Masque de création des fichiers et répertoires create mask = 0644 directory mask = 0755
Dans le cas du mode share, pour pouvoir positionner un mot de passe sur une ressource, il faut créer un compte UNIX 'invite' :
# adduser --shell /bin/false --disabled-login invite
On crée ensuite une entrée dans le fichier /etc/samba/smbpasswd :
# smbpasswd -a invite
Le mot de passe saisi correspondra à celui du répertoire partagé.
NB : dans les versions récentes de Samba, il faut utiliser la commande pdbedit à la place de smbpasswd :
# pdbedit -a invite
Il faut ensuite créer le répertoire partagé et donner l'arborescence partagée à l'utilisateur invite du groupe invite :
# mkdir /home/partage # chown nobody.invite /home/partage
NB : il faut que l'utilisateur nobody ait le droit d'écriture sur le répertoire partagé.
Petit rappel : il est toujours utile de faire un testparm pour vérifier la cohérence du fichier de configuration, et ne pas oublier de relancer le service pour que les modifications soient prises en compte.
On peut tester la configuration avec la commande smbclient :
# smbclient -L PC230 Password: Domain=[WORKGROUP] OS=[Unix] Server=[Samba 3.0.24] Sharename Type Comment --------- ---- ------- cdrom Disk Le CDROM partage Disk Un répertoire partagé mais protégé par mot de passe IPC$ IPC IPC Service (pc230 Serveur (Samba 3.0.24)) HP_LaserJet_1200_LPT_parport0_HPLIP Printer HP LaserJet 1200 Domain=[WORKGROUP] OS=[Unix] Server=[Samba 3.0.24] Server Comment --------- ------- PC230 pc230 Serveur (Samba 3.0.24)
Workgroup Master --------- ------- ... ...
La commande smbclient demande un mot de passe, on tape entrée.
Le partage par utilisateur sur un réseau Workgroup
[modifier | modifier le wikicode]Voici un fichier /etc/samba/smb.conf permettant de partager une ressource (répertoire ou imprimante) avec une authentification Utilisateur / Mot de passe sur un réseau Workgroup :
# PARTAGE PAR UTILISATEUR (user) - Groupe de travail # Il y a 2 cas possibles : # # CAS n°1 : on partage une ressource totalement anonyme # CAS n°2 : cas normal du mode user, on fait une authentification # par login et mot de passe # Section GLOBAL # Configuration globale de Samba [global] # Nom du groupe de travail workgroup = WORKGROUP # Nom Netbios de la machine (identification réseau) netbios name = PC230 # Chaîne de commentaire associé au serveur (voisinage réseau) server string = %h Serveur (Samba %v) # Utilisateurs interdits invalid users = root # Enregistre un fichier de log par machine cliente du réseau MS log file = /var/log/samba/log.%m # Taille maximale des logs : 1 Mo max log size = 1000 # On n'utilise pas Syslog pour enregistrer les logs syslog = 0 # On fait un partage par utilisateur security = user # On utilise les mots de passe encryptés # (attention, W95 et W98a fonctionnent avec les mdp en clair) encrypt passwords = true # Accélère les transferts réseaux socket options = TCP_NODELAY # Empêche nmbd de chercher à résoudre le nom netbios via le DNS dns proxy = no # Nom du compte invité qui va permettre de créer une # ressource partagée par mot de passe (celui du compte invite) # POUR LE CAS n°1 guest account = invite # Emplacement du fichier contenant les logins et mdp samba # concerne le CAS n°1 et n°2 smb passwd file = /etc/samba/smbpasswd # Section HOMES # Cette section particulière permet de remonter une ressource # qui correspond au répertoire de travail (home directory) # de l'utilisateur qui s'est authentifié [homes] # Correspond au home directory de l'utilisateur authentifié # %U sera remplacé par le nom d'utilisateur (login) comment = Le répertoire personnel de %U # Si on active cette option, on dispose d'une ressource 'homes' # redondante avec la ressource 'login' browseable = no # Il faut que l'utilisateur soit authentifié pour accéder # à la ressource (son home directory sur le serveur) public = no # Autorise l'écriture dans le répertoire personnel writable = yes # Droits d'accès des fichiers et répertoires créés create mask = 0644 directory mask = 0755 # Section PRINTERS # Cette section permet de partager les imprimantes définies sur le serveur [printers] # Le commentaire associé à l'imprimante comment = Les imprimantes # Affiche les imprimantes dans la liste des partages du serveur browseable = yes # Dans le cas d'une imprimante, c'est l'emplacement # des fichiers temporaires path = /tmp # Spécifie qu'il s'agit d'une imprimante et non un répertoire printable = yes # Partage l'imprimante de manière anonyme public = yes # Logique writable = no # Empêche d'autres utilisateurs de supprimer mes impressions create mode = 0700 # Sections REPERTOIRES PARTAGES # CAS n° 1 : une ressource anonyme sans mot de passe # Un CDROM [cdrom] # Le commentaire associé au CDROM comment = Le CDROM # Point de montage du CDROM # synonyme de directory = path = /cdrom # Empêche le bloquage d'un fichier par un utilisateur locking = no # Logique writable = no # Partage le CDROM de manière anonyme public = yes # CAS n°2 : un répertoire partagé qu'à certains utilisateurs [prive] # Le commentaire associé au répertoire comment = Un répertoire partagé qu'a certains utilisateurs (CAS n°2) # Emplacement du répertoire partagé path = /home/prive # Support en lecture / écriture # synonyme de read only = no writable = yes # Partage anonyme désactivé (cas par défaut) # synonyme de guest ok = no public = no # Voir explication ci-dessous # le @prive désigne le groupe Unix 'prive' valid users = @prive # Masque de création des fichiers et répertoires create mask = 0644 directory mask = 0755
Dans le cas du mode user, pour ne partager une ressource partagée qu'à certains utilisateurs, il faut tout d'abord créer un compte UNIX pour chacun d'eux :
# adduser --shell /bin/false --disabled-login paul # adduser --shell /bin/false --disabled-login pierre
On crée ensuite une entrée dans le fichier /etc/samba/smbpasswd :
# smbpasswd -a paul # smbpasswd -a pierre
NB : dans les versions récentes de Samba, il faut utiliser la commande pdbedit à la place de smbpasswd :
# pdbedit -a paul # pdbedit -a pierre
Coté Linux, les utilisateurs doivent avoir le droit d'écriture sur le répertoire partagé. La meilleure méthode consiste à créer un groupe Unix contenant les utilisateurs autorisés, et d'attribuer le répertoire partagé au groupe en question :
# addgroup prive # adduser paul prive # adduser pierre prive # mkdir /home/prive # chgrp prive /home/prive # chmod 770 /home/prive
Avantage : pour partager cette ressource à de nouveaux utilisateurs, il suffit de leur créer le compte Unix, une entrée dans smbpasswd et de les ajouter au groupe prive (il n'est plus nécessaire de modifier le fichier smb.conf).
# chmod g+s /home/prive
Permet de définir le propriétaire des fichiers créés avec l'option +s. Ici les propriétaires seront les membres du groupe prive au lieu de l'utilisateur.
Connexion à un Active Directory Windows 2012
[modifier | modifier le wikicode]Serveur AD : SERV2012 (192.168.10.254)
Domaine : DOMWIN.LAN
Configuration de /etc/resolv.conf
[modifier | modifier le wikicode]Il faut indiquer dans le fichier /etc/resolv.conf d'utiliser le serveur AD en tant que serveur DNS :
# cat /etc/resolv.conf nameserver 192.168.10.254
Configuration de Kerberos
[modifier | modifier le wikicode]On installe Kerberos pour l'authentification sur AD :
# apt-get install krb5-{admin-server,user}
On configure Kerberos avec notre domaine AD (DOMWIN.LAN) :
# cat /etc/krb5.conf [logging] Default = FILE:/var/log/krb5.log [libdefaults] ticket_lifetime = 24000 clock-skew = 300 default_realm = domwin.lan # dns_lookup_realm = false # dns_lookup_kdc = true [realms] domwin.lan = { kdc = 192.168.10.254:88 admin_server = 192.168.10.254:464 default_domain = domwin.lan } [domain_realm] .domwin.lan = domwin.lan domwin.lan = domwin.lan
Configuration de Samba
[modifier | modifier le wikicode]... [global] workgroup = DOMWIN netbios name = ALEX wins support = no security = ads realm = DOMWIN.LAN ...
Connexion au domaine AD
[modifier | modifier le wikicode]On obtient un ticket Kerberos :
# kinit Administrateur@DOMWIN.LAN # klist
On récupére le SID du serveur AD (nom netbios de AD : SERV2012) :
# net rpc getsid -S SERV2012
On rejoint le domaine AD :
# net ads join -U Administrateur -S SERV2012
On vérifie en interrogeant les partages du serveur AD. Pour cela, on utilise un compte définit sur AD :
# smbclient -L SERV2012 -U etudiant
On essaye d'accéder à un partage définit sur AD :
# smbclient '\\SERV2012\partage' -U etudiant
Fichiers /etc/krb5.conf et /etc/samba/smb.conf : Voir pastebin.com/EDxh7yqH
Le partage sur un domaine Microsoft
[modifier | modifier le wikicode]Voici un fichier /etc/samba/smb.conf permettant de rejoindre un domaine existant afin de partager des ressources :
# PARTAGE PAR UTILISATEUR (server) - Domaine avec authentification # déléguée à un controleur de domaine (PDC : Primary Domain Controller) # Il y a 2 cas possibles : # # CAS n°1 : on partage une ressource totalement anonyme # CAS n°2 : cas normal du mode user, on fait une authentification # par login et mot de passe # Section GLOBAL # Configuration globale de Samba [global] # Nom du groupe de travail workgroup = DOMAINE # Nom Netbios de la machine (identification réseau) netbios name = PC230 # Chaine de commentaire associé au serveur (voisinage réseau) server string = %h Serveur (Samba %v) # Utilisateurs interdits invalid users = root # Enregistre un fichier de log par machine cliente du réseau MS log file = /var/log/samba/log.%m # Taille maximale des logs : 1 Mo max log size = 1000 # On n'utilise pas Syslog pour enregistrer les logs syslog = 0 # On fait un partage par utilisateur, l'authentification est # déléguée au controleur de domaine (PDC) security = server password server = PDC # On utilise les mots de passe encryptés # (attention, W95 et W98a fonctionnent avec les mdp en clair) encrypt passwords = true # Accélère les transferts réseaux socket options = TCP_NODELAY # Empeche nmbd de chercher à résoudre le nom netbios via le DNS dns proxy = no # Nom du compte invité qui va permettre de créer une # ressource partagée par mot de passe (celui du compte invite) # POUR LE CAS n°1 guest account = invite # Emplacement du fichier contenant les logins et mdp samba # concerne le CAS n°1 et n°2 smb passwd file = /etc/samba/smbpasswd # Section HOMES # Cette section particulière permet de remonter une ressource # qui correspond au répertoire de travail (home directory) # de l'utilisateur qui s'est authentifié [homes] # Correspond au home directory de l'utilisateur authentifié # %U sera remplacé par le nom d'utilisateur (login) comment = Le répertoire personnel de %U # Si on active cette option, on dispose d'une ressource 'homes' # redondante avec la ressource 'login' browseable = no # Il faut que l'utilisateur soit authentifié pour accéder # à la ressource (son home directory sur le serveur) public = no # Autorise l'écriture dans le répertoire personnel writable = yes # Droits d'accés des fichiers et répertoires créés create mask = 0644 directory mask = 0755 # Section PRINTERS # Cette section permet de partager les imprimantes définies sur le serveur [printers] # Le commentaire associé à l'imprimante comment = Les imprimantes # Affiche les imprimantes dans la liste des partages du serveur browseable = yes # Dans le cas d'une imprimante, c'est l'emplacement # des fichiers temporaires path = /tmp # Spécifie qu'il s'agit d'une imprimante et non un répertoire printable = yes # Partage l'imprimante de manière anonyme public = yes # Logique writable = no # Empeche d'autres utilisateurs de supprimer mes impressions create mode = 0700 # Sections REPERTOIRES PARTAGES # CAS n° 1 : une ressource anonyme sans mot de passe # Un CDROM [cdrom] # Le commentaire associé au CDROM comment = Le CDROM # Point de montage du CDROM # synonyme de directory = path = /cdrom # Empeche le bloquage d'un fichier par un utilisateur locking = no # Logique writable = no # Partage le CDROM de manière anonyme public = yes # CAS n°2 : un répertoire partagé qu'à certains utilisateurs [prive] # Le commentaire associé au répertoire comment = Un répertoire partagé qu'à certains utilisateurs (CAS n°2) # Emplacement du répertoire partagé path = /home/prive # Support en lecture / écriture # synonyme de read only = no writable = yes # Partage anonyme désactivé (cas par défaut) # synonyme de guest ok = no public = no # Voir explication ci-dessous # le @prive désigne le groupe Unix 'prive' valid users = @prive # Masque de création des fichiers et répertoires create mask = 0644 directory mask = 0755
Remarque : Pour que le serveur Linux puisse rejoindre le domaine existant, il faut se connecter au moins une fois avec le compte Administrateur défini sur le contrôleur de domaine, afin que ce dernier crée un compte machine :
# net join -U Administrateur Administrateur's password: [2008/02/12 11:58:41, 0] utils/net_ads.c:ads_startup(289) ads_connect: Chaîne multi-octets ou étendue de caractères invalide ou incomplète ADS join did not work, falling back to RPC... Joined domain DOMAINE.
Dans le cas du mode server, les utilisateurs (login et mot de passe) sont définis sur un serveur existant.
Coté Linux, les utilisateurs doivent avoir le droit d'écriture sur le répertoire partagé. Cependant, les utilisateurs ne sont pas définis sur le serveur Linux mais sur le contrôleur de domaine. La solution consiste à permettre à tout le monde d'écrire dans ce répertoire, Samba se chargeant de n'autoriser que les utilisateurs autorisés sur le contrôleur de domaine.
# mkdir /home/prive # chmod 777 /home/prive
Samba en contrôleur de domaine Microsoft
[modifier | modifier le wikicode]Voici un fichier /etc/samba/smb.conf permettant de faire un contrôleur de domaine Microsoft :
# Controleur de domaine PDC (Primary Domain Controller) # Section GLOBAL # Configuration globale de Samba [global] # Nom du groupe de travail workgroup = DOMAINE # Nom Netbios de la machine (identification réseau) netbios name = PC230 # Chaine de commentaire associé au serveur (voisinage réseau) server string = %h Serveur (Samba %v) # Utilisateurs interdits invalid users = root # Enregistre un fichier de log par machine cliente du réseau MS log file = /var/log/samba/log.%m # Taille maximale des logs : 1 Mo max log size = 1000 # On n'utilise pas Syslog pour enregistrer les logs syslog = 0 # On est PDC, on fait l'authentification par utilisateur security = user # On utilise les mots de passe encryptés # (attention, W95 et W98a fonctionnent avec les mdp en clair) encrypt passwords = true # Accélère les transferts réseaux socket options = TCP_NODELAY # Empeche nmbd de chercher à résoudre le nom netbios via le DNS dns proxy = no # Nom du compte invité qui va permettre de créer une # ressource partagée par mot de passe (celui du compte invite) guest account = invite # Emplacement du fichier contenant les logins et mdp samba smb passwd file = /etc/samba/smbpasswd # Permet de devenir le master browser du réseau # Le master browser est responsable de l'état du réseau # C'est en général le PDC qui effectue cette tache local master = yes # Permet de devenir le DOMAIN master browser du réseau domain master = yes # Cette option permet de déclencher une election sur le réseau # afin de déterminer qui sera le master browser # Le fait de déclencher cette election me donne le plus de chance # devenir ce master browser preferred master = yes # Si ce chiffre est le plus grand du réseau, je deviens le PDC os level = 255 # Permet aux utilisateurs de changer leur mot de passe sur ce serveur # depuis leur poste update encrypted = yes # Définit que le daemon nmbd doit agir en tant que serveur WINS wins support = yes # Winbind permet de placer des machines dans un domaine controlé # par un PDC et d'autoriser les utilisateurs a accéder # à ces machines en utilisant les informations du PDC winbind separator = + winbind enum users = no winbind enum groups = no winbind uid = 10000-20000 winbind gid = 10000-20000 # désactive le support des ACL (Access Control List) # fonctionnalité utilisée par Active Directory nt acl support = no # Logins autorisés à se connecter aux ressources administratives # comme C$, ADMIN$ et IPC$ admin users = admin # PRIMORDIAL !, sinon ca marche pas : # il faut que la ressource [netlogon] existe, meme si on n'utilise # pas un script logon domain logons = yes # Nom du fichier netlogon logon script = logon.bat # Pour autoriser les utilisateurs a changer leurs mots de passe passwd program = /usr/bin/passwd %u passwd chat = *Enter\snew\sUnix\spassword:* %n\n *Retype\snew\sUnix\spassword:* %n\n # Section NETLOGON # Permet de faire exécuter un script d'initialisation réseau par le poste # client du domaine. Ceci permet par exemple connecter un lecteur réseau (Z:) ou de synchroniser l'heure [netlogon] # Il n'apparaitra pas dans la liste des ressources partagées browsable = no # Répertoire contenant le netlogon path = /etc/samba/netlogon # Le netlogon n'a pas besoin d'etre public public = no # Pour la sécurité, cette ressource est exportée en read only writable = no # Permet à plusieurs utilisateurs d'utiliser le meme fichier # en meme temps locking = no ### Ce serveur effectuant la mission cruciale de PDC, il n'est pas ### recommandé de partager des ressources, bien que cela soit possible [homes] path = %H browsable = no writable = yes public = no [partage] path = /home/partage public = yes browsable = yes [profiles] comment = Partage pour stocker les profils itinérants path = /home/samba/profiles writable = yes browseable = no create mode = 0644 directory mode = 0755
On crée ensuite le compte de l'utilisateur admin. il faudra utiliser ce compte lors de la première connexion d'un ordinateur au domaine.
# adduser --shell /bin/false --disabled-login admin # smbpasswd -a admin
NB: Sur une Ubuntu, le groupe admin existe déjà, donc, soit on rajoute l'option --ingroup users, soit on utilise un compte différent pour l'administration (ex: Administrateur).
NB2 : dans les versions récentes de Samba, il faut utiliser la commande pdbedit à la place de smbpasswd :
# pdbedit -a admin
Pour chaque membre du domaine, il faut créer un compte unix correspondant à la machine et rajouter une entrée de type machine dans smbpasswd.
Attention : ce login doit porter le nom netbios de la machine et se terminer par un dollar (d'ou le --force-badname) :
# adduser --shell /bin/false --disabled-login --force-badname nompc$ # smbpasswd -a -m nompc$ # ou pdbedit -a -m nompc$
NB : On peut automatiser la création des comptes machines en rajoutant la ligne suivante dans la section [global] de smb.conf :
Sous Debian :
add machine script = /usr/sbin/adduser --shell /bin/false --disabled-login --force-badname %u
Sous Redhat :
add machine script = /usr/sbin/useradd -d /var/lib/nobody -g 100 -s /bin/false -M %u
Il faut aussi créer le répertoire pouvant accueillir le netlogon :
# mkdir /etc/samba/netlogon
On crée également le répertoire stockant les profils itinérants :
# mkdir -p /home/samba/profiles # chmod 777 /home/samba/profiles
Le netlogon peut servir par exemple à créer automatiquement un volume réseau (ex: Z:), ou ajuster l'heure de l'ordinateur avec celle du contrôleur de domaine.
On peut optionnellement créer un fichier logon.bat :
# echo '@echo off' > /etc/samba/netlogon/logon.bat # echo 'echo Bienvenue sur le domaine' >> /etc/samba/netlogon/logon.bat # echo 'net use T: \\PC230\partage' >> /etc/samba/netlogon/logon.bat # echo 'net time \\PC230 /set /yes' >> /etc/samba/netlogon/logon.bat # echo 'pause' >> /etc/samba/netlogon/logon.bat
Il faut ensuite relancer samba et winbind :
# /etc/init.d/samba restart # /etc/init.d/winbind restart
Utilisation de smbclient
[modifier | modifier le wikicode]smbclient est un client pour les réseaux samba.
Exemple :
>smbclient -L PC230 Password: Domain=[WORKGROUP] OS=[Unix] Server=[Samba 3.0.24] Sharename Type Comment --------- ---- ------- cdrom Disk Le CDROM partage Disk Un répertoire partagé mais protégé par mot de passe IPC$ IPC IPC Service (pc230 Serveur (Samba 3.0.24)) HP_LaserJet_1200_LPT_parport0_HPLIP Printer HP LaserJet 1200 Domain=[WORKGROUP] OS=[Unix] Server=[Samba 3.0.24] Server Comment --------- ------- BLACKPEARL CHRIS-B48CAF99F D DEBIANTOINE Debiantoine server PC230 pc230 Serveur (Samba 3.0.24) PCPROF-LDKBQYFP Workgroup Master --------- ------- ATELIER BOOWISS-MOBIL CIS KALMIYA HOUCINE ORDI-PARIS02 KOOKYOO.LAN KOOKYNUX LECHAT CREUFOP12 NONOLEROBOT SERVERPARIS01 PC237'S DOMAIN PC237 WORKGROUP DEBIANTOINE
Monter un répertoire réseau
[modifier | modifier le wikicode]Manuellement :
# mount -t smbfs -o username=invite,password=invite //PC230/partage /mnt # ... # umount /mnt
Automatique à chaque démarrage :
Rajouter dans /etc/fstab :
# <file system> <mount point> <type> <options> <dump> <pass> ... //PC230/partage /mnt smbfs username=invite,passwd=invite 0 0
Utilisation de SWAT : Samba Web Administration Tools
[modifier | modifier le wikicode]SWAT est une page web permettant de configurer samba de façon plus "simple", mais comme souvent avec les interfaces graphiques, de manière moins pointue.
Pour les amateurs du clickodrôme:
# apt-get install swat
<Image de SWAT>
Une fois installé, on accède à SWAT avec un navigateur sur l'adresse localhost:901 Swat va lire le fichier smb.conf et le présenter dans une page html. Les onglets permettent de configurer les partages, les imprimantes, de voir les docs etc. Par défaut, l'accès distant à SWAT est interdit, mais il est activable. Toutefois, il est déconseillé d'utiliser cette option.
Le partage de fichiers NFS
Le protocole NFS (Network File System) permet de partager des fichiers dans les réseaux Unix.
Installation du serveur NFS
[modifier | modifier le wikicode]Pour installer le serveur NFS sous Debian, il suffit de taper la commande suivante :
# apt-get install nfs-kernel-server
Configuration du serveur NFS
[modifier | modifier le wikicode]La configuration du serveur NFS est stockée dans le fichier /etc/exports.
Ce fichier de configuration dispose d'une page de manuel :
# man exports
Voici quelques exemples extrait du manpage :
$ cat /etc/exports # fichier exemple /etc/exports / master(rw) trusty(rw,no_root_squash) /projects proj*.local.domain(rw) /usr *.local.domain(ro) @trusted(rw) /home/joe pc001(rw,all_squash,anonuid=150,anongid=100) /pub (ro,insecure,all_squash)
- La première ligne exporte l’ensemble du système de fichiers vers les machines « master » et « trusty ». En plus des droits d’écriture, toute transformation d’UID est désactivée pour l’hôte « trusty ».
- Les deuxième et troisième lignes montrent des exemples de noms de machines avec caractères jokers, et de groupes de machines (« @trusted »).
- La quatrième ligne montre comment mapper tous les utilisateurs vers UID et GID particulier.
- La dernière ligne partage un répertoire /pub, à toutes les machines dans le monde, en effectuant les requêtes sous le compte anonyme. L’option insecure permet l’accès aux clients dont l’implémentation NFS n’utilise pas un port réservé.
À chaque modification du fichier /etc/exports, il faut relancer le serveur NFS pour que les modifications soient prises en compte :
# /etc/init.d/nfs-kernel-server restart
On peut également utiliser la commande exportfs :
# exportfs -ra
Options d'exportation
[modifier | modifier le wikicode]Voici les options d'exportation les plus courantes :
- secure : cette option impose l’utilisation d’un port réservé (inférieur à 1024) comme origine de la requête.
- rw : exporte le répertoire en lecture / écriture
- ro : exporte le répertoire en lecture seule
- async : le serveur NFS va pouvoir répondre que le fichier a été écrit sur le support de stockage, même si cela n'a pas encore été fait. Améliore les performances du serveur.
- sync : le serveur NFS va écrire physiquement les fichiers sur le support de stockage avant de répondre. Réduit les performances du serveur.
Options liées aux correspondances de UID et de GID (UID et GID mapping)
[modifier | modifier le wikicode]Le principal problème avec NFS est la correspondance des UID et des GID. Effectivement, l'utilisateur alex peut avoir le UID 1000 sur le client et un UID différent sur le serveur. NFS travaille avec les UID et GID numérique, il va donc par défaut enregistrer sur le serveur que le fichier appartient à l'utilisateur 1000, et non à l'utilisateur alex.
Pour pallier ces problèmes, NFS fournit des mécanismes pour transformer les UID et les GID.
Le problème se pose également avec le super-utilisateur root qui dispose du UID 0. Pour des raisons de sécurité, NFS va transformer par défaut les fichiers posés par le root vers le UID et le GID du compte anonyme (nobody.nogroup).
- root_squash : option par défaut. transforme les requètes provenant de l'UID 0 / GID 0 vers le UID et GID du compte anonyme.
- no_root_squash : ne transforme pas les requètes provenant de l'UID 0 / GID 0. À utiliser avec précaution.
- all_squash : transforme tous les UID/GID vers le UID/GID de l’utilisateur anonyme.
- anonuid : permet de spécifier le UID de l'utilisateur anonyme.
- anongid : permet de spécifier le GID de l'utilisateur anonyme.
Voir les répertoires exportés
[modifier | modifier le wikicode]# showmount 192.168.30.10:/home 192.168.30.12:/home ...
Utilisation de NFS depuis un poste client
[modifier | modifier le wikicode]La commande mount permet à un poste client d'accéder à un répertoire partagé par un serveur NFS.
Synopsis :
# mount -t nfs <nom ou adresse IP du serveur NFS>:<répertoire partagé> <point de montage>
Exemple :
# mount -t nfs pc230:/home/partage /mnt
Si on veut que ce répertoire soit accessible à chaque boot, il suffit de rajouter la ligne suivante dans le fichier /etc/fstab :
$ cat /etc/fstab ... pc230:/home/partage /mnt nfs defaults 0 0 ...
Authentification centralisée avec NIS
[modifier | modifier le wikicode]Pour résoudre le problème des UID / GID non identiques, la solution consiste à déployer NIS.
Pour installer NIS sous Debian, utiliser la commande suivante :
# apt-get install nis
Lors de l'installation il faut indiquer le domaine NIS, ce dernier peut être différent du domaine internet.
Pour le déploiement du serveur et des clients NIS, on va suivre la procédure Debian décrite dans le fichier /usr/share/doc/nis/nis.debian.howto.gz :
# zmore /usr/share/doc/nis/nis.debian.howto.gz
Configuration du serveur NIS
[modifier | modifier le wikicode]Il faut tout d'abord vérifier que le fichier /etc/hosts contient l'adresse IP et le nom FQDN du serveur :
# cat /etc/hosts ... 192.168.30.230 pc230.mondomaine.fr pc230
Il faut ensuite vérifier que le fichier /etc/defaultdomain contienne le domaine NIS :
# cat /etc/defaultdomain DOMAINENIS
Dans le fichier /etc/ypserv.securenets, on restreint l'utilisation du domaine NIS au domaine du réseau local. On remplace la ligne 0.0.0.0 0.0.0.0 par : 255.255.255.0 192.168.30.0.
# vi /etc/ypserv.securenets ... 255.255.255.0 192.168.30.0
On modifie ensuite /etc/default/nis pour indiquer qu'il s'agit du serveur NIS :
# vi /etc/default/nis ... NISSERVER=master ...
On relance le serveur NIS :
# /etc/init.d/nis restart
Cette étape peut prendre un certain temps ...
On lance ensuite la création des bases de données NIS avec la commande suivante :
# /usr/lib/yp/ypinit -m
Ceci va créer les fichiers partagés dans le répertoire /var/yp/DOMAINENIS.
Configuration du client NIS
[modifier | modifier le wikicode]On installe nis (c'est le même paquet qui fait office de client et de serveur) :
# apt-get install nis
On vérifie que le fichier /etc/defaultdomain contienne le domaine NIS :
# cat /etc/defaultdomain DOMAINENIS
Dans le fichier /etc/yp.conf, on indique l'adresse IP du serveur NIS :
# vi /etc/yp.conf ... ypserver 192.168.30.230
On démarre le client NIS :
# /etc/init.d/nis restart
On vérifie que le fichier /etc/nsswitch.conf contient bien les lignes suivantes :
# cat /etc/nsswitch.conf ... passwd: files nis group: files nis shadow: files nis ... netgroup: nis
L'option files indique au système d'aller voir les fichiers classiques /etc/passwd, /etc/group et /etc/shadow.
L'option nis indique au système d'aller ensuite interroger le serveur NIS.
À la fin du fichier /etc/passwd, on rajoute la ligne suivante :
# echo "+::::::" >> /etc/passwd
À la fin du fichier /etc/shadow, on rajoute la ligne suivante :
# echo "+::::::::" >> /etc/shadow
À la fin du fichier /etc/group, on rajoute la ligne suivante :
# echo "+:::" >> /etc/group
Pour tester, on lance la commande suivante :
# ypcat passwd.byname
On doit voir afficher le fichier /etc/passwd partagé.
Sur le serveur NIS, on rajoute un utilisateur :
# adduser jack ...
Si tout fonctionne, on doit pouvoir se logger sur le client NIS avec l'utilisateur jack.
Le serveur d'impression CUPS
Introduction
[modifier | modifier le wikicode]CUPS (Common Unix Printing System) est un serveur d'impression. CUPS permet ainsi d'imprimer sur une imprimante accessible sur le réseau ou locale (généralement connectée avec un câble USB). La communication avec les imprimantes utilise le protocole IPP (Internet Printing Protocol).
CUPS est très simple à configurer. De ce fait, il est de plus en plus souvent utilisé en remplacement de LPR (premier serveur sous UNIX).
Site Internet : www.cups.org
Le site linuxprinting.org liste les imprimantes compatibles avec CUPS.
Généralement, un système linux moderne est désormais livré avec les utilitaires nécessaire pour détecter, configurer et utiliser des imprimantes.
Installation (Debian)
[modifier | modifier le wikicode]L'installation initiale de CUPS sous Debian peut se faire avec la commande suivante :
$ sudo apt install cups cups-pdf cups-bsd foomatic-db-compressed-ppds openprinting-ppds
Le paquet cups-pdf
fournit une imprimante virtuelle qui permet de générer des fichiers PDF.
Le paquet cups-bsd
fournit les commandes traditionnelles lpr
, lpq
et lprm
.
Les paquets foomatic-db-compressed-ppds
et openprinting-ppds
contiennent des descriptions PPD (PostScript Printer Description) pour un très grand nombre d'imprimantes.
D'autres paquets de PPD sont également disponibles comme hp-ppd
ou hpijs-ppds
.
Mais aussi le meta-paquet printer-driver-all-enforce
qui englobe une vingtaine de paquets de différents drivers CUPS.
Configuration côté serveur
[modifier | modifier le wikicode]CUPS se configure via une interface web accessible par l'adresse http://localhost:631/ .
- On Clique sur Add Printer pour ajouter une imprimante
- On spécifie son nom, sa localisation physique et sa description. Exemple : HP1200, Salle D11, L'imprimante laser de la salle D11
- On choisit ensuite le périphérique correspondant au mode de connexion de l'imprimante avec le PC (ex: port parallèle, USB, ipp, http...etc)
- Si l'imprimante est partagée par un autre serveur CUPS, il faut spécifier l'adresse IPP de l'imprimante, comme par exemple : ipp://192.168.30.210/printers/hp1200
- On choisit ensuite le constructeur de l'imprimante. Dans le cas où votre constructeur n'est pas dans la liste, il faut télécharger sur Internet le fichier PPD (Printer Postscript Description) correspondant et utiliser le bouton Parcourir pour uploader le fichier
- On choisit ensuite le driver correspondant au modèle de l'imprimante. Certains drivers sont les mêmes pour des imprimantes différentes. Si on ne trouve pas son imprimante, il faut aller sur www.linuxprinting.org pour connaitre la compatibilité de l'imprimante avec un autre driver
- Pour valider les modifications, on s'authentifie avec le compte root pour que le logiciel puisse écrire le fichier de configuration de CUPS
Fichier de configuration
[modifier | modifier le wikicode]Le fichier principal de configuration de CUPS est /etc/cups/cupsd.conf. Il faut le modifier pour indiquer à quel réseau on partage les imprimantes.
Tout d'abord, on indique à CUPS d'écouter sur toutes les interfaces réseaux. On remplace Listen localhost:631 par :
Listen *:631
Dans la balise <Location />, il faut rajouter "Allow" suivi de l'adresse du réseau sur lequel se trouve l'imprimante afin de permettre à mon réseau d'accéder à celle-ci.
# Restrict access to the server... <Location /> Order allow,deny Allow localhost Allow 192.168.30.0/24 </Location>
Lorsque ce fichier est modifié, il faut relancer le service :
# /etc/init.d/cupsys restart
Configuration côté client / utilisateur
[modifier | modifier le wikicode]Interface(s) graphiques
[modifier | modifier le wikicode]Des outils d'interface graphique permettant d'accéder au système CUPS existent :
- gtklp (Gtk/Gnome)
- system-config-printer-gnome (Gtk/Gnome)
Interface web
[modifier | modifier le wikicode]Comme pour la configuration côté serveur, on configure CUPS côté client via l'interface WEB.
Dans la procédure décrite ci dessus, au lieu de spécifier un périphérique local (port parallèle, USB ou autre), on spécifie l'adresse IPP de l'imprimante.
Exemple:
ipp://192.168.30.210/printers/HP1200
ou (sous Windows) :
http://192.168.30.210:631/printers/HP1200
Impression
[modifier | modifier le wikicode]Les imprimantes sont normalement utilisables via les applications qui ont besoin d'imprimer (menu «Imprimer» !) : suite bureautique, navigateur internet...
Néanmoins, il est possible de les utiliser sans passer par une application, et même de contrôler directement l'état des imprimantes, en utilisant des commandes spécifiques du système.
Les commandes d'impression
[modifier | modifier le wikicode]Ces commandes sont fournies par le paquet cupsys-bsd installé précédement.
- La commande lpr
- permet d'imprimer un fichier :
$ lpr nom_fichier
Pour imprimer sur une imprimante en particulier :
$ lpr -P nom_imprimante nom_fichier
Pour spécifier le nombre de copies (ici 2 copies) :
$ lpr -#2 nom_fichier
- La commande lpq
- permet d'afficher la file d'impression (queue) et connaître les numéros de "job" :
$ lpq HP1200 is ready and printing Rank Owner Job File(s) Total Size active alex 12 fstab 1024 bytes 1st root 13 fstab 1024 bytes
- L'imprimante HP1200 est opérationnelle et en cours d'impression. C'est l'impression de l'utilisateur alex qui est en cours.
- L'impression de l'utilisateur root est en première position de la file d'attente.
Pour voir la file d'attente d'une imprimante en particulier :
$ lpq -P nom_imprimante
- La commande lprm
- (lp remove) permet de supprimer une impression de la file d'attente à l'aide de son numéro de "job" :
$ lprm num_job
Pour supprimer toute la file d'attente (cette action n'est permise que pour le compte root) :
# lprm -a
- La commande lpstat
- (lp statistiques) permet d'obtenir diverses statistiques
- La liste des imprimantes installées et l'imprimante par défaut
$ lpstat -s
- etc...
Supervision
[modifier | modifier le wikicode]La supervision s'intéresse au suivi du bon fonctionnement et à la détection (et correction!) des problèmes.
Logs
[modifier | modifier le wikicode]Le premier outil de supervision est l'examen des fichiers «journaux» (logs) de fonctionnement du système CUPS. Ces fichiers sont localisés dans le répertoire
/var/log/cups
On y trouve trois type d'enregistrements
- access.log : enregistrement des accès d'impressions
- error.log : enregistrement des erreurs
- page.log : enregistrement des pages pour statistiques
Pou obtenir le maximum d'information, il faut positionner le mode Debug dans le fichier de configuration du serveur CUPS
LogLevel debug
Une surveillance simple dans un terminal :
sudo tail -f /var/log/cups/*_log
Le serveur de fichiers FTP
Introduction
[modifier | modifier le wikicode]Le protocole FTP (File Transfer Protocol) permet d'échanger des fichiers volumineux. Il utilise le port 21 (canal de contrôle) et le port 20 (canal des données) en protocole TCP.
Il existe plusieurs serveurs FTP : ProFTPD, Pure-FTPd, VsFTPd, wu-ftpd, muddleftpd... Chacun se différencie des autres par ses fonctionnalités et sa facilité (ou non) a être configuré.
Généralement ces serveurs peuvent également fournir un serveur SFTP (FTP sécurisé, sur le port 22).
ProFTPD
[modifier | modifier le wikicode]- Pour plus de détails voir : Administration réseau sous Linux/ProFTPD.
- Installation :
# apt-get install proftpd
- Configuration :
# vim /etc/proftpd/proftpd.conf
Une fois les modifications faites sur le fichier de configuration, ne pas oublier de relancer le service :
# /etc/init.d/proftpd restart
Exemple de configuration :
# Nom du serveur
ServerName "Serveur FTP du Creufop"
# Fonctionne en mode autonome (daemon) et non via inetd
ServerType standalone
# Affiche le message de bienvenue que lorsque l'utilisateur s'est authentifié
DeferWelcome on
# Permet de voir les liens symboliques
ShowSymlinks on
# a commenter
MultilineRFC2228 on
DefaultServer on
# Efface un fichier si il est déjà présent
AllowOverwrite on
# Options liés aux expirations avant déconnexion
TimeoutNoTransfer 600
TimeoutStalled 600
TimeoutIdle 1200
# Fichier à afficher lors de la connexion
DisplayLogin welcome.msg
# Affiche le fichier .message si celui-ci est présent dans le répertoire visité
DisplayFirstChdir .message
# Affiche par défaut le format long de la commande ls
ListOptions "-l"
# À commenter
DenyFilter \*.*/
# À décommenter si on utilise NIS ou LDAP
#PersistentPasswd off
# Le port standard de contrôle
Port 21
# Nombre maximum de connexions simultanées
MaxInstances 30
# Login et groupe utilisé par le daemon proftpd
User nobody
Group nogroup
# Masque par défaut des fichiers et des répertoires
Umask 022 022
# On autorise explicitement les logins autorises au FTP :
<Limit LOGIN>
AllowUser alex
AllowUser pierre
AllowUser alain
DenyAll
</Limit>
Commandes
[modifier | modifier le wikicode]Pour piloter un flux SFTP en commandes[1] :
sftp mon_serveur
sftp> ls # fichier_distant
sftp> lls # fichier_local
sftp> get *
sftp> lls # fichier_local, fichier_distant
sftp> put fichier_local
sftp> ls # fichier_local, fichier_distant
sftp> put local_file remote_path/remote_file
Références
[modifier | modifier le wikicode]
Le serveur Web Apache
Installation de Apache2
[modifier | modifier le wikicode]LAMP
[modifier | modifier le wikicode]Logiciel tout-en-un pour Linux (Apache + MySQL + PHP), comme WAMP pour Windows.
# apt-get install tasksel
# tasksel install lamp-server
Installation manuelle
[modifier | modifier le wikicode]Apache sur Debian / Ubuntu
[modifier | modifier le wikicode]# apt-get install apache2
Le service peut ne pas être lancé par défaut, mais même s'il l'est on peut quand-même essayer de l'activer avec :
# /etc/init.d/apache2 start
On peut ensuite tester le serveur, pour voir si une page s'affiche ou s'il refuse la connexion :
Cette adresse est le rebouclage, elle peut aussi être rentrée directement dans tout navigateur web.
Si Apache était déjà installé vérifier le fichier pour indiquer le démarrage automatique d'Apache 2 /etc/default/apache2 :
# vi /etc/default/apache2 ... NO_START=0
Installer PHP
[modifier | modifier le wikicode]On distingue principalement deux versions de PHP : celle dont le binaire est appelé par le serveur Web, et php-fpm qui possède son propre service daemon (aussi appelé par le serveur Web) testable ainsi :
telnet localhost 9000 CTRL + ALT + ] quit
FPM signifie FastCGI Process Manager, puisque le processus PHP-fpm écoute les requêtes CGI[1]. Cela peut se traduire soit par des requêtes TCP/IP, soit par un socket Unix (.sock dans le vhost).
PHP peut-être installé avec toutes les déclinaisons de la distribution Debian (stable, testing, unstable). Il suffit pour cela d'insérer vos lignes préférées dans le fichier /etc/apt/sources.list :
deb http://ftp.fr.debian.org/debian/ stable main non-free contrib deb-src http://ftp.fr.debian.org/debian/ stable main non-free contrib
Ce qui suit suppose que le serveur Web a bien été installé ; exécuter les commandes suivantes :
sudo apt-get update && apt-get install php8.2 && apt-get install libapache2-mod-php8.2
Une fois ces commandes exécutées, redémarrer le serveur Web. Dans le cas d'Apache cela s'effectue avec la commande suivante :
/etc/init.d/apache2 restart
Si tout s'est bien passé, vous disposez maintenant d'un serveur Web qui a la capacité d'exécuter des scripts PHP dans votre navigateur.
Testons :
Pour débugger :
$ tail /var/log/apache2/error.log
Mise à jour
[modifier | modifier le wikicode]Pour PHP 7 ou 8 sur Ubuntu :
sudo add-apt-repository ppa:ondrej/php
Sur Debian :
sudo wget -O /etc/apt/trusted.gpg.d/php.gpg https://packages.sury.org/php/apt.gpg sudo sh -c 'echo "deb https://packages.sury.org/php/ $(lsb_release -sc) main" > /etc/apt/sources.list.d/php.list'
Puis :
sudo apt update sudo apt install php8.2 php8.2-common php8.2-cli php8.2-fpm sudo a2enmod php8.2
Une fois les serveurs Web installés, ils se lancent automatiquement à chaque démarrage de la machine, ce qui est souhaitable pour un serveur, mais pas toujours pour un PC. Pour éviter cela, il suffit d'y désactiver les daemons :
sudo update-rc.d apache2 disable sudo update-rc.d mysql disable
Bibliothèques
[modifier | modifier le wikicode]Voici une liste de bibliothèques fréquemment utilisées dans les applications :
# apt-get install -y \ php8.2-mysql \ php8.2-cli \ php8.2-gd \ php8.2-curl \ php8.2-mbstring \ php8.2-xml
D'autres s'installent avec pecl au lieu de apt.
Pour les activer après installation, on peut éditer le php.ini ou lancer : phpenmod nom_du_module_php. Ex : sudo phpenmod gd
.
Pour les désactiver : phpdismod nom_du_module_php
Pour détecter l'emplacement du php.ini de la version de PHP par défaut : php --ini
.
Désinstaller PHP
[modifier | modifier le wikicode]Pour éviter de désinstaller tous les paquets PHP un par un (par exemple après une bascule de PHP7.0 vers PHP7.1), il existe "ppa-purge" :
sudo apt-get install ppa-purge sudo ppa-purge ppa:ondrej/php-7.0
Apache sur Gentoo
[modifier | modifier le wikicode]Premièrement il faut installer Apache :
emerge apache
Ensuite, il faut installer PHP :
emerge dev-lang/php
Puis il faut qu'apache utilise PHP dans sa configuration.
Code : Configuration de apache |
# nano -w /etc/conf.d/apache2 APACHE2_OPTS="-D PHP5" |
MySQL seul
[modifier | modifier le wikicode]MySQL est disponible sur http://dev.mysql.com/downloads/gui-tools/5.0.html au format :
- .msi (Windows)
- .dmg (Mac)
- .rpm (Linux)
- .tar
En l'absence de gestionnaire de paquets, utiliser le .tar ainsi :
shell> groupadd mysql shell> useradd -r -g mysql mysql shell> cd /usr/local shell> tar zxvf /path/to/mysql-VERSION-OS.tar.gz shell> ln -s full-path-to-mysql-VERSION-OS mysql shell> cd mysql shell> chown -R mysql . shell> chgrp -R mysql . shell> scripts/mysql_install_db --user=mysql shell> chown -R root . shell> chown -R mysql data shell> bin/mysqld_safe --user=mysql &
APT
[modifier | modifier le wikicode]$ sudo apt-get install mysql-server mysql_secure_installation
Variante
[modifier | modifier le wikicode]La dénomination des paquets mentionnés peut varier légèrement selon la version. Dans un terminal, entrez :
$ sudo apt-get install mysql-server
et confirmez.
(Remarque : il semblerait qu'en installant le paquet "mysql-server-5.0", au lieu du paquet mentionné plus haut, certaines personnes rencontrent des problèmes. Il est donc préférable d'installer ce paquet, ou d'installer la dernière version 4 stable avec : $ sudo apt-get install mysql-server-4.1. Consultez le forum pour plus d'informations : [1])
Lancez ensuite la commande :
cd && sudo mysql_secure_installation
Appuyez sur Entrée lorsqu'il vous demande le mot de passe root MySQL : pour le moment il n'y en a pas.
Le script vous demande alors si vous voulez mettre un mot de passe pour l'utilisateur root. Répondez Y, et entrez (2 fois le nouveau mot de passe du root MySQL). Il vous pose ensuite une série de questions. Si vous ne savez pas quoi répondre, acceptez les choix par défaut en appuyant simplement sur Enter.
Votre serveur MySQL est prêt. Par défaut il se lance à chaque démarrage du système, si vous ne le souhaitez pas, il vous suffit de lancer :
$ sudo dpkg-reconfigure mysql-server
et de répondre "Non" à la question du démarrage systématique de MySQL.
Sur Gentoo
[modifier | modifier le wikicode]emerge mysql
Modules
[modifier | modifier le wikicode]De nombreux modules complémentaires peuvent être installés sur Apache.
Pour les lister, on utilise apachectl
(parfois apache2ctl
) :
apachectl -t -D DUMP_MODULES
ou
apache2ctl -M
Pour activer un module :
a2enmod Nom_du_module
Un fichier est alors créé dans /etc/apache2/mods-enabled/.
Exemple pour la réécriture d'URL :
a2enmod rewrite
Pour le désactiver :
a2dismod Nom_du_module
La configuration du module reste toutefois disponible dans /etc/apache2/mods-available/.
phpenmod mbstring
Sites
[modifier | modifier le wikicode]Pour lister les sites du serveur :
apachectl -S
Pour activer un site :
a2ensite Nom_du_site
Le fichier du site est alors visible dans /etc/apache2/sites-enabled/.
Pour le désactiver :
a2dissite Nom_du_site
Le site est dans /etc/apache2/sites-available/.
Problème d'encodage d'Apache2
[modifier | modifier le wikicode]Si vous rencontrez un problème d'encodage des caractères de vos pages, par exemple les caractères accentués apparaissant sous la forme "�" (<?>), c'est probablement parce qu'Apache2 déclare dans les en-têtes HTTP qui accompagnent les pages visionnées un encodage par défaut en Unicode (UTF-8) :
Content-Type: text/html; charset=UTF-8
Tandis que les pages visionnées utilisent un autre encodage des caractères, comme par exemple Latin1 (ISO-8859-1). Même si vos documents indiquent le jeu de caractères utilisé, le paramètre donné par le serveur dans les en-têtes HTTP est prioritaire !
Pour corriger ce problème, il faudra éditer /etc/apache2/apache2.conf :
$ sudo gedit /etc/apache2/apache2.conf
Encodage par défaut en Latin1 (ISO-8859-1)
[modifier | modifier le wikicode]Cherchez la ligne suivante :
#AddDefaultCharset ISO-8859-1
Décommentez-la en enlevant le # :
AddDefaultCharset ISO-8859-1
Pour ceux qui ont la locale iso-8859-15 (sinon vous pouvez faire "sudo dpkg-reconfigure locales" pour l'ajouter) et qui désirent l'utiliser par défaut, ajoutez un 5 en fin de ligne :
AddDefaultCharset ISO-8859-15
ainsi que la ligne suivante dans le paragraphe en-dessous :
AddCharset ISO-8859-15 .iso8859-15 .latin15 .fr
Il ne vous reste plus qu'à mettre "fr" en première position dans la ligne LanguagePriority (juste au-dessus), et à demander à apache de relire sa configuration :
$ sudo /etc/init.d/apache2 reload
Aucun encodage par défaut
[modifier | modifier le wikicode]Il est également possible de s'affranchir de tout encodage par défaut, de la manière suivante :
Cherchez la directive AddDefaultCharset :
AddDefaultCharset ISO-8859-1
Remplacez l'attribut par la valeur Off :
AddDefaultCharset Off
Là encore, on demandera à Apache de relire sa configuration :
$ sudo /etc/init.d/apache2 reload
Maintenant, les en-têtes HTTP ne contiendront plus d'indication d'encodage des caractères. Attention : il faudra alors que chaque page indique l'encodage utilisé, car s'en remettre à la détection automatique par les navigateurs peut s'avérer assez aléatoire !
Configuration de Apache2
[modifier | modifier le wikicode]Le fichier de configuration principal de Apache2 est /etc/apache2/apache2.conf. Dans le cas de Apache version 1.3, ce fichier s'appelle /etc/apache/httpd.conf.
Par défaut, Apache utilise deux fichiers de logs :
- /var/log/apache2/access.log : contient les logs de connexion au serveur Web
- /var/log/apache2/error.log : contient les erreurs survenues
Dans les fichiers de configuration /etc/apache2/apache2.conf ou /etc/apache2/conf.d/security, on peut être amené à modifier :
# Pour que Apache ne donne pas son numéro de version et les modules chargés (via une page d'erreur) ServerSignature off # Pour que Apache ne donne pas son numéro de version et les modules chargés (via le protocole HTTP) ServerTokens Prod # Permet d'enregistrer les noms canoniques au lieu des adresses IP # dans le fichier access.log HostnameLookups On
Le fichier /etc/apache2/ports.conf contient la liste des ports sur lequel Apache écoute. On peut changer le port le par défaut (80), ou lui indiquer d'écouter sur d'autres ports (ex: 443 pour https) en rajoutant des lignes Listen <port>.
# cat /etc/apache2/ports.conf Listen 80
Héberger plusieurs sites Internet
[modifier | modifier le wikicode]Apache permet de gérer plusieurs sites internet sur le même serveur, pour cela on va utiliser des sections VirtualHost. Pour chaque site Internet, on crée un nouveau fichier dans /etc/apache2/sites-enabled et on lui indique la section VirtualHost (voir ci-dessous). Par convention, on appelle ce fichier avec le nom du site Internet :
# cd /etc/apache2/sites-enabled # vi www.mondomaine.fr # Ne mettre cette ligne que dans UN seul fichier NameVirtualHost 192.168.30.220 <VirtualHost 192.168.30.220> ServerName www.mondomaine.fr ServerAlias mondomaine.fr ServerAdmin webmaster@mondomaine.fr DocumentRoot /var/www/www.mondomaine.fr CustomLog /var/log/apache2/www.mondomaine.fr_access.log combined ErrorLog /var/log/apache2/www.mondomaine.fr_error.log </VirtualHost>
Les différents sites vont être stockés dans le répertoire /var/www.On va créer un sous-répertoire par site :
# cd /var/www # mkdir www.mondomaine.fr
Afin de tester, on crée une page HTML minimale :
# echo "<html><body>www.mondomaine.fr</body></html>" > /var/www/www.mondomaine.fr/index.html
Après toutes modifications des fichiers de configuration, on relance Apache2 avec la commande suivante :
# /etc/init.d/apache2 restart
On peut tester avec son navigateur en se connectant à l'URL suivante :
http://www.mondomaine.fr
Dans cet exemple, il faut bien entendu que www.mondomaine.fr pingue vers notre serveur. On peut simuler ceci en rajoutant une entrée dans le fichier /etc/hosts ou en modifiant le DNS.
Installer des modules supplémentaires
[modifier | modifier le wikicode]Apache 2 permet l'installation de nombreux modules pour offrir plus de services ou pour renforcer la sécurité.
Les modules sont dans le répertoire /etc/apache2/mods-available . C'est ici qu'il faut copier les modules additionnels que vous pourrez télécharger pour Apache.
Pour activer un module on peut créer manuellement un lien symbolique dans le répertoire mods-enable
Par exemple pour activer le mod URL Rewriting
# ln -s /etc/apache2/mods-available/rewrite.load /etc/apache2/mods-enabled/rewrite.load
Une alternative consite à utiliser la commande a2enable / a2disable
# a2enable mod_rewrite // Active le mod_rewrite dans apache2
# a2disable mod_rewrite // Désactive le mod_rewrite dans apache2
NB : sur les dernières versions de apache2, ces deux commandes s'appellent respectivement a2enmod et a2dismod.
Protéger un répertoire avec un login / mot de passe
[modifier | modifier le wikicode]Pour protéger un répertoire avec un login et un mot de passe, on crée dans le répertoire à protéger un fichier .htaccess qui contient le code suivant :
# cd /var/www/www.mondomaine.fr # vi .htaccess # Type d'authentification AuthType Basic # Nom affiché dans la boite d'authentification AuthName "Site personnel" # Emplacement du fichier contenant les utilisateurs AuthUserFile /etc/apache2/utilisateurs # Emplacement du fichier contenant les groupes AuthGroupFile /etc/apache2/groupes # On autorise seulement les membres du groupe admin Require group admin
On crée ensuite le fichier /etc/apache2/utilisateurs à l'aide de la commande htpasswd :
# cd /etc/apache2 # htpasswd -c utilisateurs alex ... # htpasswd utilisateurs pierre
La première fois, on utilise l'option -c de la commande htpasswd pour créer le fichier.
On crée ensuite le fichier /etc/apache2/groupes :
# echo "admin: alex pierre" > /etc/apache2/groupes
Il faut également éditer le fichier /etc/apache2/sites-enabled/000-default afin d'activer la prise en charge du fichier htaccess. Ajouter, si cela n'existe pas encore :
<Directory /var/www/mondossierprotege/> AllowOverride All </Directory>
On relance le serveur web :
# /etc/init.d/apache2 restart
Outils pour générer des statistiques de connexion
[modifier | modifier le wikicode]Chaque fois qu'un visiteur vient sur le site Internet, Apache enregistre sa connexion dans les fichiers /var/log/apache2/*_access.log.
Voici deux logiciels libres qui analysent ces fichiers et qui permettent de générer des statistiques sur les connexions :
Le serveur Web Nginx
Installation
[modifier | modifier le wikicode]sudo apt-get install nginx
Commandes
[modifier | modifier le wikicode]Relancer le serveur :
systemctl restart nginx
Voir la configuration du processus lancé :
nginx -T
Voir les logs :
journalctl -u nginx
Activer un vhost :
ln -s /etc/nginx/sites-available/mon_vhost.conf /etc/nginx/sites-enabled/
systemctl reload nginx
La différence entre "restart" et "reload", est que le premier stoppe tout puis tente de redémarrer, alors que "reload" ne stoppe les anciens processus que si le fichier de configuration ne contient pas d'erreur, et donc que les nouveaux peuvent se lancer. Il est donc plus sécurisé.
Paramètres
[modifier | modifier le wikicode]La configuration se trouve dans les fichiers .conf du dossier /etc/nginx/conf.d/.
Exemples de configuration :
client_max_body_size 32m;
fastcgi_read_timeout 600;
proxy_read_timeout 600;
vhosts
[modifier | modifier le wikicode]On peut trouver des validateurs de vhosts en ligne[2].
Variables
[modifier | modifier le wikicode]le module ngx_http_core_module offre des variables correspondant à celles d'Apache[3].
- $host
- $alias
- $root
- $realpath_root
- $document_root : $root ou $alias de la requête
- $document_uri
- $request_uri
- $fastcgi_script_name
Mots réservés
[modifier | modifier le wikicode]Comme dans Apache, la priorité entre les vhosts est déterminée par l'ordre alphabétique des .conf de /etc/nginx/sites-enables.
Les directives sont[4] :
listen
[modifier | modifier le wikicode]Host et port écoutés par le vhost. Ex :
listen 80;
listen 443 ssl;
server_name
[modifier | modifier le wikicode]URL du vhost.
- Exemple simple :
server_name x.example.com alias.example.com;
- Pour désigner un nom de serveur invalide (généralement dans le vhost default) :
server_name _;
- Pour du regex, préfixer avec "~". Ex :
server_name ~^(x|y|z)\.example\.com$;
- Le regex permet même les groupes de capture utilisables dans la suite du vhost (ex : $ma_variable) avec la syntaxe suivante[5] :
(?<ma_variable>.+)
. Exemple avec appel :
- Le regex permet même les groupes de capture utilisables dans la suite du vhost (ex : $ma_variable) avec la syntaxe suivante[5] :
server_name ~(?<branch>.+)-preprod\.example\.com$;
root /var/www/mon_app/preprod/$branch/;
root
[modifier | modifier le wikicode]Dossier du système de fichier vers lequel redirige l'URL du vhost.
location
[modifier | modifier le wikicode]Bloc paramétrant un chemin donné au sein de l'URL du server_name. Il peut contenir plusieurs autre mots réservés.
include
[modifier | modifier le wikicode]internal
[modifier | modifier le wikicode]deny
[modifier | modifier le wikicode]expires
[modifier | modifier le wikicode]fastcgi_param
[modifier | modifier le wikicode]Définit un des paramètres FastCGI[6].
index
[modifier | modifier le wikicode]Définit l'index à exécuter. Il peut être global ou inclus dans une location. Ex :
index app.php;
return
[modifier | modifier le wikicode]Ex :
return 301 https://$host$request_uri;
rewrite
[modifier | modifier le wikicode]Réécriture d'URL[7]. Ex :
rewrite ^ http://example.com? permanent;
access_log et error_log
[modifier | modifier le wikicode]Optionnel : emplacement des logs d'accès et d'erreur. Par défaut, /var/log/nginx/access.log et error.log.
add_header
[modifier | modifier le wikicode]Ajoute des clés aux en-têtes HTTP. Par exemple pour les règles de protection Content Security Policy (CSP) contre le cross-site scripting (XSS) :
add_header Content-Security-Policy "default-src 'self';
connect-src *;
img-src 'self' data:;
script-src 'self' 'unsafe-eval' 'unsafe-inline';
style-src 'self' 'unsafe-inline';
";
Pour la protection contre le clickjacking :
add_header X-Frame-Options "SAMEORIGIN" always;
Par ailleurs, des sites d'audit gratuits peuvent ensuite révéler s'il reste des failles.
Exemples
[modifier | modifier le wikicode]Pour un site HTTP :
server {
listen 80;
server_name mon_site.localhost;
root /var/www/mon_site;
location / {
try_files $uri /index.html =404;
}
}
Pour un site IPv4 et IPv6 en HTTP et HTTPS :
server {
listen 80;
listen [::]:80;
listen 443 ssl;
listen [::]:443;
ssl_certificate /etc/nginx/conf.d/ssl-certs/ssl-cert-snakeoil.pem;
ssl_certificate_key /etc/nginx/conf.d/ssl-certs/ssl-cert-snakeoil.key;
ssl_trusted_certificate /etc/ssl/private/current.crt;
server_name mon_site.localhost;
root /var/www/mon_site;
location / {
try_files $uri /index.html =404;
}
}
Rediriger le flux HTTP vers HTTPS
[modifier | modifier le wikicode]Ajouter dans la configuration la ligne commençant par "rewrite" ci-dessous :
server {
listen 80;
server_name nom-domaine.fr www.nom-domaine.fr;
rewrite ^ https://$server_name$request_uri? permanent;
}
server {
listen 443;
server_name my.domain.com;
ssl on;
[....]
}
Références
[modifier | modifier le wikicode]- ↑ https://www.tecmint.com/connect-nginx-to-php-fpm/
- ↑ https://nginx.viraptor.info/
- ↑ http://nginx.org/en/docs/http/ngx_http_core_module.html
- ↑ http://nginx.org/en/docs/http/ngx_http_core_module.html
- ↑ http://nginx.org/en/docs/http/server_names.html
- ↑ https://www.nginx.com/resources/wiki/start/topics/examples/phpfcgi/
- ↑ https://www.nginx.com/resources/wiki/start/topics/tutorials/config_pitfalls/#taxing-rewrites
La base de données MySQL
Introduction
[modifier | modifier le wikicode]MySQL est un serveur de bases de données relationnelles SQL (Open Source), fonctionnant sur le port 3306 en mode TCP.
Prérequis : Apache.
Moteurs de stockage
[modifier | modifier le wikicode]Par défaut, MySQL utilise le moteur de stockage MyISAM.
Toutefois, MySQL propose d'autres moteurs de stockage :
- InnoDB : support des transactions (compatible ACID), des clés étrangères et de l'intégrité référentielle
- MERGE ou MRG_MYISAM : permet de fusionner plusieurs tables de structures identiques
- BDB : Berkeley DB est un format de stockage très répandu (utilisé par exemple par OpenLDAP) et supporte les transactions (compatible ACID)
- HEAP ou MEMORY : ces tables sont stockées en mémoire vive (RAM), elles sont très rapides mais ne survivent pas à un redémarrage de MySQL
- CSV : les données sont stockées dans des fichiers au format CSV (Comma Separated Values)
- ARCHIVE : stocke des informations en utilisant le minimum de place disque (perte de la notion d'index)
- BLACKHOLE : les données sont tout simplement envoyées vers /dev/null et donc perdues. Moteur utilisé pour faire des tests
Types de données
[modifier | modifier le wikicode]Chaque information stockée dans une table est définie par un type décrivant la nature de l'information enregistrée.
Les nombres
[modifier | modifier le wikicode]- TINYINT
- SMALLINT
- MEDIUMINT
- INT
- BIGINT
- FLOAT
- DOUBLE
- DECIMAL
Les chaînes de caractères
[modifier | modifier le wikicode]- CHAR
- VARCHAR
- BINARY
- VARBINARY
- BLOB
- TEXT
- ENUM
- SET
Les dates et heures
[modifier | modifier le wikicode]- DATE
- TIME
- DATETIME
- TIMESTAMP
- YEAR
Installation
[modifier | modifier le wikicode]Pour installer mysql sous Debian, on tape la commande suivante :
# apt-get install mysql-server mysql-client
Fichier de configuration
[modifier | modifier le wikicode]Le fichier de configuration est /etc/mysql/my.cnf.
Dans ce fichier de configuration on trouve plusieurs sections :
# Section du client Mysql [client] port = 3306 socket = /var/run/mysqld/mysqld.sock # Section de mysqld_safe [mysqld_safe] socket = /var/run/mysqld/mysqld.sock nice = 0 # Section du serveur Mysql [mysqld] # Utilisateur qui lance le daemon user = mysql # Fichier qui contient le PID du processus pid-file = /var/run/mysqld/mysqld.pid # Fichier socket qui permet une communication locale avec Mysqld (plus performant que de passer par le port 3306) socket = /var/run/mysqld/mysqld.sock # Port sur lequel écoute Mysql port = 3306 # Répertoire de base de Mysql basedir = /usr # Répertoire contenant les bases de données datadir = /var/lib/mysql # Répertoire temporaire tmpdir = /tmp # Permet de personnaliser le langage language = /usr/share/mysql/english # Évite le blocage externe skip-external-locking # Adresse IP sur lequel écoute Mysql bind-address = 127.0.0.1 # Taille des caches Mysql : permet d'optimiser les performances de Mysql key_buffer = 16M max_allowed_packet = 16M thread_stack = 128K thread_cache_size = 8 #max_connections = 100 #table_cache = 64 #thread_concurrency = 10 query_cache_limit = 1M # Emplacement du fichier de Log log = /var/log/mysql/mysql.log # On peut logger les requêtes lentes #log_slow_queries = /var/log/mysql/mysql-slow.log #long_query_time = 2 #log-queries-not-using-indexes # Permet d'exécuter Mysql dans une cage chroot # chroot = /var/lib/mysql/ # Options pour définir les certificats Mysql # ssl-ca=/etc/mysql/cacert.pem # ssl-cert=/etc/mysql/server-cert.pem # ssl-key=/etc/mysql/server-key.pem # Section pour mysqldump [mysqldump] quick quote-names max_allowed_packet = 16M # Section pour ? [mysql] #no-auto-rehash # faster start of mysql but no tab completition # Section pour le format ISAM [isamchk] key_buffer = 16M
Chaque fois que l'on modifie ce fichier, il faut relancer mysql :
# /etc/init.d/mysql restart
Les bases de données sont stockées dans le répertoire /var/lib/mysql/. Il faut donc sauvegarder ce répertoire.
Pour se connecter à Mysql à partir du shell, on utilise le client Mysql :
# mysql -h <host> -u <login> -p <password>
Commandes SQL d'importation / exportation
[modifier | modifier le wikicode]LOAD DATA INFILE
[modifier | modifier le wikicode]La commande SQL LOAD DATA INFILE permet d'importer des données dans une table SQL à partir d'un fichier texte.
Par exemple, nous avons la table suivante :
mysql> DESC contacts; +--------+-------------+------+-----+---------+----------------+ | Field | Type | Null | Key | Default | Extra | +--------+-------------+------+-----+---------+----------------+ | id | int(11) | NO | PRI | NULL | auto_increment | | prenom | varchar(50) | YES | | NULL | | | nom | varchar(50) | YES | | NULL | | +--------+-------------+------+-----+---------+----------------+ 3 rows in set (0.00 sec)
Nous voulons insérer le fichier suivant :
# cat /var/lib/mysql/dbalex/data.txt Anne;Aconda Clara;Sheller Sophie;Garo Pauline;Machin
Pour importer le fichier dans la table contact, nous tapons la commande suivante :
mysql> LOAD DATA INFILE 'data.txt' INTO TABLE contacts FIELDS TERMINATED BY ";" (prenom,nom); Query OK, 4 rows affected (0.00 sec) Records: 4 Deleted: 0 Skipped: 0 Warnings: 0
Vérification :
mysql> SELECT * FROM contacts; +----+---------+---------+ | id | prenom | nom | +----+---------+---------+ | 18 | Anne | Aconda | | 19 | Clara | Sheller | | 20 | Sophie | Garo | | 21 | Pauline | Machin | +----+---------+---------+ 4 rows in set (0.02 sec)
Pour connaître l'ensemble des options disponibles de la commande LOAD DATA INFILE, voir la documentation Mysql : Doc Mysql / LOAD DATA INFILE
SELECT INTO OUTFILE
[modifier | modifier le wikicode]La commande SQL SELECT INTO OUTFILE permet d'exporter des données de la base de données dans un fichier texte.
mysql> SELECT prenom,nom FROM contacts INTO OUTFILE '/tmp/result.txt' FIELDS TERMINATED BY ';' LINES TERMINATED BY '\n'; Query OK, 4 rows affected (0.02 sec)
Dans le cas présent, les champs "prenom" et "nom" ont été sélectionnés à partir de la table "contacts" afin de pouvoir être exportés dans le fichier "result.txt" situé dans le répertoire "/tmp"
Attention, il faut penser à préciser les clauses "FIELDS" et "LINES" destinées à traiter correctement les délimitations des champs et des lignes lors de l'export !
Remarque : C'est l'utilisateur mysql qui crée ce fichier, il doit donc avoir les droits nécessaires :
# ls -l /tmp/result.txt -rw-rw-rw- 1 mysql mysql 53 2008-11-27 09:26 /tmp/result.txt
Les fichiers de données
[modifier | modifier le wikicode]Les fichiers contenant les données sont stockés dans /var/lib/mysql/.
/var/lib/mysql/ est donc le répertoire important à sauvegarder.
Chaque base de données dispose de son propre répertoire /var/lib/mysql/<nomdelabase>/.
Le fichier db.opt contient la configuration de la base de données (encodage des caractères ...).
Le fichier <nomdetable>.FRM décrit la structure de la table.
Dans le cas du format MyISAM, chaque table est enregistrée dans deux fichiers :
- <nomdetable>.MYD : contient les données
- <nomdetable>.MYI : contient les index
Dans le cas du format Innodb, toutes les tables sont stockées dans un ou plusieurs seuls fichiers : ibdata1, ibdata2 ...
Les fichiers journaux
[modifier | modifier le wikicode]Les fichiers journaux sont contenus dans le répertoire /var/log/mysql/.
Il y a 3 fichiers importants :
- mysql.log : contient les authentifications des utilisateurs et les requêtes SQL
- mysql.err : contient les erreurs. Sous Debian, ce fichier n'existe pas ou est vide car les erreurs Mysql sont envoyées à syslog (Debian improvement).
- mysql-slow.log : contient les requêtes lentes
Pour activer les fichiers log, il faut décommenter les deux lignes dans /etc/mysql/my.cnf :
log = /var/log/mysql/mysql.log log_slow_queries = /var/log/mysql/mysql-slow.log
Puis relancer mysql :
/etc/init.d/mysql restart
Les documentations
[modifier | modifier le wikicode]Package Debian mysql-doc-5.0
[modifier | modifier le wikicode]Debian propose un package contenant les documentations Mysql. Il faut pour y accéder installer le package mysql-doc-5.0 :
# apt-get install mysql-doc-5.0
La documentation sur mysql est accessible dans le répertoire /usr/share/doc/mysql-doc-5.0.
Dans ce répertoire, on trouve des pages HTML qui contiennent toute la documentation de mysql.
Documentations en ligne
[modifier | modifier le wikicode]Sur le site de mysql
- Le manuel de référence en français
Listes de diffusion
[modifier | modifier le wikicode]Toutes les listes de diffusion
IRC
[modifier | modifier le wikicode]Canal #mysql sur Freenode
Modifications des privilèges
[modifier | modifier le wikicode]Il y a quatre techniques pour modifier les privilèges :
- modifier directement les tables user et db de la base de données mysql (ne pas oublier de faire un FLUSH PRIVILEGES; après)
- utiliser les instructions SQL GRANT et REVOKE
Exemple : enlever tous les droits à l'utilisateur alex sur la base de données dbalex :
mysql> REVOKE ALL PRIVILEGES ON dbalex.* FROM alex;
Exemple : donner tous les droits à l'utilisateur alex sur la base de données dbalex :
mysql> GRANT ALL PRIVILEGES ON dbalex.* to alex;
on peut également spécifier les droits à donner :
mysql> GRANT select,insert,update,delete ON dbalex.* to alex;
- utiliser la commande shell mysql_setpermission (cf ci-dessous)
- utiliser un outil graphique de type PhpMyAdmin
Les commandes d'administration
[modifier | modifier le wikicode]Utile : pour ne pas avoir à spécifier le mot de passe du root chaque fois que l'on invoque une commande mysql*, il suffit de créer un fichier .my.cnf dans son répertoire de travail et qui contient le mot de passe à utiliser. Attention aux droits d'accès à ce fichier !
# echo -e "[client]\npassword=root" > ~/.my.cnf && chmod 600 ~/.my.cnf
# ls -l /root/.my.cnf -rw------- 1 root root 23 déc 4 15:53 /root/.my.cnf
# cat /root/.my.cnf [client] password=root
mysql
[modifier | modifier le wikicode]La commande mysql est le client Mysql en ligne de commande. Il permet de se connecter à Mysql et de saisir des commandes SQL.
Voici les options les plus courantes :
Options de base (communes à la plupart des commandes mysql) :
- -h (--host=) : définit l'hôte hébergeant la base de données
- -D (--database=) : définit la base sur laquelle l'utilisateur va se connecter.
- -u (--user=) : précise le nom d'utilisateur Mysql sous lequel l'utilisateur se connecte.
- -P (--port=) : détermine le port à utiliser pour la connexion
- -p (--password=) : demande la saisie du mot de passe (obligatoire si l'utilisateur a été défini pour se connecter avec un mot de passe)
Exemple :
$ mysql --database=dbalex -u paul -p PASSWORD:
Dans cet exemple la requête demande de se connecter par mot de passe à la base dbalex en tant que paul.
Autres options intéressantes :
- -H (--html) : permet de produire des sorties en HTML
- -X (--xml) : permet de produire des sorties en XML
Pour aller plus loin :
# mysql --help
Donne la liste et un bref descriptif de toutes les options à utiliser avec la commande mysql
mysqldump
[modifier | modifier le wikicode]mysqldump
peut sauvegarder des bases de données MySQL. Son fonctionnement est particulièrement intéressant car elle génère les commandes SQL permettant de re-créer la base de données sur un autre serveur, ou d'exporter les données vers du CSV et du XML.
Backup
[modifier | modifier le wikicode]Pour exporter la base de donnée « myBase », on utilise la commande suivante :
mysqldump -u root -p myBase > myBase_backup.sql
Ceci fera l'export dans un fichier « myBase_backup.sql ».
Exemple de dump d'une base :
mysqldump --user=root --password=mon_mdp ma_base > my_base.sql
Pour dumper toutes les bases :
mysqldump --user=root --password=mon_mdp --all-databases > all_db.sql
Pour dumper certains enregistrements de certaines tables :
mysqldump --database ma_base --tables ma_table --where="id in (1, 2, 3)" --user=root --password=mon_mdp > my_query.sql
Sans les données
[modifier | modifier le wikicode]Pour ne récupérer que le schéma :
mysqldump -f --no-data --user=root --password=mon_mdp ma_base > my_base_schema.sql
Au format CSV
[modifier | modifier le wikicode]mysql -e "select * from ma_base.ma_table where id in (1, 2, 3)" --user=root --password=mon_mdp > my_query.csv
Aux formats Oracle, PostgreSQL, Microsoft SQL Server...
[modifier | modifier le wikicode]L'option --compatible
permet de spécifier à mysqldump le format à utiliser pour être compatible avec les bases de données existantes. Exemple :
mysqldump --compatible=oracle -u root -p myBase > myBase_backup.sql
Cette option peut prendre les valeurs suivantes : ansi, mysql323, mysql40, postgresql, oracle, mssql, db2, maxdb, no_key_options, no_table_options, or no_field_options
Tâche planifiée
[modifier | modifier le wikicode]Pour définir le backup automatique d'une base tous les soirs à minuit[1], sous Linux :
$ crontab -e 0 0 * * * /usr/local/bin/mysqldump -uLOGIN -PPORT -hHOST -pPASS base1 | gzip -c > `date “+\%Y-\%m-\%d”`.gz
Le fichier décompresser est au format SQL et peut donc être exécuter pour recréer les bases, tables, et insérer les enregistrements.
Restauration
[modifier | modifier le wikicode]Pour importer une base de données sauvegardée via mysqldump, on utilise la commande cliente mysql et une redirection en entrée :
# mysql -u root -p myBase < myBase_backup.sql
En cas de gros volume, il est plus rapide de copier les .bin des bases, au lieu d'utiliser mysqldump
.
Préparation
[modifier | modifier le wikicode]Pour réinjecter le dump dans d'autres bases, il vaut mieux nettoyer la base de destination[2].
mysqladmin drop -f base2 mysqladmin create base2 mysqldump --opt base1 | mysql base2
Vers une base distante
[modifier | modifier le wikicode]En utilisant mysqldump et ssh, on peut dupliquer une base de données sur une machine distante :
mysqldump testdb -p''<mot de passe local>'' | ssh pc211 'echo "create database dbalex;" | mysql -p''<mot de passe distant>'' ; cat - | mysql -p''<mot de passe distant>'' dbalex'
mysqlimport
[modifier | modifier le wikicode]...
# mysqlimport -p --fields-terminated-by="\;" --lines-terminated-by="\n" --columns=prenom,nom dbalex /var/lib/mysql/dbalex/contacts.txt Enter password: dbalex.contacts: Records: 4 Deleted: 0 Skipped: 0 Warnings: 4 #
Attention : le nom du fichier (sans extension) doit être le même que la table.
mysqladmin
[modifier | modifier le wikicode]La commande mysqladmin permet de passer des commandes à Mysql.
$ mysqladmin [OPTIONS] commande [options de la commande]
OPTIONS :
-h host -u user -p password
Commandes :
- create : créé une base de données
- drop : supprimé une base de données
- flush-privileges : rechargé les tables de droits
- flush-hosts : met à jour les informations concernant les hôtes
- flush-logs : met à jour les informations concernant les journaux
- flush-status : efface les variables status
- flush-tables : met à jour les informations concernant les tables
- flush-threads : met à jour les informations concernant les threads
- password : change le mot de passe
- old-password : change le mot de passe en utilisant l'ancien algorithme de chiffrement
- ping : teste si mysql fonctionne
- reload : recharge la configuration
- refresh : vide les caches
- shutdown : arrête mysql
- status : connaitre des informations sur l'état du serveur
- extended-status : connaitre des informations détaillées sur l'état du serveur
- proc ou processlist : connaitre les utilisateurs connectés
- debug : Passe Mysql en mode debug
- kill : Permet d'arrêter des threads. On indique le numéro de connexion à terminer obtenu avec proc ou processlist
- start-slave : Démarre la réplication sur le serveur de réplication esclave
- stop-slave : Arrête la réplication sur le serveur de réplication esclave
- variables : Affiche les variables internes Mysql
- version : Affiche le numéro de version de Mysql
- ...
Utile : j'ai perdu le mot de passe du compte root mysql, comment le changer :
1. On arrête Mysql :
# /etc/init.d/mysql stop
2. On relance le daemon mysqld avec l'option --skip-grant-tables
# mysqld --skip-grant-tables
3. Depuis une autre fenêtre, on se connecte à Mysql
# mysql mysql
4. On met à jour la table user :
mysql> update user set password=PASSWORD('root') where user='root'; Query OK, 0 rows affected (0.00 sec) Rows matched: 3 Changed: 0 Warnings: 0
mysql> flush privileges; Query OK, 0 rows affected (0.00 sec)
5. On arrête proprement le daemon mysqld :
# killall mysqld
6. On relance Mysql :
# /etc/init.d/mysql start
mysqlcheck
[modifier | modifier le wikicode]La commande mysqlcheck permet de vérifier l'intégrité d'une base de données. On indique la (les) base(s) de données à vérifier (et optionnellement les tables à vérifier), et la commande donne l'état : OK ou corrompue.
Options courantes :
- -r ou --repair : permet de corriger presque tout, sauf les problèmes de doublons pour les clés uniques.
- -a ou --analyse : permet d'analyser les tables indiquées.
- -o ou --optimize : permet d'optimiser les tables indiquées.
Exemple : vérifier l'intégrité de toutes les tables de la base de données testdb :
# mysqlcheck testdb testdb.client OK testdb.client2 OK
Vérifier uniquement la table client :
# mysqlcheck testdb client testdb.client OK
Vérifier les tables user et db de la base de données mysql :
# mysqlcheck mysql user db mysql.user OK mysql.db OK
Remarque : mysqlcheck ne fonctionne qu'en utilisant des instructions SQL (CHECK TABLE, REPAIR TABLE, ANALYZE TABLE, et OPTIMIZE TABLE), il a donc besoin que le serveur Mysql soit en train de fonctionner.
myisamchk
[modifier | modifier le wikicode]La commande myisamchk permet la restauration d'une table ou plusieurs tables endommagées à la suite de crash répétés du démon mysqld.
Attention : myisamchk intervient directement sur les fichiers, il se passe de mysqld contrairement à mysqlcheck !
Quelques précautions d'usage: : Si vous utilisez myisamchk pour réparer ou optimiser les tables, vous devez toujours vous assurer que mysqld n'utilise pas cette table (ce qui s'applique aussi si vous utilisez --skip-external-locking ). Si vous n'éteignez pas le serveur mysqld , vous devez au moins utiliser mysqladmin flush-tables avant de lancer myisamchk.
Attention : Vos tables peuvent être corrompues si le serveur mysqld et myisamchk travaillent dans une même table simultanément.
Vérifier la cohérence d'une table:
On indique à myisamchk les tables à vérifier en désignant les fichiers index MYI :
# myisamchk /chemin/bases/mysql/nom_de_la_bd/nom_de_table.MYI
On peut également spécifier toutes les tables comme ceci :
# myisamchk /chemin/bases/mysql/nom_de_la_bd/*.MYI
Voire carrément vérifier toutes les tables de toutes les bases :
# myisamchk /chemin/bases/mysql/*/*.MYI
La commande affiche un rapport d'analyse, et si tout est OK, ne signale pas d'erreur :
# myisamchk /var/lib/mysql/ampache/album.MYI Checking MyISAM file: /var/lib/mysql/ampache/album.MYI Data records: 542 Deleted blocks: 0 - check file-size - check record delete-chain - check key delete-chain - check index reference - check data record references index: 1 - check data record references index: 2 - check data record references index: 3 - check data record references index: 4 - check record links
Cette commande trouvera 99.99% de toutes les erreurs. Elle ne peut toutefois détecter les erreurs qui impliquent uniquement le fichier de données (ce qui est très inhabituel).
Si vous voulez uniquement vérifier une table sans que la commande produise un affichage, il faut utiliser l'option -s (ou --silent).
mysql_setpermission
[modifier | modifier le wikicode]La commande mysql_setpermission permet de définir les permissions des utilisateurs Mysql de manière intéractive.
Ecrit en Perl, ce script a besoin des modules DBI et DBD::mysql pour fonctionner.
# mysql_setpermission -p Option p is ambiguous (password, port) Password for user to connect to MySQL: ###################################################################### ## Welcome to the permission setter 1.4 for MySQL. ## made by Luuk de Boer ###################################################################### What would you like to do: 1. Set password for an existing user. 2. Create a database + user privilege for that database and host combination (user can only do SELECT) 3. Create/append user privilege for an existing database and host combination (user can only do SELECT) 4. Create/append broader user privileges for an existing database and host combination (user can do SELECT,INSERT,UPDATE,DELETE) 5. Create/append quite extended user privileges for an existing database and host combination (user can do SELECT,INSERT,UPDATE,DELETE,CREATE,DROP,INDEX, LOCK TABLES,CREATE TEMPORARY TABLES) 6. Create/append full privileges for an existing database and host combination (user has FULL privilege) 7. Remove all privileges for for an existing database and host combination. (user will have all permission fields set to N) 0. exit this program Make your choice [1,2,3,4,5,6,7,0]:
- 1 : Permet de modifier le mot de passe d'un utilisateur éxistant
- 2 : Permet d'ajouter/modifier le droit SELECT d'un utilisateur sur une table en créant un utilisateur et une table :
# Make your choice [1,2,3,4,5,6,7,0]: 2 # Which database would you like to add: dbuser //On donne le nom de la base de donnée à créer. # The new database dbuser will be created # What username is to be created: user //On donne le nom de l'utilisateur à créer. # Username = user # We now need to know from what host(s) the user will connect. # Keep in mind that % means 'from any host' ... # The host please: % //On donne l'host #
L'utilisateur user aura le droit SELECT sur la base de donnée dbuser
- 3 : Même fonction que la sélection 2, sauf que l'on donne le droit SELECT sur une table existante.
- 4 : Même fonction que la sélection 2, pour les droits SELECT,INSERT,UPDATE,DELETE.
- 5 : Même fonction que la sélection 2, pour les droits SELECT,INSERT,UPDATE,DELETE,CREATE,DROP,INDEX,LOCK TABLES,CREATE TEMPORARY TABLES
- 6 : Même fonction que la sélection 2, pour tous les droits.
- 7 : Met les droits par défaut (N) pour un utilisateur existant.
- 0 : sortir du programme
Les différentes options de mysql_setpermission :
- --help (ou -h) : permet d'afficher l'aide
- --host (ou -h) : se connecte au serveur Mysql donné
- --password (ou -p) : pour qu'il demande le mot de passe à la connexion
- --port (ou -P) : donne le numéro de port si différent de celui par défaut
- --user (ou -u) : se connecte au serveur avec le nom de compte donné
mysqlhotcopy
[modifier | modifier le wikicode]La commande mysqlhotcopy permet de copier une base de données à chaud, c'est à dire sans arrêter le serveur Mysql.
Pour cela, la commande bloque les tables afin qu'il n'y ai pas de modification des tables durant la copie.
Les tables sont ensuite débloquées.
Exemple d'utilisation :
# mysqlhotcopy -p root testdb /tmp Locked 2 tables in 0 seconds. Flushed tables (`testdb`.`client`, `testdb`.`client2`) in 0 seconds. Copying 8 files... Copying indices for 0 files... Unlocked tables. mysqlhotcopy copied 2 tables (8 files) in 0 seconds (1 seconds overall).
Vérification :
# ls -l /tmp/testdb/ total 44 -rw-rw---- 1 mysql mysql 8584 déc 2 15:08 client2.frm -rw-rw---- 1 mysql mysql 0 déc 2 15:08 client2.MYD -rw-rw---- 1 mysql mysql 1024 déc 4 16:23 client2.MYI -rw-rw---- 1 mysql mysql 8618 déc 2 15:50 client.frm -rw-rw---- 1 mysql mysql 3090 déc 4 14:01 client.MYD -rw-rw---- 1 mysql mysql 2048 déc 4 16:23 client.MYI -rw-rw---- 1 mysql mysql 65 déc 2 14:58 db.opt
Autres programmes utiles
[modifier | modifier le wikicode]MySQL Workbench
[modifier | modifier le wikicode]Anciennement nommé MySQL Administrator, MySQL Workbench est aujourd'hui maintenu par Oracle.
MySQL Query Browser
[modifier | modifier le wikicode]MySQL Query Browser n'est plus développé depuis 2012[3].
MySQL Control Center
[modifier | modifier le wikicode]mysqlcc est l'ancien logiciel d'administration de MySQL, il s'est arrêté en 2013[4], et donc n'est pas 100 % compatible avec la version 5 de MySQL. Il est désormais remplacé par MySQL Workbench.
MySQL Navigator
[modifier | modifier le wikicode]MySQL Navigator n'est plus développé depuis 2013[5].
Références
[modifier | modifier le wikicode]- ↑ http://stackoverflow.com/questions/6645818/how-to-automate-database-backup-using-phpmyadmin
- ↑ https://dev.mysql.com/doc/refman/8.0/en/mysqldump.html
- ↑ http://sqlbrowser.www2.pl/?act=download
- ↑ http://sourceforge.net/projects/mysqlcc/?source=navbar
- ↑ http://sourceforge.net/projects/mysqlnavigator/?source=typ_redirect
Memcached
Installation
[modifier | modifier le wikicode]Memcached s'installe sur un serveur de mémoire cache distribuée, base de données de paires clé-valeur, qui est accessible par ses clients sur le port 11211, en TCP ou UDP[1].
Installation :
sudo apt-get install memcached
Client
[modifier | modifier le wikicode]Sur Docker PHP :
RUN pecl install memcached \
&& docker-php-ext-enable memcache
Test
[modifier | modifier le wikicode] telnet localhost 11211
Si ça fonctionne sur le serveur mais pas depuis les autres machines, c'est certainement qu'il écoute 127.0.0.1 au lieu de son IP externe. Pour le vérifier :
netstat -an | grep ":11211"
tcp 0 0 127.0.0.1:11211 0.0.0.0:* LISTEN
ou
ss -nlt | grep 11211
LISTEN 0 1024 127.0.0.1:11211
Pour le résoudre :
sudo vim /etc/memcached.conf
sudo /etc/init.d/memcached restart
Commandes
[modifier | modifier le wikicode]- Reset mémoire :
echo "flush_all" | nc -q 1 localhost 11211
Utilisation
[modifier | modifier le wikicode]Memcached propose plusieurs commandes[2]. Pour tester si le serveur fonctionne avant de l'utiliser en PHP, on peut donc les lancer avec telnet nom_du_serveur 11211
.
- stats : informations sur le cache en cours.
- set : ajoute une paire clé-valeur dans le cache.
- add : ajoute une paire clé-valeur uniquement si la clé n'existe pas déjà.
- get : récupère la valeur à partir de la clé donnée en paramètre.
- delete : supprime la paire clé-valeur de la clé donnée.
- flush_all : supprime tout ce qu'il y a dans le cache.
Par exemple pour lire une clé, il faut d'abord voir les descriptions de toutes les clés :
stats items
STAT items:1:number 1
...
STAT items:2:number 1
...
STAT items:3:number 1
...
Puis l'appeler par son numéro pour voir son nom (le zéro représente l'absence de limite) :
stats cachedump 1 0
Redis
Installation
[modifier | modifier le wikicode]Redis est comme Memcached, un système de gestion de base de données clef-valeur scalable, très hautes performances. En 2019, il devient plus utilisé que Memcached car il possède plus de fonctionnalités[3]. Par exemple il permet en plus une persistance sur la mémoire morte utile pour les reprises sur panne, autoriser les groupes de paires clé-valeur, et gère mieux le parallélisme[4].
Serveur
[modifier | modifier le wikicode]Pour l'installer :
sudo apt-get install redis-server
Obtenir la version :
redis-server -v Redis server v=6.2.5 sha=00000000:0 malloc=jemalloc-5.1.0 bits=64 build=19d2f4c94e0b6820
Client
[modifier | modifier le wikicode]sudo apt-get install redis
Sur Docker PHP :
RUN pecl install redis \ && docker-php-ext-enable redis
Sur WAMP :
- Télécharger le .dll sur https://pecl.php.net/package/redis
- L'extraire dans le dossier correspondant à la version de PHP. Ex : bin\php\php8.2.0\ext
- L'activer dans php.ini.
- Redémarrer WAMP.
Ensuite on le voit dans phpinfo.
Commandes
[modifier | modifier le wikicode]Pour se loguer au serveur Redis :
telnet nom_du_serveur 6379
Les commandes Redis les plus utiles[5] :
Lecture
[modifier | modifier le wikicode]- MONITOR : suivre l'activité du serveur en temps réel.
- KEYS * : liste des clés.
- GET : affiche la valeur de la clé en paramètre (ou
nil
si elle n'existe pas). - MGET : affiche les valeurs des clés en paramètre.
- QUIT : quitter.
Écriture
[modifier | modifier le wikicode]- SET : définit une valeur associée à la clé en paramètre[6].
- EXPIRE : définit une durée avant expiration pour la clé en paramètre, en secondes.
- SETEX : SET + EXPIRE[7].
- DEL : supprimer par le nom complet de la clé.
- FLUSHALL : vider toute la base de données.
Exemple de reset mémoire depuis le shell :
echo "FLUSHALL" | nc -q 1 localhost 6379
redis-cli
[modifier | modifier le wikicode]Pour afficher les clés de la base en shell :
redis-cli KEYS '*'
Par défaut, redis-cli
pointe sur 127.0.0.1. Pour regarder une autre machine :
redis-cli -h redis.example.com KEYS '*'
Supprimer des clés par leurs noms[8] (exemple de celles qui ont le préfixe "users:") :
redis-cli KEYS "users:*" | xargs redis-cli DEL
ou :
redis-cli --scan --pattern users:* | xargs redis-cli DEL
Plusieurs bases
[modifier | modifier le wikicode]Chaque instance de Redis peut accueillir jusqu'à 16 bases de données[9].
Elles sont accessibles par un suffixe dans leur DSN. Par défaut, redis://localhost:6379
pointe sur la base zéro : redis://localhost/0:6379
.
Le serveur de mails Postfix
Le serveur de mail Postfix
[modifier | modifier le wikicode]Postfix est un serveur de mail écrit dans l'idée de remplacer Sendmail, serveur de mail historique de moins en moins utilisé car sa configuration est très complexe et qu'il contient des failles de sécurité.
Postfix effectue 99 % des fonctions de Sendmail, les 1% restant ne sont que purement applicable dans une minorité de cas. De plus, il allie performance et facilité d'installation et de paramétrage.
Il existe de nombreux autres serveurs de mails, parmi les plus connus : Qmail, Exim, Qpsmtpd, Courier...
Quelques définitions
[modifier | modifier le wikicode]- DNS : Domain Name System (port 53), pour convertir les adresses URL en adresses IP.
- SMTP : Simple Mail Transfer Protocol (port 25), pour l'envoi et l'acheminement du courrier.
- POP : Post Office Protocol (port 110), pour la réception du courrier.
- IMAP : Internet Message Access Protocol (port 143), sert à la réception du courrier. À la différence de POP, les emails restent stockés sur le serveur IMAP.
- MTA : Mail Transfer Agent. Il s'agit des serveurs de mails SMTP.
- MDA : Mail Delivery Agent. Il s'agit du serveur qui dépose les messages dans chaque boîte aux lettres (POP ou IMAP).
- MUA : Mail User Agent. Il s'agit des logiciels clients de messagerie, ex : Mozilla Thunderbird, Microsoft Outlook, KMail, Eudora, ou Evolution.
Comment ça marche ?
[modifier | modifier le wikicode]Schéma du cheminement des mails entre les correspondants (trois cas illustrés en fonction des moyens mis en œuvre). |
---|
Le schéma précédent nous propose trois cas de figure :
Cas numéro 1
[modifier | modifier le wikicode]- Nous avons deux sociétés : societe.com et client.com
- Paul (paul@societe.com) veut envoyer un mail à Pierre (pierre@client.com)
- Le mail part en direction du serveur SMTP de sa société (smtp.societe.com)
- Celui-ci est accepté par le serveur de mail smtp.societe.com car il vient de son propre réseau
- smtp.societe.com fait une demande au serveur DNS pour connaitre le serveur de mail qui gère les courriers de @client.com : client.com MX ? (Mail eXchanger)
- Le serveur DNS répond : smtp.client.com
- Le serveur de mail smtp.societe.com contacte donc le serveur SMTP smtp.client.com
- Lorsque le client de messagerie de Pierre veut consulter ces mails, il va demander à POP si il y a quelque chose pour lui et télécharge le mail de Paul
- Pierre a donc bien reçu le mail de Paul
- Pierre répond à Paul de la même manière
- Le mail suit le cheminement inverse : smtp.client.com demande au serveur DNS le serveur de messagerie de societe.com. Celui-ci lui répond : smtp.societe.com
- Le mail est acheminé vers le serveur SMTP smtp.societe.com
- Il est stocké jusqu'à la demande de Paul de lire ces mails. Contrairement à Pierre, le client de messagerie de Paul interroge le serveur IMAP imap.societe.com. La différence est que le mail de Pierre est lu directement depuis le serveur IMAP et reste stocké sur ce dernier
Cas numéro 2
[modifier | modifier le wikicode]- Notre ami Paul fait partie d'une association (asso.org) et dispose d'un email sur ce domaine : paul@asso.org
- L'association dispose d'un hébergement chez hebergeur.net qui lui fournit différents services serveur SMTP, POP, IMAP et accès webmail
- Paul utilise son email sur asso.org (paul@asso.org) pour envoyer un email à son ami Jack qui dispose aussi d'un email sur asso.org : jack@asso.org
- Ce mail est acheminé via son réseau vers son serveur SMTP. Dans son client Outlook, Paul a paramétré plusieurs comptes
- Le serveur de sa société (smtp.societe.com) accepte d'envoyer le mail sur Internet, même si l'email émetteur et le destinataire utilisent des noms de domaine différents, car il vient de son propre réseau
- Ce mail est donc envoyé au serveur SMTP asso.org : smtp.hebergeur.net
- Paul peut donc s'il le souhaite aller consulter ses mails sur asso.org via le serveur POP ou IMAP qui va rapatrier directement les mails paul@asso.org
Cas numéro 3
[modifier | modifier le wikicode]- Jack utilise une connexion à Internet fournie par un fournisseur d'accès à Internet : fai.fr. Pour lire son email sur asso.org (jack@asso.org), Jack utilise son navigateur Web et l'accès Webmail fournit par fai.fr
- Il se connecte donc sur l'adresse webmail.asso.org et peut ainsi visualiser ses mails. Aucun email ne sera rapatrié sur son PC.
- Il peut également répondre à tous ses mails via un Webmail.
Installation de Postfix
[modifier | modifier le wikicode]Installer en premier Postfix, si un autre serveur de mail est déjà présent, il le supprimera :
# apt-get install postfix
Pour l'instant, nous laissons toutes les options par défaut, nous allons le configurer par la suite.
Une fois l'installation terminée, nous allons configurer Postfix.
sudo adduser postfix sasl[10] sudo dpkg-reconfigure postfix
Configuration de Postfix
[modifier | modifier le wikicode]
Pour que cela fonctionne sur Internet, il faut que le nom local du serveur (hostname) soit le même que celui du réseau (défini dans les DNS). Dans cet exemple, il s'appellera mail.mondomaine.fr. De plus, il faut commenter la ligne ci-dessous mydestination
qui bride les envois vers l'extérieur.
Le fichier de configuration principal de Postfix est /etc/postfix/main.cf
. Copier le suivant en remplaçant mondomaine.fr
par le vrai domaine du serveur :
mv /etc/postfix/main.cf /etc/postfix/main.oldcf # Archivage
> /etc/postfix/main.cf # Blanchiment
vim /etc/postfix/main.cf # Accès pour coller la configuration ci-dessous
# Message affiché à la connexion
smtpd_banner = $myhostname ESMTP
# Ne pas utiliser le service biff qui sert à la notification
# des nouveaux mails
biff = no
# On ne rajoute pas le domaine car c'est le boulot du client mail
append_dot_mydomain = no
# Permet d'envoyer un email à l'émetteur si son mail n'est pas
# parti au bout d'un certain temps
#delay_warning_time = 4h
# Emplacement des alias Unix
# Attention, à chaque modification de /etc/aliases, il faut taper
# la commande newaliases pour qu'il régénère le fichier /etc/aliases.db
alias_maps = hash:/etc/aliases
alias_database = hash:/etc/aliases
# Le domaine d'origine
myorigin = /etc/mailname
# Le nom de machine FQDN (doit être en accord avec le DNS)
mydomain = mondomaine.fr
myhostname = mail.$mydomain
# Liste des domaines principaux dont on accepte le courrier
mydestination = $mydomain, $myhostname, localhost, localhost.$mydomain
# Permet d'indiquer un autre serveur SMTP pour l'envoi des emails
# Utilisé si on ne peut pas envoyer directement les emails
relayhost =
# Indique les réseaux dont on accepte d'acheminer les emails
#mynetworks = 127.0.0.0/8, 192.168.30.0/24
# Le dépôt des emails dans les boites aux lettres est confié
# à procmail (cas du format mbox)
mailbox_command = procmail -a "$EXTENSION"
# Taille des boites aux lettres. 0 : pas de limite
mailbox_size_limit = 0
# Séparateur utilisé pour les usernames + adresses
recipient_delimiter = +
# Écoute sur toutes les interfaces réseaux
inet_interfaces = all
# On force postfix à utiliser le protocole IPv4
inet_protocols = ipv4
On peut visualiser la totalité des options possibles de Postfix et leurs valeurs par défaut via la commande postconf :
# postconf | more
2bounce_notice_recipient = postmaster
access_map_reject_code = 554
address_verify_default_transport = $default_transport
address_verify_local_transport = $local_transport
address_verify_map =
address_verify_negative_cache = yes
address_verify_negative_expire_time = 3d
...
En français ça donne : délivre en local les emails vers mydestination
avec mailbox_command
, sinon délivre-les sur Internet mais en refusant ceux qui ne viennent pas de mynetworks
ou relayhost
(s'ils sont vides on accepte rien, s'ils sont commentés on accepte tout, même de relayer des spams).
Une fois main.cf
sauvegardé pour la première fois, on vérifie que le fichier /etc/mailname contient le nom de domaine de notre réseau :
# cat /etc/mailname mondomaine.fr
Chaque fois que l'on modifie le fichier /etc/postfix/main.cf, il faut relancer Postfix :
# /etc/init.d/postfix restart
Pour chaque mail envoyé ou reçu, Postfix enregistre les informations d'acheminement dans le fichier /var/log/mail.log. Il est donc très utile de surveiller ce fichier durant les tests de fonctionnement.
Pour vérifier que le serveur de mail fonctionne, on envoi un mail à un utilisateur et on regarde le fichier /var/log/mail.log.
# mail alex Subject: essai essai . Cc: CTRL+D
Dans un autre terminal :
# tail -f /var/log/mail.log ... Feb 13 13:10:40 mail postfix/pickup[13353]: B782A1FD6F: uid=0 from=<root> Feb 13 13:10:40 mail postfix/cleanup[13675]: B782A1FD6F: message-id=<20080213121040.B782A1FD6F@mail.mondomaine.fr> Feb 13 13:10:40 mail postfix/qmgr[13354]: B782A1FD6F: from=<root@mail.mondomaine.fr>, size=355, nrcpt=1 (queue active) Feb 13 13:10:40 mail postfix/local[13677]: B782A1FD6F: to=<alex@mail.mondomaine.fr>, orig_to=<alex>, relay=local, delay=0.08, delays=0.04/0.02/0/0.02, dsn=2.0.0, status=sent(delivered to command: procmail -a "$EXTENSION") Feb 13 13:10:40 mail postfix/qmgr[13354]: B782A1FD6F: removed ...
Ajouter une boite aux lettres
[modifier | modifier le wikicode]Pour ajouter une boite aux lettres, il existe trois solutions :
- Créer un compte Unix.
- Créer une adresse virtuelle.
- Créer un alias.
Les voici en lignes de commandes, mais elles sont aussi réalisables au moyen d'un webmail.
Nouveau compte système
[modifier | modifier le wikicode]Pour des raisons de sécurité, on positionne le shell de l'utilisateur à /bin/false (ainsi il ne pourra pas se logger sur le serveur). Le mot de passe saisi sera celui de sa boite aux lettres. On rajoute l'utilisateur dans le groupe mail afin qu'il puisse écrire le fichier <login>.lock dans le répertoire /var/mail.
# adduser --shell /bin/false --ingroup mail pierre
Adresse virtuelle
[modifier | modifier le wikicode]Activer la fonction dans :
vim /etc/postfix/main.cf
avec :
virtual_alias_maps = hash:/etc/postfix/virtual
Ensuite il faut définir les adresses emails dans /etc/postfix/virtual
, sous forme de paires clé-valeur[11] :
postmaster@mail.mondomaine.fr root
Puis créer la base de données à partir du fichier :
postmap /etc/postfix/virtual postfix reload
Alias
[modifier | modifier le wikicode]Pour éditer la liste des adresses emails alias de celles d'une boite :
vim /etc/aliases
Par exemple en y ajoutant les plus fréquents :
MAILER-DAEMON: root
postmaster: root
abuse: root
Ainsi, quelqu'un qui voudra reporter un problème à abuse@mondomaine.fr écrira dans la boite de root, ce qui sera visible par une notification à chaque fois que ce dernier se connectera en SSH.
Puis la commande newaliases
crée alors /etc/aliases.db
à partir de cette liste.
MDA : filtres de courrier électronique
[modifier | modifier le wikicode]Par défaut les emails des boites créées ci-dessus s'empilent tous dans un fichier de /var/mail/
. Afin de les router vers des boites mails séparées, on utilise un ou plusieurs[12] logiciels Mail Delivery Agent.
- Pour les transferts locaux (vers une boite mail personnelle du serveur), ils utilisent le protocole LMTP.
- Pour les transferts distants (vers un client de messagerie), il faut choisir entre le protocole POP3 (qui déplace les emails vers le client) et IMAP (qui laisse une copie des emails sur le serveur).
Voici plusieurs exemples de MDA :
procmail
[modifier | modifier le wikicode]Pour installer procmail[13][14] :
$ sudo apt-get install procmail
$ vim ~/.forward
"|IFS=' '&&exec /usr/bin/procmail -f-||exit 75 #user"
$ vim ~/.procmailrc
PATH=/usr/bin:/usr/local/bin
MAILDIR=$HOME/Maildir
$ maildirmake ~/Maildir
- En remplaçant user par l'utilisateur du processus.
- Sur Ubuntu il s'installe dans
/usr/bin/procmail
, mais d'autres distributions nécessitent d'adapter ce chemin ci-dessus.
Explications :
- Le fichier utilisateur
.forward
permet d'insérer le filtrageprocmail
dans le parcours des emails à destination de cet utilisateur. - Le fichier
.procmailrc
configure le filtrage pour l'utilisateur concerné. maildirmake
crée l'arborescence nécessaire à l'accueil des emails :new
(nouveau) : boite de réception.cur
(courante) : boite courante.tmp
(temporaire) : mails en transit.
Pour voir s'il fonctionne, envoyer un email à l'utilisateur configuré ci-dessus, puis regarder s'il est arrivé :
ls -alh /home/user/Maildir/new/
En cas de problème :
tail /var/log/mail.log
fetchmail
[modifier | modifier le wikicode]Pour installer fetchmail :
apt-get install fetchmail
Il se configure avec :
vim ~/.fetchmailrc
On peut par exemple lui dire de tout transférer vers procmail en y ajoutant :
mda "/usr/bin/procmail -Y -d %T"
Ou bien lui faire récupérer directement des boites utilisateurs distantes avec :
poll example.com protocol pop3 username "user1" password "password1"
La ligne mailbox_command
du fichier /etc/postfix/main.cf
doit pointer vers procmail, qui reroute ensuite vers fetchmail.
fetchmail peut récupérer les emails de fournisseurs externes, tels que Gmail, Yahoo ou Outlook.com, par cron. C'est un mail retrieval agent (MRA).
Dovecot
[modifier | modifier le wikicode]En plus d'un MDA intégré, Dovecot intègre un serveur POP ou IMAP.
Tout comme pour fetchmail, il peut fonctionner en aval de procmail. Toutefois, il est possible de remplacer procmail par Dovecot dans /etc/postfix/main.cf
[15] :
mailbox_command = /usr/local/libexec/dovecot/dovecot-lda -f "$SENDER" -a "$RECIPIENT"
pour Ubuntu :
mailbox_command = /usr/lib/dovecot/dovecot-lda -f "$SENDER" -a "$RECIPIENT"
Ensuite, l'installation de Dovecot dépend du protocole souhaité dans le MUA qui viendra relever le courrier :
Serveur POP
[modifier | modifier le wikicode]apt-get install dovecot-pop3d
Serveur IMAP
[modifier | modifier le wikicode]apt-get install dovecot-imapd
IMAP nécessite le format de stockage Maildir. Nous allons donc tout d'abord configurer Postfix pour lui indiquer d'utiliser le format Maildir au lieu du traditionnel mbox.
On modifie le fichier /etc/postfix/main.cf
. On commente l'option mailbox_command (qui appelle procmail) et on rajoute l'option home_mailbox :
vim /etc/postfix/main.cf
# Commenter la ligne :
#mailbox_command = procmail -a "$EXTENSION"
# Puis pour utiliser le format Maildir, ajouter :
home_mailbox = Maildir/
On relance postfix :
# /etc/init.d/postfix restart
Pour chaque utilisateur existant, il faut ensuite créer le répertoire Maildir. On fait ceci à l'aide de la commande maildirmake fournie par dovecot-imapd ou courrier-imap :
$ cd # pour retourner dans mon home directory
$ maildirmake Maildir
$ ls -l Maildir
drwx------ 2 alex grpalex 4096 2008-02-13 13:58 cur
drwx------ 2 alex grpalex 4096 2008-02-13 13:58 new
drwx------ 2 alex grpalex 4096 2008-02-13 14:11 tmp
Pour automatiser la création du répertoire Maildir pour les nouveaux utilisateurs, on exécute la commande maildirmake dans le répertoire /etc/postmaster. Ainsi tous les nouveaux utilisateurs auront automatiquement le répertoire Maildir dans leur home directory :
# cd /etc/postmaster
# maildirmake Maildir
Webmails
[modifier | modifier le wikicode]
Par défaut les webmails cherchent les courriels dans le dossier définit dans le serveur POP ou IMAP, et qui peut être différent de là où ils sont distribués.
Par exemple pour la configuration ci-dessus avec Dovecot, /etc/dovecot/conf.d/10-mail.conf
doit contenir mail_location = maildir:/home/%u/Maildir
.
SquirrelMail
[modifier | modifier le wikicode]SquirrelMail est un webmail très simple à installer, qui fonctionne sans SGBD. Outre les envois et réceptions d'emails, il permet d'archiver en créant ou supprimant des dossiers.
Si n'est déjà le cas, on installe le serveur Web Apache :
# apt-get install apache2
Pour installer SquirrelMail sous Debian, on tape la commande suivante :
# apt-get install squirrelmail
On peut configurer Squirrelmail en utilisant le programme squirrelmail-configure. Ce fichier permet configurer le fichier /etc/squirrelmail/config.php. À noter que l'on peut modifier directement ce fichier sans passer par squirrelmail-configure.
SquirrelMail est fourni avec la section à rajouter à Apache pour l'activer. On va donc dans le répertoire de configuration de Apache pour lui indiquer d'utiliser ce fichier :
# ln -s /etc/squirrelmail/apache.conf /etc/apache2/conf.d/squirrelmail.conf
On relance Apache :
# /etc/init.d/apache2 restart
On peut tester si SquirrelMail fonctionne avec son navigateur en se connectant à l'URL suivante :
http://localhost/squirrelmail/
Postfixadmin
[modifier | modifier le wikicode]Postfixadmin est un webmail qui fonctionne avec MySQL.
apt-get install postfixadmin
Roundcube
[modifier | modifier le wikicode]Roundcube est un webmail qui fonctionne avec MySQL, PostgreSQL, SQLite ou MSSQL. Il est très ergonomique (glisser-déposer, effacement en masse avec Maj + clic puis Suppr), plus graphique mais plus lent et moins stable que SquirrelMail.
apt-get install roundcube roundcube-mysql
php5enmod mcrypt
/etc/init.d/apache2 restart
Et voilà : http://localhost/roundcube
Configuration pour des envois distants
[modifier | modifier le wikicode]Pour que les emails ne soient pas directement écartés ou classés dans les spams par les serveurs de messagerie des destinataires, il faut impérativement montrer patte-blanche de plusieurs façons :
- Règle de reverse DNS.
- Règle DNS SPF (1 ou 2[16]).
- Règle DNS DMARC.
- Signature DKIM dans chaque email[17] correspondant à l'enregistrement DNS TXT dédié.
- Absence de blacklistage sur l'adresse IP publique du SMTP[18].
- Optimisation du ratio texte / image à 60 / 40 %[19].
Un serveur de messagerie qui accepte d'envoyer des emails pour le compte de n'importe qui se retrouvera rapidement blacklisté par des organismes antispams, dont les listes sont utilisées par de nombreux serveurs MX. Et cela peut coûter de l'argent pour se déblacklister. Pour s'en prémunir, il est donc très fortement recommandé de laisser le paramètre relayhost =
non commenté.
Sécurisation TLS
[modifier | modifier le wikicode]Tout d'abord, il faut générer une clé de cryptage asymétrique, puis indiquer son chemin dans main.cf
:
# Paramètres liés au chiffrement TLS
smtpd_tls_cert_file=/etc/ssl/certs/ssl-cert-snakeoil.pem
smtpd_tls_key_file=/etc/ssl/private/ssl-cert-snakeoil.key
smtpd_use_tls=yes
smtpd_tls_session_cache_database = btree:${queue_directory}/smtpd_scache
smtp_tls_session_cache_database = btree:${queue_directory}/smtp_scache
# See /usr/share/doc/postfix/TLS_README.gz in the postfix-doc package for
# information on enabling SSL in the smtp client.
En cas d'erreur, on peut vérifier sa mise en place avec
openssl s_client -debug -starttls smtp -crlf -connect localhost:25
Pour plus d'information sur les certificats .pem, voir Apache/HTTPS.
Références
[modifier | modifier le wikicode]- ↑ « Amplification d'attaque DDoS : Memcached fait exploser les compteurs » (consulté le 19 octobre 2018)
- ↑ https://github.com/memcached/memcached/wiki/Commands
- ↑ https://aws.amazon.com/fr/elasticache/redis-vs-memcached/
- ↑ https://www.disko.fr/reflexions/technique/redis-vs-memcached/
- ↑ https://redis.io/commands
- ↑ https://redis.io/commands/set/
- ↑ https://redis.io/commands/setex/
- ↑ https://rdbtools.com/blog/redis-delete-keys-matching-pattern-using-scan/
- ↑ https://www.mikeperham.com/2015/09/24/storing-data-with-redis/
- ↑ http://doc.ubuntu-fr.org/postfix
- ↑ https://www.digitalocean.com/community/tutorials/how-to-install-and-setup-postfix-on-ubuntu-14-04
- ↑ http://www.troubleshooters.com/lpm/201202/images/dovecot_setup.png
- ↑ « Utilisation simple de procmail »
- ↑ (en) « A Quick, Practical Procmail Guide »
- ↑ http://wiki.dovecot.org/LDA/Postfix
- ↑ http://www.clickz.com/clickz/column/1695095/hotmail-delivery-tips-sender-id-spf
- ↑ https://www.isalo.org/wiki.debian-fr/Amavisd-new_et_DKIM
- ↑ http://whatismyipaddress.com/blacklist-check
- ↑ http://themediaonline.co.za/2011/07/the-five-rules-of-designing-email/
Les annuaires LDAP
Configuration
[modifier | modifier le wikicode]Pour Debian Squeeze le fichier slapd.conf se situe dans /usr/share/doc/slapd/examples/slapd.conf. Il faut donc changer son emplacement avec cp /usr/share/doc/slapd/examples/slapd.conf /etc/ldap/. Puis modifier le fichier /etc/default/slapd et changer la ligne 'SLAPD_CONF=/etc/ldap/slapd.conf'.
La configuration de OpenLDAP se situe dans le fichier /etc/ldap/slapd.conf :
# more /etc/ldap/slapd.conf
# Les schémas à inclure à l'annuaire
include /etc/ldap/schema/core.schema
include /etc/ldap/schema/cosine.schema
include /etc/ldap/schema/nis.schema
include /etc/ldap/schema/inetorgperson.schema
# le fichier contenant le PID du processus
pidfile /var/run/slapd/slapd.pid
# Le fichier contenant les arguments
argsfile /var/run/slapd/slapd.args
# La facilité utilisée avec syslog
loglevel none
# Emplacement des modules
modulepath /usr/lib/ldap
# Chargement de modules permettant d'étendre les fonctionnalités de OpenLDAP
moduleload back_hdb
# Limites concernant les recherches
sizelimit 500
tool-threads 1
##################################
# Définition du premier annuaire #
##################################
# On utilise un stockage basé sur le format de fichier '''HDB'''
backend hdb
database hdb
# On définit la ''racine'' de l'arbre (on parle de ''suffixe'' ou de ''basedn'')
suffix "dc=domaine,dc=fr"
# Répertoire stockant les données de l'annuaire, dans notre cas, des fichiers au format '''HDB'''
directory "/var/lib/ldap"
# L'administrateur de l'annuaire
rootdn "cn=admin,dc=domaine,dc=fr"
rootpw motdepasse # en clair ou généré via la commande '''slappasswd'''
# Des paramètres d'optimisation du format HDB
dbconfig set_cachesize 0 2097152 0
dbconfig set_lk_max_objects 1500
dbconfig set_lk_max_locks 1500
dbconfig set_lk_max_lockers 1500
# Les attributs à indexer en vue d'améliorer drastiquement les recherches
index objectClass eq
# à commenter ...
lastmod on
checkpoint 512 30
# contrôle d'accès aux attributs sensibles
access to attrs=userPassword,shadowLastChange
by dn="cn=admin,dc=domaine,dc=fr" write
by anonymous auth
by self write
by * none
# Annuaire avec accès anonyme en lecture seule
access to dn.base="" by * read
access to *
by dn="cn=admin,dc=domaine,dc=fr" write
by * read
Après chaque modification de ce fichier, on relance OpenLDAP avec la commande suivante :
# /etc/init.d/slapd restart
Création de l'annuaire
[modifier | modifier le wikicode]On crée le fichier LDIF qui va initialiser le sommet de l'arbre :
# cat cree_arbre.ldif dn: dc=domaine,dc=fr objectClass: top objectClass: dcObject objectClass: organization dc: domaine o: domaine
On injecte le fichier LDIF dans l'annuaire via la commande ldapadd :
# ldapadd -x -h localhost -W -D "cn=admin,dc=domaine,dc=fr" -f cree_arbre.ldif Enter LDAP Password: adding new entry "dc=domaine,dc=fr"
Pour créer les autres entrées, on peut désormais utiliser PhpLdapAdmin.
Les commandes d'administration OpenLDAP
[modifier | modifier le wikicode]Les programmes complémentaires
[modifier | modifier le wikicode]Les outils en ligne de commande
[modifier | modifier le wikicode]NB : les commandes suivantes sont fournies par le paquet Debian ldap-utils. Elles disposent des options génériques suivantes :
- -h <adresse IP ou nom> : permet d'indiquer le serveur hébergeant l'annuaire LDAP
- -x : on utilise l'authentification simple et non l'authentification TLS/SSL.
- -b <basedn> : permet d'indiquer l'annuaire à consulter (le basedn ou suffix)
- -D <dn d'un objet> : permet de s'authentifier avec le DN indiqué
- -W : demande la saisie du mot de passe du DN précédemment indiqué
- -f <fichier LDIF> : permet d'indiquer un fichier LDIF
ldapadd
[modifier | modifier le wikicode]La commande ldapadd permet d'ajouter des entrées dans l'annuaire LDAP.
Prenons par exemple le fichier LDIF suivant qui crée le suffixe (le basedn) de notre annuaire :
# cat cree_arbre.ldif dn: dc=domaine,dc=fr objectClass: top objectClass: dcObject objectClass: organization dc: domaine o: domaine
Pour injecter ce fichier LDIF dans notre annuaire :
# ldapadd -x -h localhost -D "cn=admin,dc=domaine,dc=fr" -f cree_arbre.ldif -W
Si tout se passe bien, vous devez voir des lignes :
adding new entry "dc=domaine,dc=fr"
ldapsearch
[modifier | modifier le wikicode]La commande ldapsearch permet d'interroger l'annuaire LDAP.
Affiche toutes les entrées de l'annuaire :
# ldapsearch -x -h localhost -b "dc=domaine,dc=fr"
Affiche les attributs de l'utilisateur bob via l'utilisation d'un filtre :
# ldapsearch -LLL -x -h localhost -b "dc=domaine,dc=fr" "(cn=bob)"
Affiche uniquement les attributs uid et homeDirectory de l'utilisateur bob :
# ldapsearch -LLL -x -h localhost -b "dc=domaine,dc=fr" "(cn=bob)" uid homeDirectory
ldapdelete
[modifier | modifier le wikicode]La commande ldapdelete permet de supprimer une entrée de l'annuaire LDAP. On indique à cette commande le(s) dn(s) à supprimer.
Supprime l'utilisateur bob :
# ldapdelete -x -h localhost -D "cn=admin,dc=domaine,dc=fr" -W "cn=bob,ou=People,dc=domaine,dc=fr"
ldapmodify
[modifier | modifier le wikicode]La commande ldapmodify permet de modifier une entrée de l'annuaire LDAP.
ldapmodrdn
[modifier | modifier le wikicode]La commande ldapmodrdn permet de renommer une entrée de l'annuaire LDAP. Cette opération revient à changer le dn (distinguished name) d'une entrée.
ldapcompare
[modifier | modifier le wikicode]La commande ldapcompare permet de comparer des entrées de l'annuaire LDAP.
ldappasswd
[modifier | modifier le wikicode]La commande ldappasswd permet de changer le mot de passe d'une entrée de l'annuaire LDAP.
ldapwhoami
[modifier | modifier le wikicode]La commande ldapwhoami permet de connaître avec quelle identité on est connecté à l'annuaire LDAP, c'est l'équivalent de la commande Unix whoami.
slapadd est utilisé pour ajouter des entrées spécifiées dans le format LDAP Directory Interchange Format (LDIF) dans une base de données slapd.
slapcat est utilisé pour générer une sortie LDIF LDAP basé sur le contenu d'une base de données slapd.
slapd est un serveur LDAP autonome.
slapindex est utilisé pour regénérer les index de slapd suivant le contenu actuel d'une base de données.
slurpd est un serveur réplicat autoname pour LDAP.
PhpLdapAdmin
[modifier | modifier le wikicode]PhpLdapAdmin est un logiciel qui permet d'administrer un annuaire LDAP via une interface Web.
Installation :
# apt-get install phpldapadmin
Configuration :
PhpLdapAdmin s'est configuré avec l'annuaire définit par défaut dans OpenLDAP. Si on a changé ce dernier, il faut modifier les deux lignes suivantes dans la configuration de PhpLdapAdmin :
# vi /etc/phpldapadmin/config.php ... $ldapservers->SetValue($i,'server','base',array('dc=domaine,dc=fr')); $ldapservers->SetValue($i,'login','dn','cn=admin,dc=domaine,dc=fr'); ...
À chaque modification de ce fichier, il est préférable de redémarrer apache :
# /etc/init.d/apache2 restart
Accès à PhpLdapAdmin : http://localhost/phpldapadmin/
La réplication LDAP
[modifier | modifier le wikicode]Configuration du provider LDAP
[modifier | modifier le wikicode]On modifie le fichier /etc/ldap/slapd.conf du provider LDAP pour indiquer l'annuaire à répliquer, on rajoute les lignes en gras dans la configuration de l'annuaire et on modifie les attributs à indexer :
# vi /etc/ldap/slapd.conf ... # On indique à OpenLDAP de charger le module # permettant la réplication moduleload syncprov.la ... database bdb suffix dc=domaine,dc=fr rootdn dc=domaine,dc=fr directory /var/ldap/db index objectclass,entryCSN,entryUUID eq overlay syncprov syncprov-checkpoint 100 10 syncprov-sessionlog 100
Configuration du consumer LDAP
[modifier | modifier le wikicode]On modifie /etc/ldap/slapd.conf du second OpenLDAP (le consumer) pour lui indiquer l'annuaire à répliquer et l'adresse du premier OpenLDAP (le provider).
# vi /etc/ldap/slapd.conf ... database hdb suffix dc=domaine,dc=fr rootdn dc=domaine,dc=fr directory /var/lib/ldap2 index objectclass,entryCSN,entryUUID eq syncrepl rid=123 provider=ldap://<adresse IP ou nom du provider LDAP>:389 type=refreshOnly interval=00:00:00:10 searchbase="dc=domaine,dc=fr" filter="(objectClass=*)" scope=sub attrs="*" schemachecking=off bindmethod=simple binddn="cn=admin,dc=domaine,dc=fr" credentials=admin
Il faut ensuite créer le répertoire du nouvel annuaire et le donner à l'utilisateur et au groupe openldap :
# mkdir /var/lib/ldap2 # chown openldap.openldap /var/lib/ldap2
Il ne reste plus qu'à relancer OpenLDAP :
# /etc/init.d/slapd restart
Validation de la réplication
[modifier | modifier le wikicode]L'objectif est de constater la réplication des objets de l'annuaire.
Procédure n°1 : validation de l'ajout de données sur le réplicat
[modifier | modifier le wikicode]Coté Provider
[modifier | modifier le wikicode]- on crée un fichier LDIF contenant l'utilisateur à rajouter
# cat bob.ldif dn: cn=bob,ou=People,dc=domaine,dc=fr objectClass: inetOrgPerson objectClass: posixAccount objectClass: top givenName: Eponge sn: Eponge cn: bob uid: bob userPassword: {MD5}F7WfMlfPOGcecKZLEkmjTA== uidNumber: 1001 gidNumber: 1001 homeDirectory: /home/bob loginShell: /bin/sh mail: bob@domaine.fr
- on injecte ce fichier LDIF dans notre annuaire
# ldapadd -x -h localhost -D "cn=admin,dc=domaine,dc=fr" -f bob.ldif -W
- on vérifie que l'utilisateur a bien été créé
# ldapsearch -LLL -x -h localhost -b "dc=domaine,dc=fr" "(cn=bob)"
Coté Consumer
[modifier | modifier le wikicode]- on attend quelques secondes et on constate que l'utilisateur a bien été créé sur le réplicat
# ldapsearch -LLL -x -h localhost -b "dc=domaine,dc=fr" "(cn=bob)"
Procédure n°2 : validation de la suppression de données sur le réplicat
[modifier | modifier le wikicode]Coté Provider
[modifier | modifier le wikicode]- on supprime l'utilisateur de notre annuaire
# ldapdelete -x -h localhost -D "cn=admin,dc=domaine,dc=fr" -W "cn=bob,ou=People,dc=domaine,dc=fr"
- on vérifie que l'utilisateur a bien été supprimé
# ldapsearch -LLL -x -h localhost -b "dc=domaine,dc=fr" "(cn=bob)"
Coté Consumer
[modifier | modifier le wikicode]- on attend quelques secondes et on constate que l'utilisateur a bien été supprimé sur le réplicat
# ldapsearch -LLL -x -h localhost -b "dc=domaine,dc=fr" "(cn=bob)"
La supervision
Nagios
[modifier | modifier le wikicode]Nagios s'installe assez facilement pour surveiller, archiver et représenter les périodes où les machines sont en ligne, leurs services sont lancés et leurs ressources disponibles[1] :
Il peut ainsi prévenir automatiquement par email, chaque contact associé à une machine quand l'état d'un service change (ex : processeur saturé, disque dur plein à 90 %, page web inaccessible...).
Installation du serveur
[modifier | modifier le wikicode]Le paquet Ubuntu s'arrête à la version 3 :
apt-get install nagios3
Sinon, pour être sûr d'obtenir la dernière version, il est possible de récupérer le tarball en renseignant son nom sur le site officiel[2], puis de l'installer à partir de l'étape 2 en root :
wget https://assets.nagios.com/downloads/nagioscore/releases/nagios-4.0.8.tar.gz
useradd nagios
groupadd nagcmd
usermod -a -G nagcmd nagios
tar xzf nagios-4.0.8.tar.gz
cd nagios-4.0.8
./configure --with-command-group=nagcmd
make all
make install
make install-init
make install-config
make install-commandmode
/etc/init.d/nagios start
Enfin, pour ajouter un service à monitorer, il suffit de modifier les fichiers .cfg.
Interface graphique
[modifier | modifier le wikicode]Le portail web (ex : http://127.0.0.1/nagios/) a pour prérequis Apache. Il s'installe comme suit :
make install-webconf
htpasswd -c /usr/local/nagios/etc/htpasswd.users nagiosadmin
/etc/init.d/apache2 reload
Par défaut il est protégé par le mot de passe du compte nagiosadmin.
Par ailleurs, la page d'accueil par défaut ne montrant pas les services monitorés, il peut être rentable d'utiliser http://127.0.0.1/nagios/?corewindow=/nagios/cgi-bin/status.cgi?host=all
à la place.
Le menu Map permet un affichage sous forme de carte :
Fichiers de configuration .cfg
[modifier | modifier le wikicode]Pour configurer ce que Nagios doit surveiller, on doit éditer les fichiers de configuration .cfg importés depuis /usr/local/nagios/etc/nagios.cfg
(généralement tout ce qui est dans /usr/local/nagios/etc/objects/).
Que la surveillance soit opérationnelle, ces fichiers doivent comporter les quatre objets suivants[3] (par défaut le classement est d'un type d'objet par fichier mais un .cfg peut tous les contenir) :
define command {
command_name
command_line
}
define service {
use
host_name
service_description
check_command
}
define host {
use
host_name
alias
address
check_command
}
define contact {
name
}
L'objet commande pointe sur le fichier exécutable du système d'exploitation qui sera exécuté par Nagios (en Shell, Perl, Java, Python...). Ex :
define command {
command_name check_sftp
command_line java -jar $USER1$/check_sftp.jar -port=22 -t=10 -temp=/tmp/ -host=$ARG1$ -user=$ARG2$ -pwd=$ARG3$ -warning=$ARG4$ -critical=$ARG5$
}
Plusieurs objets services peuvent ensuite appeler une même commande avec différents arguments (ex : SFTP du serveur 1, du serveur 2...).
Nagios 3
[modifier | modifier le wikicode]cd /etc/nagios3/conf.d
vim localhost_nagios2.cfg # (ajouter la machine)
vim hostgroups_nagios2.cfg # (définir l'emplacement de la machine sur le site Nagios)
vim services_nagios2.cfg # (préciser ce qu'il faut surveiller sur la machine, ex : HTTP)
/etc/init.d/nagios3 restart
Nagios 4
[modifier | modifier le wikicode]cd /usr/local/nagios/etc/objects
vim localhost.cfg
/etc/init.d/nagios restart
Avant de mettre à jour Nagios ou Linux, bien sauvegarder la configuration de /usr/local/nagios/etc/
(ou /etc/nagios3/
) selon la version.
Plugins
[modifier | modifier le wikicode]Les plugins permettent de monitorer plus de services, ils sont téléchargeables depuis https://www.nagios.org/download/plugins :
tar xzf nagios-plugins-2.0.3.tar.gz
cd nagios-plugins-2.0.3
./configure --with-nagios-user=nagios --with-nagios-group=nagios
make
make install
Addons
[modifier | modifier le wikicode]Les addons ajoutent des fonctionnalités supplémentaires, comme des représentations graphiques : https://www.nagios.org/download/addons/.
Surveillance SFTP
[modifier | modifier le wikicode]Test de formulaire HTML
[modifier | modifier le wikicode]Installation d'un client
[modifier | modifier le wikicode]Il suffit d'installer http://www.nsclient.org/ en administrateur sur la machine à surveiller. Parfois le pare-feu doit être ouvert sur le port 5666 ou 12489.
Sur Ubuntu : apt-get install xinetd
.
Références
[modifier | modifier le wikicode]- ↑ https://library.nagios.com/library/products/nagioscore/manuals/
- ↑ https://www.nagios.org/download/core/
- ↑ http://doc.ubuntu-fr.org/nagios
Voir aussi
[modifier | modifier le wikicode]
Installation d'un service en mode chroot
La commande chroot permet de faire fonctionner des applications Linux dans un environnement protégé. En fonctionnant dans un "root directory" virtuel, les applications sont alors cloisonnées dans un espace qui leur est propre, évitant ainsi les éventuels méfaits commis à l'encontre du système en cas d'infraction.
chroot est un outil GNU faisant partie de GNU Core Utilities, plus précisément des shellutils.
Protection avec iptables
Iptables est un outil permettant de paramétrer Netfilter le filtre de paquet intégré à Linux.
Principe des tables
[modifier | modifier le wikicode]Netfilter utilise une liste de règles inscrites dans trois tables : INPUT, OUTPUT, FORWARD.
Le paquet arrivant est voué à:
- soit être filtré suivant les règle de la table INPUT pour être utilisé par un processus de la machine
- soit être transféré à une autre machine en respectant les règle de la table FORWARD
- soit quitter la machine dans les condition de la table OUTPUT
Le but est donc de modifier les tables en ajoutant et supprimant des règles dans les différentes tables. pour cela nous utilisons la commande iptables.
Syntaxe globale
[modifier | modifier le wikicode]#iptables <une action sur une table de netfilter> <la table en question> <condition(s) d'application> -j <action sur le paquet>
#exemple iptables -A INPUT --p icmp -j ACCEPT #on ajoute à la table INPUT la règle ACCEPT pour les paquet icmp (ping) entrant, #bien entendu il faut aussi accepter les paquet sortants. D'où : iptables -A OUTPUT --p icmp -j ACCEPT
Les actions sur les tables
[modifier | modifier le wikicode]Le principe
[modifier | modifier le wikicode]Par défaut, iptables est composé de 3 catégories appelées "chaînes" (chain) :
- INPUT : Chaîne où l'on règle le trafic entrant.
- FORWARD : Chaîne où l'on règle le trafic qui sera redirigé.
- OUTPUT : Chaîne où l'on règle le trafic sortant.
À chaque chaîne est attribuée une "politique" (policy), les deux principales sont :
- ACCEPT : Politique d'acceptation. Par défaut, tout ce qui n'est pas dans la chaîne est accepté.
- DROP : Politique de refus. Par défaut, tout ce qui n'est pas dans la chaîne sera rejeté. (utile pour filtrer les connections entrantes)
Un exemple concret. Par défaut, si vous n'avez jamais touché à votre iptables, voici ce que vous devez avoir :
# iptables -L Chain INPUT (policy ACCEPT) target prot opt source destination Chain FORWARD (policy ACCEPT) target prot opt source destination Chain OUTPUT (policy ACCEPT) target prot opt source destination
On constate ici que rien n'est sécurisé : tout entre (Chain INPUT, policy ACCEPT), tout sort (Chain OUTPUT, policy ACCEPT).
Réglage simple
[modifier | modifier le wikicode]Tout d'abord, si votre iptables ne ressemble pas à l'exemple ci-dessus, ou tout simplement si vous souhaitez réinitialiser vos réglages, tapez ces commandes :
# iptables -F (Efface toutes les règles définies par l'utilisateur) # iptables -X (Efface toutes les chaînes définies par l'utilisateur)
Les commandes de base :
Les règles sont lues dans un ordre précis. De la première vers la dernière. De cette manière, dans l'hypothèse où la première règle interdit une connexion alors que la suivante l'autorise, la connexion sera interdite.
- APPEND : Ajouter une règle dans une chaîne. La règle ainsi créée s'ajoute après la dernière règle.
# iptables -A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT (Ajoute une règle dans la chaîne INPUT. L'exemple sera détaillé plus loin.)
- INSERT : Insère une règle dans une chaîne. La règle ainsi créée s'ajoute avant la première règle.
# iptables -I INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT (Insère une règle au début de la chaîne INPUT. L'exemple sera détaillé plus loin.)
- LIST : Liste les règles existant dans toutes les chaînes.
# iptables -L Chain INPUT (policy DROP) target prot opt source destination ACCEPT all -- anywhere anywhere state RELATED,ESTABLISHED ACCEPT tcp -- anywhere anywhere tcp dpt:ssh ACCEPT tcp -- anywhere anywhere tcp dpt:www ACCEPT icmp -- anywhere anywhere ACCEPT tcp -- anywhere anywhere tcp dpt:pop3s Chain FORWARD (policy ACCEPT) target prot opt source destination Chain OUTPUT (policy ACCEPT) target prot opt source destination
- DELETE : Supprime une règle d'une chaîne.
# iptables -D INPUT 2 (Supprime la règle n°2 de la chaîne INPUT.)
- POLICY : Configure la politique d'une chaîne.
# iptables -P INPUT DROP (Passe la politique de la chaîne INPUT en DROP. Toutes les connections seront rejetées par défaut.)
Créer une configuration de base :
Nous allons autoriser une connexion déjà établie (ESTABLISHED) à recevoir du trafic.
# iptables -A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT
Autorisons maintenant le trafic sur deux ports utilisés par des services très répandus / utilisés. Bien évidemment à vous de faire le tri en fonction de ce que vous utilisez ou non.
- Trafic SSH :
# iptables -A INPUT -p tcp -i eth0 --dport ssh -j ACCEPT
- Trafic Web :
# iptables -A INPUT -p tcp -i eth0 --dport 80 -j ACCEPT
- Requêtes Ping :
# iptables -A INPUT -p icmp -j ACCEPT
- Trafic Local :
# iptables -I INPUT 2 -i lo -j ACCEPT Nous insérons cette règle en deuxième position afin qu'elle prime sur les autres. Comme il a déjà été dit plus haut, les règles sont parcourues de haut en bas.
Voici ce que vous devriez avoir pour l'instant si vous listez les filtres (l'option -v permet de voir sur quelle interface la règle est appliquée) :
# iptables -L -v Chain INPUT (policy ACCEPT 155 packets, 21332 bytes) pkts bytes target prot opt in out source destination 20 1562 ACCEPT all -- any any anywhere anywhere state RELATED,ESTABLISHED 0 0 ACCEPT all -- lo any anywhere anywhere 0 0 ACCEPT tcp -- eth0 any anywhere anywhere tcp dpt:ssh 0 0 ACCEPT tcp -- eth0 any anywhere anywhere tcp dpt:http 0 0 ACCEPT icmp -- any any anywhere anywhere Chain FORWARD (policy ACCEPT 0 packets, 0 bytes) pkts bytes target prot opt in out source destination Chain OUTPUT (policy ACCEPT 343 packets, 59235 bytes) pkts bytes target prot opt in out source destination
Comme vous pouvez le constater, la politique est une politique d'acceptation (policy ACCEPT). Donc tous les paquets entrent sans restriction. En résumé, jusque là, nos modifications n'ont servies à rien. Nous allons donc devoir modifier la politique en politique de refus (policy DROP).
# iptables -P INPUT DROP
La modification est effective immédiatement. À partir de maintenant, seuls les paquets TCP entrants sur les ports 80, 22 ainsi que les requêtes ICMP sont acceptés.
Ces modifications ne seront pas prises en compte au redémarrage. Il faut pour cela créer un fichier script contenant toutes les commandes précédentes.
#!/bin/sh
iptables -A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT
iptables -A INPUT -p tcp -i eth0 --dport ssh -j ACCEPT
iptables -A INPUT -p tcp -i eth0 --dport 80 -j ACCEPT
iptables -A INPUT -p icmp -j ACCEPT
iptables -I INPUT 2 -i lo -j ACCEPT
iptables -P INPUT DROP
Créez ce fichier dans le répertoire /etc/init.d/ et n'oubliez pas de le rendre exécutable (chmod 700 nom_du_fichier
).
Enfin, utilisez la commande update-rc.d afin que ce script soit exécuté au démarrage.
# update-rc.d nom_du_fichier defaults
Logs
[modifier | modifier le wikicode]Par défaut, les journaux d'iptables ne renseignent pas les actions effectuées par le par-feu. Pour les obtenir, il faut définir un niveau de log, par exemple[1] :
iptables -t filter -A FORWARD -p all -j LOG --log-level debug iptables -t filter -A INPUT -p all -j LOG --log-level debug iptables -t filter -A OUTPUT -p all -j LOG --log-level debug
Ensuite les opérations sont visibles dans le syslog.
Conditions
[modifier | modifier le wikicode]Adresses IP et ports en destination et en source
[modifier | modifier le wikicode]Pour sécuriser un serveur FTP, en n'autorisant que son adresse IP et interdisant toutes les autres à se connecter à Linux sur le port 21 :
iptables -A INPUT -i eth0 -p tcp --dport 21 -s 144.76.38.140 -j ACCEPT
iptables -A INPUT -i eth0 -p tcp --dport 21 -j DROP
Limites
[modifier | modifier le wikicode]Pour se prémunir des attaques DDoS on peut limiter le trafic à un certain nombre de connexions par minute sur un port :
iptables -A INPUT -p tcp --dport 80 -m state --state NEW -m limit --limit 500/minute --limit-burst 2000 -s 144.76.38.140 -j ACCEPT
Protocoles
[modifier | modifier le wikicode]États
[modifier | modifier le wikicode]Suivi
[modifier | modifier le wikicode]conntrack
Les actions sur les paquets
[modifier | modifier le wikicode]Références
[modifier | modifier le wikicode]
Erreurs connues
Messages d'erreurs avec solutione connue.
E667: Fsync failed
[modifier | modifier le wikicode]Le fichier est corrompu pour "vim" suite à une modification, mais pas pour les autres éditeurs. En utilisant donc un pour le ravoir.
mount.nfs: mount point /mnt/public does not exist
[modifier | modifier le wikicode]Lancer : mkdir /mnt/public
avant le montage.
Please install all available updates for your release before upgrading
[modifier | modifier le wikicode]sudo apt update && sudo apt full-upgrade && sudo apt update && sudo do-release-upgrade
Si ça ne suffit pas, désinstaller les paquets listés avec :
apt list --upgradable
This account is currently not available
[modifier | modifier le wikicode]Par exemple pour lancer un processus en tant que www-data :
su - www-data -s /bin/bash -c 'pwd'
Nagios
[modifier | modifier le wikicode]- Les erreurs du serveur peuvent être obtenues avec
tail /usr/local/nagios/var/nagios.log
. - Celles du client Windows dans
C:\Program Files\NSClient++\nsclient.log
(si configuré dans le nsclient.ini).
connect to address 127.0.0.1 and port 12489: Connexion refusée
[modifier | modifier le wikicode]Si le pare-feu est déjà ouvert à Nagios ou au port 12489, et si C:\Program Files\NSClient++\nsc.ini
autorise déjà l'IP du serveur Nagios, et que le processus nscp.exe est bien lancé, c'est peut être qu'avec Nagios 4 il faut utiliser C:\Program Files\NSClient++\nsclient.ini
.
Normalement ensuite un telnet 127.0.0.1 12489
depuis le client fonctionne.
Erreurs sur /usr/local/nagios/var/spool/checkresults
[modifier | modifier le wikicode]Ex :
Error in configuration file '/usr/local/nagios/etc/nagios.cfg' - Line 452 (Check result path '/usr/local/nagios/var/spool/checkresults' is not a valid directory) Error: Unable to write to check_result_path ('/usr/local/nagios/var/spool/checkresults') - Permission denied
En effet, /usr/local/nagios/var/spool/checkresults
est nécessaire au lancement du processus Nagios 4, et peut être créé manuellement à cet effet :
mkdir /usr/local/nagios/var/spool/
mkdir /usr/local/nagios/var/spool/checkresults/
chown nagios /usr/local/nagios/var/spool/checkresults
chgrp nagios /usr/local/nagios/var/spool/checkresults
Error: Could not open command file '/usr/local/nagios/var/rw/nagios.cmd' for update!
[modifier | modifier le wikicode]Si depuis le portail web on ne peut pas planifier de maintenance à cause de cette erreur, alors que les permissions du fichier semblaient correctes, il faut modifier le fichier suivant[1] :
vim /etc/init.d/nagios
Rechercher la ligne démarrant par "chown $NagiosUser:$NagiosGroup $NagiosRunFile", puis ajouter en dessous :
sleep 10 chmod 666 /usr/local/nagios/var/rw/nagios.cmd
/etc/init.d/nagios restart
Internal Server Error
[modifier | modifier le wikicode]Si la page d'accueil fonctionne mais pas les vues monitoring, c'est certainement que le CGI n'arrive pas à s'exécuter.
Parfois l'erreur est notée plus clairement : You don't have permission to access /cgi-bin/nagios3/status.cgi on this server.
It appears as though you do not have permission to view information for any of the services you requested
[modifier | modifier le wikicode]Dans l'interface web, passer "use_authentication=1" à 0 dans cgi.cfg.
Kernel panix
[modifier | modifier le wikicode]Peut se produire si la RAM est insuffisante (ex : < 512 Mo sur Ubuntu 16.04).
Network Unreachable
[modifier | modifier le wikicode]Si le serveur Nagios ping une machine qui fonctionne, mais qu'elle y apparait comme injoignable, c'est à cause de la différence entre le ping IPv4 et le ping6. Il faut juste modifier le check-host-alive de command.cfg en ajoutant "-4" à la fin :
define command{
command_name check-host-alive
command_line $USER1$/check_ping -H $HOSTADDRESS$ -w 3000.0,80% -c 5000.0,100% -4
}
NSClient - ERROR: Could not get data for 5 perhaps we don't collect data this far back?
[modifier | modifier le wikicode]Un reboot du service ne change rien, il faut redémarrer l'OS.
NSClient - ERROR: Could not get value
[modifier | modifier le wikicode]Idem que ci-dessus.
NSClient - ERROR: Failed to get PDH valuee
[modifier | modifier le wikicode]Idem que ci-dessus.
NSClient - ERROR: Invalid password
[modifier | modifier le wikicode]Sur le client Windows, modifier dans C:\Program Files\NSClient++\NSC.ini
, la ligne password=
, afin qu'il corresponde à celui définit sur le serveur, dans /usr/local/nagios/etc/objects/resource.cfg
à la ligne $USER4$=
. Ou vice-versa.
Sinon réinstaller le client, sa version n'est peut-être plus à jour.
Si la commande suivante fonctionne depuis le serveur, c'est qu'il faut compléter commands.cfg
:
/usr/local/nagios/libexec/check_nt -H Mon_IP_Cliente -v USEDDISKSPACE -p 12489 -l c -s Mon_Mot_De_Passe
Status UNKNOWN, Status Information Utilisation:
[modifier | modifier le wikicode]La connexion au client Nagios fonctionne, mais le statut est flou : il faut réinstaller et reconfigurer Nagios client (problème de version avec le serveur incompatible).
Warning: Host 'xxx' has no default contacts or contactgroups defined!
[modifier | modifier le wikicode]Survient dans les logs au lancement de Nagios pour avertir qu'en cas d'alerte sur la machine mentionnée, personne ne sera prévenu.
Pour y remédier, vérifier la ligne contact_groups dans template.cfg :
define host{
name xxx
contact_groups admins
...
}
Nginx
[modifier | modifier le wikicode]Logs
[modifier | modifier le wikicode]tail /var/log/nginx/error.log
Flusher le cache des redirections 301
[modifier | modifier le wikicode]Dans les .conf[2] :
proxy_cache_valid any 0m;
Flusher le cache DNS
[modifier | modifier le wikicode]sudo systemd-resolve --flush-caches
Messages d'erreur
[modifier | modifier le wikicode]413 Request Entity Too Large
[modifier | modifier le wikicode]Dans nginx.conf, augmenter la valeur :
client_max_body_size 100M;
504 timeout
[modifier | modifier le wikicode]http { fastcgi_read_timeout 300; proxy_read_timeout 300; proxy_connect_timeout 300; proxy_send_timeout 300; }
Access to fetch at 'https://example.com' from origin 'http://example.fr' has been blocked by CORS policy: Response to preflight request doesn't pass access control check: The 'Access-Control-Allow-Origin' header contains multiple values
[modifier | modifier le wikicode]Dans le vhost, retirer la clause suivante (car elle se retrouve en double chez le client) :
Access-Control-Allow-Origin:
Blocage d’une requête multiorigines (Cross-Origin Request) : la politique « Same Origin » ne permet pas de consulter la ressource distante située sur https://example.com. Raison : le recours à plusieurs en-têtes CORS « Access-Control-Allow-Origin » n’est pas autorisé.
[modifier | modifier le wikicode]add_header 'Access-Control-Allow-Origin' '*';
Si l'erreur survient sur Firefox et pas Chrome : remplacer l'étoile par les domaines d'origine.
closed keepalive connection
[modifier | modifier le wikicode]Ce n'est pas à proprement parler une erreur, mais une notification normale.
Connection refused
[modifier | modifier le wikicode]Il manque l'activation du site (ln -s /etc/nginx/sites-available/... /etc/nginx/sites-enabled).
directory index of "/var/www/mon_site/" is forbidden, client: 172.170.0.1, server: example.com, request: "GET / HTTP/1.1", host: "example.com"
[modifier | modifier le wikicode]Si le dossier est bien accessible en shell, il faut remplacer dans le vhost :
location / {
try_files $uri $uri/ /index.html index.php;
}
par :
location / {
try_files $uri /index.html index.php;
}
FastCGI sent in stderr: "Primary script unknown" while reading response header from upstream ou Nginx propose de télécharger le fichier d'index au lieu de l'exécuter
[modifier | modifier le wikicode]Ajouter au vhost concerné le nom de son fichier d'index (et vérifier qu'il existe et est accessible avec l'utilisateur du serveur web) :
index index.php app.php;
Sinon, remplacer le fastcgi_param SCRIPT_FILENAME
. Ex :
fastcgi_param: SCRIPT_FILENAME $document_root$fastcgi_script_name;
par :
fastcgi_param SCRIPT_FILENAME $realpath_root$fastcgi_script_name;
Dans Symfony cela peut survenir quand on utilise le vhost de la version 4 (public/index.php) sur la 3 (web/app.php ou app_dev.php).
fastcgi_pass
[modifier | modifier le wikicode]connect() failed (111: Connection refused) while connecting to upstream, client: 172.170.0.1, server: example.com, request: "GET / HTTP/1.1", upstream: "fastcgi://172.170.0.11:9000", host: "example.com"
[modifier | modifier le wikicode]Remplacer dans le vhost :
fastcgi_pass unix:/run/php/7.3-default.sock;
par :
fastcgi_pass php7.3-fpm:9000;
host not found in upstream "php73-fpm" ou php7.3-fpm could not be resolved ou Failed at step EXEC spawning /usr/lib/php/php-fpm-socket-helper: No such file or directory
[modifier | modifier le wikicode]Changer le vhost concerné vers unix:/var/run/php/php7.3-fpm.sock
.
connect() to unix:/var/run/php/php7.3-fpm.sock failed (2: No such file or directory) while connecting to upstream
[modifier | modifier le wikicode]Généralement assorti de "502 Bad Gateway" dans le navigateur.
Installer php7.3-fpm ou changer le vhost vers fastcgi_pass php7.3-fpm:9000;
.
File not found
[modifier | modifier le wikicode]Vérifier les logs Nginx, cela peut être dû à "Permission denied". Si un chmod ne résout pas le problème, recloner l'appli.
Si ça survient à chaque relance, ça vient peut-être de Git : Git/Débogage#File_mode_changed_from_100644_to_100755.
no resolver defined to resolve php73-fpm
[modifier | modifier le wikicode]Ajouter dans nginx.conf :
resolver 127.0.0.1;
pread() / pwrite() "/etc/nginx/conf.d/default.conf" failed (38: Function not implemented)
[modifier | modifier le wikicode]Relancer Docker Desktop.
"ssl_stapling" ignored, issuer certificate not found
[modifier | modifier le wikicode]Modifier le vhost : changer de certificat ou ajouter :
ssl_stapling off;
upstream timed out (110: Connection timed out) while reading response header from upstream, upstream: "fastcgi://unix:/var/run/php/php7.3-fpm.sock"
[modifier | modifier le wikicode]Relancer le processus php7.3-fpm.
Postfix
[modifier | modifier le wikicode]421 Server Busy Error
[modifier | modifier le wikicode]Trouver le goulet d'étranglement avec qshape
.
451 4.3.0 Temporary lookup failure
[modifier | modifier le wikicode]Sinon, recopier le main.cf
ci-dessus.
454 4.7.1 Relay access denied / relaying denied
[modifier | modifier le wikicode]- Commenter le bridage par adresses réseaux dans
/etc/postfix/main.cf
:
mynetworks =
- Sinon, vérifier que le domaine du destinataire figure bien dans
/etc/postfix/main.cf
:
mydestination =
- Sinon, dans
/etc/postfix/main.cf
, le paramètre virtual_mailbox_domains est vide[3]. - Sinon, ajouter ou modifier les lignes suivantes à
/etc/postfix/main.cf
:
smtpd_recipient_restrictions = permit_mynetworks permit_sasl_authenticated reject_unauth_destination
- Sinon, recopier le
main.cf
ci-dessus.
Lors des tests, ne pas commenter relayhost =
pendant plus d'une heure sous peine de devenir spammeur à son insu.
501 5.1.7 Bad sender address syntax
[modifier | modifier le wikicode]Modifier l'adresse de l'expéditeur (ex : dans les options Squirrel).
550 relay not permitted / Sender verify failed
[modifier | modifier le wikicode]Vérifier le reverse DNS.
550 unknown recipient / 550 5.1.1: Recipient address rejected: User unknown in local recipient table
[modifier | modifier le wikicode]Le domaine ou sa boite mail n'est pas installé sur le MX.
S'il s'agit bien d'un utilisateur local, créer un alias d'une boite existante.
Sinon, si le serveur MX distant fonctionne par ailleurs, commenter dans /etc/postfix/main.cf
:
mydestination =
Et relancer postfix.
Connection closed by foreign host / ou aucune commande ne répond après la connexion au SMTP
[modifier | modifier le wikicode]Si le serveur s'arrête immédiatement après son lancement, certaines erreurs sont visibles dans les logs. Sinon, recopier le main.cf
ci-dessus.
dsn=4.4.1, status=deferred
[modifier | modifier le wikicode]Si les emails fonctionnent en local, mais pas depuis l'extérieur (avec la même adresse d'expéditeur), et qu'ils ne sont pas visibles dans
tail -30 /var/log/mail.log
Retester en ouvrant le port SMTP du pare-feu :
iptables -A INPUT -i eth0 -p tcp --dport 25 -j ACCEPT
Ou sinon en ouvrant tous les ports :
#!/bin/sh
echo "Flushing iptables rules..."
sleep 1
iptables -F
iptables -X
iptables -t nat -F
iptables -t nat -X
iptables -t mangle -F
iptables -t mangle -X
iptables -P INPUT ACCEPT
iptables -P FORWARD ACCEPT
iptables -P OUTPUT ACCEPT
dsn=5.4.6, status=bounced (mail for mail.mondomaine.fr loops back to myself)
[modifier | modifier le wikicode]- Le paramètre mydestination n'est pas bien définit.
- Le domaine est inactif dans la table MySQL[4]
Erreurs Dovecot
[modifier | modifier le wikicode]Error: Invalid settings in userdb
[modifier | modifier le wikicode]Survient quand on se connecte par exemple au webmail en root. Cette protection incite à utiliser un autre compte, la solution la plus simples est de définir un alias dans pour root dans /etc/aliases.
Si cela survient alors qu'un alias existait déjà, il suffit de relancer newaliases
pour réparer.
Error: stat(/home/postmaster/Maildir/tmp) failed: Permission denied
[modifier | modifier le wikicode]chmod -R 777 /home/postmaster/Maildir/
Erreurs fetchmail
[modifier | modifier le wikicode]Les symptômes suivants sont liés à la même erreur fetchmail :
- POP3 : Erreur de login ou d'identification inconnue / erreur socket durant la réception
- IMAP : Connexion refusée / Échec de l'autorisation
- SMTP : The recipient server did not accept our requests to connect. Socket error
Pour déboguer, utiliser la commande :
fetchmail -v
Sinon, bien vérifier que l'utilisation et le mot de passe sont entre guillemets dans :
vim ~/.fetchmailrc
Et le chemin vers le programme dans :
vim ~/.forward
Les retours de mails sont visibles dans :
ls -alh /var/lib/fetchmail/Maildir/new
ou :
ls -alh /home/user/Maildir/new
Erreurs procmail
[modifier | modifier le wikicode]Mails perdus / delivered to command: procmail -a "$EXTENSION" / delivered to command: IFS=' '&&exec /usr/bin/procmail -f-||exit 75 #user
[modifier | modifier le wikicode]Si les logs montrent que les mails sont bien envoyés, mais restent introuvables par ailleurs, vérifier la boite système via :
procmail -v
Si cela commence par /var/mail/, les emails perdus sont probablement tous dans le fichiers :
cat /var/mail/nobody
Pour les router vers les boites des utilisateurs, revoir la configuration des .forward
et .procmailrc
ci-dessus, jusqu'à voir les nouveaux dans :
ls -alh /home/user/Maildir/new
Unable to connect to remote host: Connection refused
[modifier | modifier le wikicode]/etc/init.d/postfix start
ou si les logs donnent :
NO [AUTHENTICATIONFAILED] Authentication failed.
alors réinstaller.
unknown key version / dkim=temperror (no key for signature)
[modifier | modifier le wikicode]Lorsqu'on envoie par webmail, il faut qu'un logiciel insère automatiquement la signature DKIM dans chaque courrier sortant. C'est pourquoi il faut installer OpenDKIM[5].
Lorsqu'il redémarre, le syslog peut indiquer des erreurs de permissions sur la clé qu'il faut corriger :
/etc/init.d/opendkim restart
tail /var/log/syslog
chown opendkim /etc/ssl/private/dkim.key
chmod 700 /etc/ssl/private/dkim.key
warning: cannot get RSA private key from file: nomdedomaine.fr.key disabling TLS support
[modifier | modifier le wikicode]Ceci apparait dans mail.log quand on chiffre la clef privée avec un mot de passe. Il ne faut donc pas en mettre.
warning: connect #1 to subsystem private/proxymap: Connection refused
[modifier | modifier le wikicode]Il manque la ligne dans master.cf :
proxymap unix - - n - - proxymap
Références
[modifier | modifier le wikicode]- ↑ http://alexnogard.com/error-could-not-open-command-file-usrlocalnagiosvarrwnagios-cmd-for-update/
- ↑ https://docs.nginx.com/nginx/admin-guide/content-cache/content-caching/
- ↑ http://postfix.traduc.org/
- ↑ http://unix.stackexchange.com/questions/128630/postfix-email-bounced-mail-for-domain-loops-back-to-myself
- ↑ https://sourceforge.net/projects/opendkim/files/
Médiagraphie
A. S. Tanenbaum, « Modern Operating Systems », Prentice Hall, 951 p., 2001.
S. Pierre, « Introduction aux ordinateurs : organisation, exploitation et programmation », Télé-université, 253 p., 1996.
Ellen Siever et al., « Linux in a nutshell : a desktop quick reference », O’Reilly and Associates, 2000.
Jeffrey Dean, « LPI Linux Certification in a Nutshell: a desktop quick reference », O’Reilly and Associates, 2000.
Renaldo Garcia, “Linux – Un système d’exploitation Unix », Éditions Vermette, 2000.
Auteurs
L'écriture de ce livre a été initié par Stéphane Gill. Les deux premiers chapitres sont basés sur les notes de cours "Système d'exploitation" de Stéphane Gill utilisées au collège Ahuntsic.
Les chapitres suivants ont été écrits par Alexandre GUY et les étudiants de la formation Administrateur Systèmes & Réseaux de l'Université de Perpignan Via Domitia (UPVD).
Merci également aux autres wikinautes qui ont participés à l'élaboration de ce wikibook en le complétant et corrigeant.
GFDL | Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la licence de documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première page de couverture et sans texte de dernière page de couverture. |